WO2024150720A1 - Three-dimensional information acquisition device - Google Patents
Three-dimensional information acquisition device Download PDFInfo
- Publication number
- WO2024150720A1 WO2024150720A1 PCT/JP2024/000101 JP2024000101W WO2024150720A1 WO 2024150720 A1 WO2024150720 A1 WO 2024150720A1 JP 2024000101 W JP2024000101 W JP 2024000101W WO 2024150720 A1 WO2024150720 A1 WO 2024150720A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- distance image
- distance
- visible light
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
- G01S7/486—Receivers
- G01S7/487—Extracting wanted echo signals, e.g. pulse detection
Definitions
- the present invention relates to a three-dimensional information acquisition device.
- This application claims priority to Japanese Patent Application No. 2023-002476 filed in Japan on January 11, 2023, Japanese Patent Application No. 2023-002483 filed in Japan on January 11, 2023, and Japanese Patent Application No. 2023-002486 filed in Japan on January 11, 2023. The contents of which are incorporated herein by reference.
- a method for measuring three-dimensional shapes in which near-infrared light is irradiated onto an object, and the distance to the object is measured based on the time of flight of the light reflected from the object.
- a ToF (Time of Flight) camera is known as a device using this measurement method.
- the light received by the sensor is a mixture of direct light reflected directly from the object and indirect light reflected from an object other than the object (for example, a wall located behind the object).
- the present invention was made in consideration of these circumstances, and aims to provide a distance measurement technology that can reduce the effects of multipath.
- One aspect of this embodiment is a three-dimensional information acquisition device that includes a first distance image acquisition unit that acquires a first distance image, which is a distance image including multiple distance values obtained according to the time between irradiating light and receiving the light reflected from an object; a second distance image acquisition unit that acquires a second distance image, which is a distance image obtained by irradiating light on the same object as the first distance image, but by irradiating light at a different irradiation angle from the first distance image; and a generation unit that determines the effect of multipath caused by light reflection based on the first distance image and the second distance image, and generates three-dimensional information of the object by combining the first distance image and the second distance image based on the determination result.
- a first distance image acquisition unit that acquires a first distance image, which is a distance image including multiple distance values obtained according to the time between irradiating light and receiving the light reflected from an object
- a second distance image acquisition unit that acquires a second distance image,
- the distance image has distance values corresponding to each coordinate in a two-dimensional coordinate system
- the generation unit compares the distance values contained in the first distance image and the distance values contained in the second distance image at the same coordinate, and determines the effect of multipath due to light reflection based on the comparison result.
- the three-dimensional information acquisition device described in [1] or [2] above further includes an irradiation unit that irradiates light to acquire the distance image, and the irradiation unit is capable of changing the direction in which the light is irradiated depending on the position of the target object.
- the three-dimensional information acquisition device described in [3] above further includes a visible light image acquisition unit that acquires a visible light image of the object, and the irradiation unit is capable of varying the direction of light irradiation according to the position of the object obtained by analyzing the visible light image.
- the three-dimensional information acquisition device described in any one of [1] to [4] above further includes an irradiation unit that irradiates light to acquire the distance image, and the irradiation unit further includes a light-emitting unit that emits light and a diffusion unit that diffuses the light emitted by the light-emitting unit, and irradiates light at different irradiation angles by varying the distance between the light-emitting unit and the diffusion unit.
- One reference aspect of this embodiment is a three-dimensional information acquisition device that includes a first distance image acquisition unit that acquires a first distance image, which is a distance image including multiple distance values obtained according to the time from when light is irradiated to when the light reflected off the object and the background is received; a second distance image acquisition unit that acquires a second distance image, which is a distance image obtained by irradiating light on the same object as the first distance image, and which is obtained using a background that has a lower near-infrared reflectance than the background in the first distance image; and a generation unit that determines the effect of multipath caused by light reflection based on the first distance image and the second distance image, and generates three-dimensional information of the object by combining the first distance image and the second distance image based on the determination result.
- a first distance image acquisition unit that acquires a first distance image, which is a distance image including multiple distance values obtained according to the time from when light is irradiated to when the light reflected off the object and the
- the distance image has distance values corresponding to each coordinate in a two-dimensional coordinate system
- the generation unit compares the distance values contained in the first distance image and the distance values contained in the second distance image at the same coordinate, and determines the effect of multipath caused by light reflection based on the comparison result.
- the three-dimensional information acquisition device described in [A1] or [A2] above further includes a first visible light image acquisition unit that acquires a first visible light image, which is a visible light image capturing an image of the object and background corresponding to the first distance image, and a second visible light image acquisition unit that acquires a second visible light image, which is a visible light image capturing an image of the object and background corresponding to the second distance image, and the first visible light image and the second visible light image have different imaging conditions for determining the brightness of the visible light images.
- a first visible light image acquisition unit that acquires a first visible light image, which is a visible light image capturing an image of the object and background corresponding to the first distance image
- a second visible light image acquisition unit that acquires a second visible light image, which is a visible light image capturing an image of the object and background corresponding to the second distance image
- the first visible light image and the second visible light image have different imaging conditions for determining the brightness of the visible light images.
- the three-dimensional information acquisition device described in [A1] or [A2] above further includes a first visible light image acquisition unit that acquires a first visible light image, which is a visible light image of the object and background corresponding to the first distance image; a second visible light image acquisition unit that acquires a second visible light image, which is a visible light image of the object and background corresponding to the second distance image; and a visible light image generation unit that generates pixel information to be assigned to the three-dimensional information of the object based on the acquired first visible light image and the acquired second visible light image, and the visible light image generation unit generates the pixel information according to a result of comparing pixel values of the acquired first visible light image and pixel values of the acquired second visible light image.
- one aspect is a three-dimensional information acquisition system comprising a three-dimensional information acquisition device described in any one of [A1] to [A5] above, and an infrared absorbing sheet that is used when acquiring the second distance image and that is a background having low reflectance of near-infrared rays.
- One reference aspect of this embodiment is a three-dimensional information acquisition device that includes a first distance image acquisition unit that acquires a first distance image, which is a distance image including a plurality of distance values obtained according to the time between irradiating light and receiving the light reflected by an object; a second distance image acquisition unit that acquires a second distance image, which is a distance image obtained by irradiating light onto a part of the object that is the same as the first distance image, with light at an irradiation angle different from that of the first distance image, and which is obtained by enlarging a part of the object that is the same as the first distance image with an optical member; and a generation unit that determines the effect of multipath caused by light reflection based on the first distance image and the second distance image, and generates three-dimensional information of the object by combining the first distance image and the second distance image based on the determination result.
- a first distance image acquisition unit that acquires a first distance image, which is a distance image including a plurality of
- the first distance image and the second distance image are acquired while keeping the optical axis fixed.
- the three-dimensional information acquisition device described in [B1] or [B2] above further includes a visible light image acquisition unit that acquires a visible light image of the object, and the magnification achieved by the optical member is based on the visible light image acquired by the visible light image acquisition unit.
- the visible light image acquisition unit acquires a first visible light image, which is a visible light image having substantially the same angle of view as the first distance image, and a second visible light image, which is a visible light image having substantially the same angle of view as the second distance image, and the irradiation angle of the light irradiated to acquire the distance image is determined according to the angle of view of the visible light image.
- the three-dimensional information acquisition device described in [B4] above further includes a visible light image generation unit that generates pixel information to be added to the three-dimensional information of the object based on the acquired first visible light image and the acquired second visible light image, and the visible light image generation unit complements pixel values at coordinates in the first visible light image that have a lower resolution than the second visible light image using a predetermined method.
- the effects of multipath can be reduced and the distance to the target object can be measured.
- FIG. 1 is a diagram for explaining an overview of a three-dimensional information acquisition device according to a first embodiment.
- FIG. 2 is a functional configuration diagram showing an example of a functional configuration of a three-dimensional information acquisition device according to the first embodiment.
- FIG. 4A to 4C are diagrams for explaining a first irradiation by the three-dimensional information acquisition device according to the first embodiment.
- 5A to 5C are diagrams for explaining a second irradiation by the three-dimensional information acquisition device according to the first embodiment.
- FIG. 2 is a second diagram for explaining the first irradiation by the three-dimensional information acquisition device according to the first embodiment.
- FIG. 2 is a second diagram for explaining the second irradiation by the three-dimensional information acquisition device according to the first embodiment.
- FIG. 11 is a functional configuration diagram showing an example of a functional configuration of a three-dimensional information acquisition device according to a second embodiment.
- 11A and 11B are diagrams for explaining first and second irradiation by a three-dimensional information acquisition device according to a second embodiment.
- 13A to 13C are diagrams illustrating an example of a visible light image obtained by a three-dimensional information acquisition device according to a second embodiment when a first background is used and a visible light image obtained by a three-dimensional information acquisition device according to a second embodiment when a second background is used.
- FIGS. 13A to 13C are diagrams showing an example of point cloud data when a first distance image is used and a second distance image is used by a three-dimensional information acquisition device according to a second embodiment.
- FIG. 11 is a schematic diagram showing an example of a cross section of a three-dimensional information acquisition device according to a third embodiment.
- FIG. 11 is a functional configuration diagram showing an example of a functional configuration of a three-dimensional information acquisition device according to a third embodiment.
- 13A and 13B are diagrams showing an example of point cloud data obtained by combining a distance image and a visible light image at the wide-angle end captured by the three-dimensional information acquisition device of the third embodiment.
- 13A and 13B are diagrams showing an example of point cloud data obtained by combining a distance image and a visible light image at the telephoto end by the three-dimensional information acquisition apparatus according to the third embodiment.
- 13A and 13B are diagrams showing an example of point cloud data obtained by combining a distance image and a visible light image at the wide-angle end and a distance image and a visible light image at the telephoto end using a three-dimensional information acquisition device according to a third embodiment.
- 13A to 13C are diagrams for explaining pixel value complementation by a three-dimensional information acquisition device according to a third embodiment.
- based on XX in this application means “based on at least XX,” and includes cases where it is based on other elements in addition to XX. Furthermore, “based on XX” is not limited to cases where XX is used directly, but also includes cases where it is based on XX that has been subjected to calculations or processing. "XX” is any element (for example, any information).
- FIG. 1 is a diagram for explaining an outline of a three-dimensional information acquisition device according to embodiment 1.
- the three-dimensional information acquisition device 10 acquires three-dimensional information of an object T existing in a three-dimensional space.
- the three-dimensional information acquired by the three-dimensional information acquisition device 10 includes at least information on the three-dimensional shape of the object T.
- the three-dimensional information acquisition device 10 measures the distance L1 from the three-dimensional information acquisition device 10 to the object T.
- the three-dimensional information acquisition device 10 acquires the three-dimensional shape of the object T by measuring the distance L1 to the object T at each coordinate of a two-dimensional coordinate system.
- the object T targeted by the three-dimensional information acquisition device 10 includes anything that is the subject of acquisition of three-dimensional information, such as animals and objects. Behind the object T, there is a background BG.
- the background BG may be, for example, a screen such as a green screen used for shooting, or may be a simple wall, floor, building, natural object, or other background that is reflected during normal shooting.
- the three-dimensional information acquisition device 10 may be used, for example, by a professional photographer in an indoor photography studio, or by a general user in a situation similar to normal photography, indoors or outdoors.
- the three-dimensional information acquisition device 10 includes a light receiving unit 110, an irradiation unit 120, and a control unit 130.
- the light receiving unit 110 may include an optical lens such as an objective lens.
- the irradiation unit 120 irradiates the object T with irradiation light.
- the irradiation unit 120 may be a light source such as a laser diode. More specifically, the irradiation unit 120 may be a VCSEL (Vertical Cavity Surface Emitting Laser) capable of emitting a laser beam in the vertical direction.
- VCSEL Very Cavity Surface Emitting Laser
- the light irradiated by the irradiation unit 120 (first irradiation light BM1) is reflected by the object T, and the light reflected by the object T (second irradiation light BM2) is incident on the light receiving unit 110.
- the control unit 130 measures the distance L1 from the three-dimensional information acquisition device 10 to the object T according to the time (flight time) between emitting and receiving light.
- the light receiving unit 110 has a plurality of light receiving elements (not shown) arranged in a two-dimensional array.
- the control unit 130 measures the three-dimensional shape of the object T according to the distance measurement information of each of the plurality of light receiving elements.
- a pair of light receiving units 110 and irradiating units 120 is shown, but a configuration in which a plurality of irradiating units 120 are provided for one light receiving unit 110 may also be used. In this case, it is preferable that the plurality of irradiating units 120 are provided in the vicinity of the light receiving unit 110, with the light receiving unit 110 at the center.
- the three-dimensional information acquisition device 10 may be equipped with an image sensor (not shown).
- the image sensor has a plurality of pixels arranged in a two-dimensional array, and the plurality of pixels of the image sensor receive visible light imaged by an optical lens provided in the light receiving unit 110, and generate a visible light image (RGB image) based on the received information.
- the visible light image format is not limited to the RGB format, and may be a YCbCr format or a grayscale (monochrome) format.
- the light (e.g., near-infrared light) irradiated by the irradiation unit 120 and reflected by the object T and the visible light for generating the visible light image may pass along the same optical axis and enter the light receiving unit 110.
- the three-dimensional information acquisition device 10 may be equipped with a visible light reflecting dichroic film (not shown) or the like, and may be split into two parts: near-infrared light that passes through the visible light reflecting dichroic film and visible light that is reflected by the visible light reflecting dichroic film.
- the light receiving element for distance measurement is placed on the optical axis of the light passing through the visible light reflecting dichroic film
- the image sensor for generating a visible light image is placed on the optical axis of the light reflected by the visible light reflecting dichroic film.
- FIG. 2 is a functional configuration diagram showing an example of the functional configuration of the three-dimensional information acquisition device according to the first embodiment. With reference to the diagram, an example of the functional configuration of the three-dimensional information acquisition device 10 will be described.
- the three-dimensional information acquisition device 10 includes a light receiving unit 110, an irradiation unit 120, and a control unit 130.
- the irradiation unit 120 includes a first irradiation unit 121 and a second irradiation unit 122.
- the first irradiation unit 121 and the second irradiation unit 122 irradiate irradiation light having different irradiation angles.
- the light receiving unit 110 receives the reflected light of the irradiation light irradiated by either the first irradiation unit 121 or the second irradiation unit 122 and reflected by the object T or the background BG.
- the irradiation angle of the first irradiation unit 121 is different from the irradiation angle of the second irradiation unit 122.
- the irradiation angle of the first irradiation unit 121 is wider than the irradiation angle of the second irradiation unit 122.
- the irradiation angle of the first irradiation unit 121 and the irradiation angle of the second irradiation unit 122 will be described with reference to FIG. 3 and FIG. 4.
- the term "irradiation angle” may be used synonymously with "field of view (FoV)".
- FIG. 3 is a diagram for explaining the first irradiation by the three-dimensional information acquisition device according to embodiment 1.
- the first irradiation performed by the first irradiation unit 121 will be explained with reference to the figure.
- the figure is a diagram of the arrangement in FIG. 1 as viewed from directly above.
- the three-dimensional information acquisition device 10 measures the three-dimensional shape of an object T that is in front of a background BG.
- the three-dimensional information acquisition device 10 includes a light receiving unit 110, a first irradiation unit 121, and a second irradiation unit 122.
- the three-dimensional information acquisition device 10 includes a first irradiation unit 121-1 and a first irradiation unit 121-2 as the first irradiation unit 121.
- the irradiation angle by the first irradiation unit 121 is shown as angle ⁇ .
- the light irradiated by the first irradiation unit 121 and reflected by the object T (the path of the light is described as irradiation light BM1-1) is not affected by multipath.
- the reflected light from the background BG may be further reflected by the object T, etc., and such light is affected by multipath. Due to the effect of multipath, the shape of the object T is actually as shown by the dotted line, but is measured as the shape shown by the solid line. This is because when affected by multipath, the Depth value (a value indicating the distance from the three-dimensional information acquisition device 10 to the object T) is measured as being larger (farther) than the actual value.
- the first irradiation unit 121 is described as being divided into first irradiation unit 121-1 and first irradiation unit 121-2, but one first irradiation unit 121 may irradiate light having an irradiation angle of angle ⁇ .
- first irradiation unit 121 may irradiate light having an irradiation angle of angle ⁇ .
- two first irradiation units 121 are provided as shown in the figure, it is preferable that the two first irradiation units 121 are provided at positions symmetrical to each other with the light receiving unit 110 at the center.
- FIG. 4 is a diagram for explaining the second irradiation by the three-dimensional information acquisition device according to the first embodiment.
- the second irradiation performed by the second irradiation unit 122 will be explained with reference to the same figure.
- the same figure is a diagram of the arrangement in FIG. 1 as seen from directly above.
- the three-dimensional information acquisition device 10 measures the three-dimensional shape of the object T that is in front of the background BG.
- the three-dimensional information acquisition device 10 includes a light receiving unit 110, a first irradiation unit 121, and a second irradiation unit 122.
- the irradiation angle by the second irradiation unit 122 is shown as angle ⁇ .
- the angle ⁇ is narrower than the angle ⁇ , and is an angle at which the object T fits just within the angle of view.
- the path of the light irradiated by the second irradiation unit 122 and reflected by the object T is described as irradiation light BM1-3.
- the angle ⁇ is narrower than the angle ⁇ , and is an angle at which the object T fits just within the angle of view, so less light reaches the background BG and less light reaches the light receiving unit 110 through multiple paths. Therefore, the second irradiation can reduce the influence of multipath.
- the influence of multipath is reduced, so that the shape of the object T is originally as shown by the dotted line, but the measurement result is also as shown by the solid line.
- the second irradiation can accurately measure the shape of the object T.
- a second irradiation unit 122 may be provided at a position facing the second irradiation unit 122 across the light receiving unit 110 (which can also be said to be below the light receiving unit 110).
- the first irradiation unit 121 is arranged in the left-right direction across the light receiving unit 110
- the second irradiation unit 122 is arranged in the up-down direction across the light receiving unit 110.
- the irradiation units that irradiate irradiation light at different irradiation angles are described as being divided into the first irradiation unit 121 and the second irradiation unit 122, but irradiation light at different irradiation angles may be irradiated by a single irradiation unit.
- the first irradiation unit 121 and the second irradiation unit 122 may be the same unit.
- the control unit 130 controls the light irradiation by the irradiation unit 120 and the exposure of the light receiving unit 110, and acquires information on the light received by the light receiving unit 110. Based on the information on the light irradiation and light reception, the control unit 130 measures the distance to the object T at each coordinate in the two-dimensional coordinate system, and acquires the three-dimensional shape of the object T.
- the control unit 130 includes a ToF sensor control unit 131, a first distance image acquisition unit 132, a second distance image acquisition unit 133, and a three-dimensional information generation unit 134.
- Each of these functional units is realized, for example, using electronic circuits.
- each functional unit may include internal storage means such as a semiconductor memory or a magnetic hard disk device as necessary.
- each function may be realized by a computer and software.
- the ToF sensor control unit 131 controls the irradiation of light by the irradiation unit 120. Specifically, the ToF sensor control unit 131 controls the timing of the irradiation of light by the first irradiation unit 121 by outputting the first control information CI1, and controls the timing of the irradiation of light by the second irradiation unit 122 by outputting the second control information CI2. The ToF sensor control unit 131 also controls the exposure when the light receiving unit 110 receives the reflected light when the irradiation unit 120 irradiates by outputting the third control information CI3. As a result, the ToF sensor control unit 131 acquires information about the reflected light by acquiring the received light information RI from the light receiving unit 110.
- the received light information RI may include information about the distance to the object T from which the reflected light is acquired according to each coordinate of the two-dimensional coordinates.
- the received light information RI may include each piece of information acquired by the light receiving unit 110 through exposure, or may include infrared light information and distance information for each coordinate acquired by signal processing based on the reflected light acquired by the light receiving unit 110 through multiple exposures.
- the infrared light information and distance information may be obtained by the ToF sensor control unit 131 performing signal processing based on information about the reflected light obtained from the light receiving unit 110.
- the ToF sensor control unit 131 generates a distance image based on the acquired light reception information RI.
- the distance image includes multiple distance values obtained according to the time from when light is emitted to when the light reflected by the object is received.
- the multiple distance values correspond to a two-dimensional coordinate system.
- the distance image can also be called a depth image obtained by the ToF sensor.
- the ToF sensor control unit 131 generates a first distance image DI1 based on the reflected light obtained as a result of irradiation by the first irradiation unit 121 by outputting the first control information CI1.
- the ToF sensor control unit 131 generates a second distance image DI2 based on the reflected light obtained as a result of irradiation by the second irradiation unit 122 by outputting the second control information CI2.
- the irradiation by the first irradiation unit 121 and the irradiation by the second irradiation unit 122 are performed on the same object T.
- the irradiation angle of the irradiation by the first irradiation unit 121 is different from the irradiation angle of the irradiation by the second irradiation unit 122.
- the second distance image DI2 is a distance image obtained by irradiating the same object T as the first distance image DI1 with light, and can also be said to be a distance image obtained by irradiating light at a different illumination angle than the first distance image DI1.
- the first distance image acquisition unit 132 acquires the first distance image DI1 generated by the ToF sensor control unit 131.
- the first distance image acquisition unit 132 outputs the acquired first distance image DI1 to the three-dimensional information generation unit 134.
- the second distance image acquisition unit 133 acquires the second distance image DI2 generated by the ToF sensor control unit 131.
- the second distance image acquisition unit 133 outputs the acquired second distance image DI2 to the three-dimensional information generation unit 134.
- the three-dimensional information generating unit 134 acquires the first distance image DI1 from the first distance image acquiring unit 132, and acquires the second distance image DI2 from the second distance image acquiring unit 133.
- the three-dimensional information generating unit 134 generates three-dimensional information of the object T based on the acquired first distance image DI1 and second distance image DI2.
- the irradiation angle of the light irradiated to obtain the first distance image DI1 is different from the irradiation angle of the light irradiated to obtain the second distance image DI2, specifically, the irradiation angle of the light irradiated to obtain the first distance image DI1 is wider.
- the second distance image DI2 Since the irradiation angle of the light irradiated to obtain the first distance image DI1 is wide, it can be said that the first distance image DI1 is affected by multipath. On the other hand, since the irradiation angle of the light irradiated to obtain the second distance image DI2 is narrower than the irradiation angle of the first distance image DI1 (ideally because of an angle that is irradiated only to the size or range of the object T), the second distance image DI2 has reduced effects of multipath. However, according to the second distance image DI2, the area outside the object T does not have a distance value (depth value) (value is 0). Therefore, there are areas where the second distance image DI2 does not provide a distance value.
- depth value distance value
- the three-dimensional information generating unit 134 generates three-dimensional information of the object T using the distance value of the first distance image DI1 for areas where the second distance image DI2 does not provide a distance value.
- the three-dimensional information of the object T generated by the three-dimensional information generating unit 134 has reduced effects of multipath caused by light reflection compared to the first distance image DI1.
- the three-dimensional information of the object T generated by the three-dimensional information generating unit 134 also includes information about the periphery of the object T (e.g., background BG) compared to the second distance image DI2.
- the three-dimensional information generating unit 134 may be simply referred to as a generating unit.
- the three-dimensional information generating unit 134 may determine which distance value to use depending on the result of comparing the distance value of the first distance image DI1 with the distance value of the second distance image DI2. In other words, the influence of multipath on the three-dimensional information of the object T is determined based on the result of comparing the distance value of the first distance image DI1 with the distance value of the second distance image DI2, and which distance value to use is determined depending on the determination result.
- the first distance image DI1 and the second distance image DI2 each have a distance value corresponding to each coordinate of the two-dimensional coordinate system. Therefore, the three-dimensional information generating unit 134 may compare the distance value included in the first distance image DI1 with the distance value included in the second distance image DI2 at the same coordinate, and generate three-dimensional information of the object T depending on the comparison result.
- the three-dimensional information generating unit 134 may determine that there is a multipath effect if the comparison result is ⁇ 5% or ⁇ 10%.
- the distance value of the second distance image DI2 may be used.
- the three-dimensional information generating unit 134 may determine that multipath has occurred and perform correction if the distortion of the object due to multipath is visibly unnatural.
- the determination of whether the distortion of the object due to multipath is visibly unnatural may be based on the size of the object T. For example, if the size of the object T is a circle with a diameter of 100 mm (millimeters), then a distortion of 5 mm is tolerated if the threshold is 5%, and 10 mm is tolerated if the threshold is 10%. In this way, the threshold may be set based on the allowable distortion.
- a visible light image acquisition unit (not shown) may be further provided to acquire a visible light image of the object T, and the three-dimensional information generation unit 134 may determine which distance value of the first distance image DI1 or the second distance image DI2 to use based on the acquired visible light image.
- the visible light image it is possible to detect the edge (contour) of the object T by performing image analysis such as differentiation of pixel values and frequency analysis.
- image analysis such as differentiation of pixel values and frequency analysis.
- a position where there is a certain amount of difference in distance value can be detected as the edge of the object T.
- the three-dimensional information generation unit 134 can use the distance value of the first distance image DI1 for the outside of the edge of the object T based on the edge of the object T in the visible light image, and the distance value of the second distance image DI2 for the inside of the edge of the object T.
- FIG. 5 is a second diagram for explaining the first irradiation by the three-dimensional information acquisition device according to the first embodiment.
- the diagram shows a state in which the position of the object T has moved from the center of the angle of view to the left, as compared with the arrangement in FIG. 3. Even in this state, the object T is present within the range of the angle ⁇ .
- the light irradiated by the first irradiating unit 121 and reflected by the object T (the path of this light is described as irradiated light BM1-1) is not affected by multipath.
- the reflected light from the background BG may be further reflected by the object T, etc., and such light is affected by multipath.
- FIG. 6 is a second diagram for explaining the second irradiation by the three-dimensional information acquisition device according to the first embodiment.
- the second irradiation by the three-dimensional information acquisition device 10 when the object T is not in the center of the angle of view will be explained.
- This diagram shows a state in which the position of the object T has moved from the center of the angle of view to the left, as compared to the arrangement in FIG. 4. In this state, if light with a narrow irradiation angle is irradiated to the center of the angle of view as in FIG. 4, the object T will not fit within the range of angle ⁇ .
- the angle at which the irradiation unit 120 irradiates light is changed to match the object T, thereby fitting the object T within the narrow angle of view.
- the irradiation unit 120 can change the direction in which light is irradiated depending on the position of the object T.
- the irradiation unit 120 may change the direction in which the second irradiation unit 122 faces based on the visible light image.
- the three-dimensional information acquisition device 10 further includes a visible light image acquisition unit that acquires a visible light image obtained by capturing an image of the object T, and the irradiation unit 120 can change the direction in which light is irradiated according to the position of the object T obtained by analyzing the acquired visible light image.
- the direction in which light is irradiated by the irradiation unit 120 may be, for example, by performing object detection processing on the acquired visible light image, and controlling the irradiation direction angle and irradiation range angle based on the center point of the range in which it is determined that an object exists.
- object detection processing on the acquired visible light image
- irradiation direction angle and irradiation range angle may be controlled based on the center point of the range recognized as a face. This makes it possible to generate three-dimensional information on the face of a person with reduced effects of multipath.
- the irradiation unit 120 is provided with a first irradiation unit 121 with a wide irradiation angle and a second irradiation unit 122 with a narrow irradiation angle, and the first irradiation and the second irradiation are switched by irradiating light from either one of them.
- a VCSEL that is normally available on the market
- the position of the diffuser is fixed from the viewpoint of eye safety, and it is difficult to change the irradiation angle. Therefore, in order to change the irradiation angle, it is necessary to prepare a VCSEL with a different irradiation angle in advance, and it is considered to adopt the embodiment described above.
- FIG. 7 is a diagram for explaining a method of changing the irradiation angle in the three-dimensional information acquisition device according to the first embodiment.
- the method of changing the irradiation angle will be explained with reference to the same figure.
- the illustrated irradiation unit 140 is a modified example of the irradiation unit 120.
- the same figure shows an example of the internal configuration of the irradiation unit 140.
- the irradiation unit 140 is a member for emitting light to acquire a distance image.
- the irradiation unit 140 is configured to include a light emitting unit 141 and a diffusion unit 142.
- the light emitting unit 141 is a member that emits light and may be, for example, a VCSEL.
- the diffusion unit 142 is a member that diffuses the light emitted by the light emitting unit 141 and may be, for example, a diffuser.
- the irradiation unit 140 irradiates light at different irradiation angles by varying the distance between the light emitting unit 141 and the diffusion unit 142.
- the irradiation unit 140 emits light at different irradiation angles.
- the diffusion unit 142 may be configured to shift in the front-rear direction (up-down direction indicated by the double-headed arrow in the figure) relative to the fixed light emitting unit 141, thereby making the distance between the light emitting unit 141 and the diffusion unit 142 variable.
- the ToF sensor control unit 131 may use the shift amount of the diffusion unit 142 to calculate the distance value, and may perform correction. Note that this correction may be ignored if it is within a range that can be ignored at the speed of light.
- the front-rear position shift mechanism of the diffusion unit 142 is configured so as not to come off easily.
- the distance between the light emitting unit 141 and the diffusion unit 142 is distance L41, which is the shortest among the distances shown in the figure.
- the irradiation angle is angle ⁇ 1
- light can be irradiated at the widest angle among the angles shown.
- the distance between the light-emitting section 141 and the diffusion section 142 is distance L43, which is the longest among the angles shown.
- the irradiation angle is angle ⁇ 3, and light can be irradiated at the narrowest angle among the angles shown.
- the distance between the light-emitting section 141 and the diffusion section 142 is distance L42, which is the distance between the example shown in FIG. 7(A) and the example shown in FIG. 7(C).
- the irradiation angle is angle ⁇ 2, and light can be irradiated at an irradiation angle between the example shown in FIG. 7(A) and the example shown in FIG. 7(C).
- the three-dimensional information acquisition device 10 acquires the first distance image DI1 by including the first distance image acquisition unit 132, and acquires the second distance image DI2 by including the second distance image acquisition unit 133.
- the first distance image DI1 and the second distance image DI2 are both distance images (depth images) including a plurality of distance values obtained according to the time from when light is irradiated to when the light reflected by the object is received.
- the first distance image DI1 and the second distance image DI2 are distance images obtained by irradiating light to the same object T, and are distance images obtained by irradiating light with different irradiation angles.
- the first distance image DI1 has distance information over a wide range because the distance to the object T is measured using light with a wide irradiation angle.
- the second distance image DI2 is less affected by multipath because the distance to the object T is measured using light with a narrow irradiation angle.
- the three-dimensional information acquisition device 10 includes a three-dimensional information generating unit 134, and generates three-dimensional information of the object T with reduced effects of multipath caused by light reflection based on the first distance image DI1 and the second distance image DI2. Therefore, according to this embodiment, a distance measurement technique capable of reducing the effects of multipath can be provided.
- the effects of multipath could not be reduced unless an environment susceptible to the effects of multipath (e.g., surrounding objects such as a background with high near-infrared light reflectance) was excluded.
- an environment susceptible to the effects of multipath e.g., surrounding objects such as a background with high near-infrared light reflectance
- a distance measurement technique capable of reducing the effects of multipath without excluding an environment susceptible to the effects of multipath can be provided.
- the first distance image DI1 and the second distance image DI2 both have distance values corresponding to each coordinate in the two-dimensional coordinate system. Furthermore, the three-dimensional information generating unit 134 compares the distance values contained in the first distance image DI1 and the second distance image DI2 at the same coordinate, and generates three-dimensional information of the object according to the comparison result. That is, the three-dimensional information acquisition device 10 determines which distance value to use according to the difference in the distance values. Coordinates with a large difference in distance values are likely to be affected by multipath in the first distance image DI1, which has a wide irradiation angle. For such coordinates, by using the distance values of the second distance image DI2, three-dimensional information can be generated in which the effects of multipath are reduced. Therefore, according to this embodiment, a distance measurement technology that can easily reduce the effects of multipath can be provided.
- the illumination unit 120 is provided to illuminate light for acquiring a distance image.
- the illumination unit 120 can change the direction in which light is illuminated depending on the position of the object T.
- the three-dimensional information acquisition device 10 can change the illumination angle depending on the position of the subject. Therefore, according to this embodiment, even if the object T is not in the center of the angle of view, a second illumination can be performed in which light is illuminated only on the object T. Therefore, according to this embodiment, it is possible to provide a distance measurement technique that can reduce the effects of multipath even if the object T is not in the center of the angle of view.
- the three-dimensional information acquisition device 10 further includes a visible light image acquisition unit, and thereby acquires a visible light image of the object T.
- the irradiation unit 120 can change the direction of light irradiation and the irradiation angle according to the position and size of the object T obtained by analyzing the visible light image. That is, the irradiation unit 120 can identify the position and size of the object T based on the visible light image, and change the irradiation direction and irradiation angle. Therefore, according to this embodiment, even if the object T is not at the center of the angle of view, the direction for performing the second irradiation can be automatically determined, and the second irradiation can be performed. Therefore, according to this embodiment, it is possible to provide a distance measurement technique that can reduce the effects of multipath even if the object T is not at the center of the angle of view.
- the three-dimensional information acquisition device 10 is provided with an irradiation unit 140, which irradiates light for acquiring a distance image
- the irradiation unit 140 is provided with a light-emitting unit 141 that emits light, and a diffusion unit 142 that diffuses the light emitted by the light-emitting unit 141.
- the irradiation unit 140 irradiates light at different irradiation angles by varying the distance between the light-emitting unit 141 and the diffusion unit 142.
- the irradiation angle can be changed according to the position and size of the object T. Therefore, according to this embodiment, it is possible to irradiate light at an appropriate irradiation angle according to the position and size of the object T, and it is possible to provide a distance measurement technology that can accurately reduce the effects of multipath.
- the second irradiation may be performed on a main object T among the multiple objects T, and the second irradiation may not be performed on the other objects T among the multiple objects T.
- the second irradiation corresponding to the first irradiation may be performed as many times as the number of objects T to obtain multiple second distance images DI2 that are less affected by multipath.
- the three-dimensional information generating unit 134 may generate three-dimensional information of multiple objects T based on one first distance image DI1 and multiple second distance images DI2.
- the irradiation angle is narrowed in the second irradiation according to the position and size of the object T, but if there is a limit to the adjustment of the irradiation angle (i.e., even when the irradiation angle is set to the narrowest, light is irradiated to the outside of the object T), it is possible to reduce the effect of multipath (although it may not be possible to completely eliminate the effect of multipath) by positioning the object T closer to the optical axis.
- the effect of multipath may also be reduced by adjusting the direction in which the second irradiation unit 122 faces so that the optical axis of the light irradiated by the second irradiation unit 122 passes through the center of the object T.
- the magnitude of the multipath effect is determined by the shape of the object T and the background BG.
- the multipath effect may be more in the horizontal direction or more in the vertical direction. Therefore, the three-dimensional information acquisition device 10 may perform different control depending on whether the multipath effect is more in the horizontal direction or more in the vertical direction. Whether the multipath effect is more in the horizontal direction or more in the vertical direction may be determined, for example, by a visible light image.
- the second irradiation unit 122 may be arranged vertically above and below the light receiving unit 110 (i.e., similar to the arrangement shown in FIG. 3).
- the second irradiation unit 122 may be arranged horizontally above and below the light receiving unit 110 (i.e., an arrangement rotated 90 degrees from the arrangement shown in FIG. 3).
- a second embodiment will be described with reference to Fig. 8 to Fig. 11.
- a different irradiation angle specifically, light with a narrow irradiation angle
- the second embodiment differs from the first embodiment in that a second distance image DI2 in which multipath is reduced is acquired by changing the background while keeping the irradiation angle fixed.
- the irradiation unit 120A of the three-dimensional information acquisition device 10A differs from the three-dimensional information acquisition device 10 in that it does not include a plurality of irradiation units that irradiate light at different irradiation angles.
- the three-dimensional information acquisition device 10A differs from the three-dimensional information acquisition device 10 in that it includes an irradiation unit 120A instead of an irradiation unit 120.
- the three-dimensional information acquisition device 10A also differs from the three-dimensional information acquisition device 10 in that it further includes a background information acquisition unit 150.
- the three-dimensional information acquisition device 10A also differs from the three-dimensional information acquisition device 10 in that it includes a control unit 130A instead of a control unit 130.
- the same components as those of the three-dimensional information acquisition device 10 may be denoted by the same reference numerals and description thereof may be omitted.
- the irradiation unit 120A emits light to obtain a distance image based on control information CI from the ToF sensor control unit 131A.
- the background information acquisition unit 150 acquires information about the background of the object T.
- the background information acquisition unit 150 outputs the acquired information to the ToF sensor control unit 131A as background information BGI.
- the background information acquisition unit 150 may acquire information about the background BG of the object T, for example, by an operation from a user.
- the background information acquisition unit 150 may acquire information about the background BG of the object T by capturing a visible light image and performing image analysis on the captured visible light image.
- the background information BGI may include information about whether the background has a high near-infrared reflectance or a low near-infrared reflectance.
- the background information acquisition unit 150 acquires information about the background BG of the object T by performing image analysis on a visible light image, for example, the edge of the object T may be detected, and if the outside of the object T is close to white, the background may be determined to have a high near-infrared reflectance, and if the outside of the object T is close to black, the background may be determined to have a low near-infrared reflectance.
- Control unit 130A includes a ToF sensor control unit 131A instead of ToF sensor control unit 131, a first distance image acquisition unit 132A instead of first distance image acquisition unit 132, a second distance image acquisition unit 133A instead of second distance image acquisition unit 133, and a three-dimensional information generation unit 134A instead of three-dimensional information generation unit 134.
- Control unit 130A is a modified example of control unit 130.
- the ToF sensor control unit 131A controls the light irradiation by the irradiation unit 120A. Specifically, the ToF sensor control unit 131A controls the timing of light irradiation by the irradiation unit 120A by outputting control information CI. The ToF sensor control unit 131A also acquires information about the reflected light received as a result of irradiation by the irradiation unit 120A. Specifically, the ToF sensor control unit 131A acquires information about the reflected light by acquiring light reception information RI from the light receiving unit 110. The light reception information RI may include information about the timing of acquiring the reflected light according to each coordinate of the two-dimensional coordinate system.
- the ToF sensor control unit 131A generates a distance image based on the acquired light reception information RI.
- the ToF sensor control unit 131A generates a first distance image DI1A based on the reflected light obtained when light is irradiated when the background of the object T is a first background BG1, which is a background with high reflectance of near-infrared rays (hereinafter referred to as first irradiation).
- the ToF sensor control unit 131A irradiates light (hereinafter referred to as the second irradiation) and generates a second distance image DI2A based on the resulting reflected light.
- the first irradiation and the second irradiation are performed on the same object T.
- the first distance image acquisition unit 132A acquires the first distance image DI1A generated by the ToF sensor control unit 131A.
- the first distance image acquisition unit 132A outputs the acquired first distance image DI1A to the three-dimensional information generation unit 134A.
- the second distance image acquisition unit 133A acquires the second distance image DI2A generated by the ToF sensor control unit 131A.
- the second distance image acquisition unit 133A outputs the acquired second distance image DI2A to the three-dimensional information generation unit 134A.
- the three-dimensional information generating unit 134A acquires the first distance image DI1A from the first distance image acquiring unit 132A, and acquires the second distance image DI2A from the second distance image acquiring unit 133A.
- the three-dimensional information generating unit 134A generates three-dimensional information of the object T based on the acquired first distance image DI1A and second distance image DI2A.
- the reflectance of near-infrared rays is lower than that of the first background BG1, so it can be said that it is less susceptible to the influence of multipath caused by light reflection compared to the case where the first background BG1 is used.
- the three-dimensional information generating unit 134A can generate three-dimensional information of the object T with reduced influence of multipath caused by light reflection based on the first distance image DI1A and the second distance image DI2A.
- the three-dimensional information generation unit 134A may be referred to simply as the generation unit.
- the three-dimensional information generation unit 134A may determine which distance value to use depending on the result of comparing the distance value in the first distance image DI1A with the distance value in the second distance image DI2A.
- the first distance image DI1A and the second distance image DI2A each have distance values corresponding to each coordinate in a two-dimensional coordinate system.
- the three-dimensional information generation unit 134A may compare the distance value contained in the first distance image DI1A with the distance value contained in the second distance image DI2A at the same coordinates, and generate three-dimensional information of the object T depending on the comparison result.
- the three-dimensional information acquisition device 10A measures the three-dimensional shape of the object T that is in front of the background.
- the three-dimensional information acquisition device 10A includes a light receiving unit 110 and an irradiation unit 120A.
- the three-dimensional information acquisition device 10A includes irradiation units 120A-1 and 120A-2 as the irradiation unit 120A.
- FIG. 9(A) shows an example of the first irradiation
- FIG. 9(B) shows an example of the second irradiation.
- a cylindrical gum case is used as the object T.
- a white wall with high near-infrared reflectance is used as the first background BG1
- a black wall with low near-infrared reflectance is used as the second background BG2.
- the light irradiated by the irradiation unit 120A and reflected by the object T (the path of this light is referred to as irradiation light BM2-1) is not affected by multipath.
- the reflected light from the first background BG1 may be further reflected by the object T, etc., and such light is affected by multipath. Due to the effect of multipath, the shape of the object T is actually as shown by the dotted line, but is measured as shown by the solid line. This is because when affected by multipath, the Depth value (a value indicating the distance from the three-dimensional information acquisition device 10A to the object T) is measured as being larger (farther) than the actual value.
- the light irradiated by the irradiation unit 120A and reflected by the object T (the path of the light is described as irradiation light BM2-1) is not affected by multipath.
- the reflected light from the second background BG2 may be further reflected by the object T, etc.
- the second background BG2 has a low reflectance of near-infrared rays, the reflected light is attenuated and such light is not affected by multipath (even if it is affected, the effect is minor).
- the shape of the object T is originally as shown by the dotted line, but the measurement result is also as shown by the solid line.
- the second irradiation using the second background BG2 allows the shape of the object T to be accurately measured.
- a configuration including the three-dimensional information acquisition device 10A and the second background BG2 may be referred to as a three-dimensional information acquisition system.
- the second background BG2 may be the first background BG1, such as a white wall, covered with a black cloth (a cloth with low near-infrared reflectance).
- the second background BG2 may be an infrared absorbing sheet or the like, which is a background with low near-infrared reflectance.
- the three-dimensional information generating unit 134A generates three-dimensional information of the object T, which reduces the effects of multipath caused by light reflection, based on the first distance image DI1A and the second distance image DI2A, in a manner similar to that described in the first embodiment.
- the luminance of the visible light image of the object T may deviate from an appropriate level depending on the luminance of the background. Therefore, in such a case, the imaging conditions (exposure, electronic amplification, shutter speed, etc.) when the first background BG1 is used may be different from the imaging conditions when the second background BG2 is used, and level correction may be performed.
- the three-dimensional information acquisition device 10A may realize such a function by including a first visible light image acquisition unit (not shown) and a second visible light image acquisition unit (not shown).
- the first visible light image acquisition unit acquires a first visible light image that is a visible light image obtained by capturing the object T and the first background BG1 corresponding to the first distance image DI1A.
- the second visible light image acquisition unit acquires a second visible light image that is a visible light image obtained by capturing the object T and the second background BG2 corresponding to the second distance image DI2A.
- the first visible light image and the second visible light image were captured under different imaging conditions for determining the brightness of the visible light image.
- the level correction as described above may be performed after imaging.
- the three-dimensional information acquisition device 10A may further include a visible light image generation unit (not shown) to perform level correction after imaging.
- the visible light image generation unit generates pixel information to be added to the three-dimensional information of the object T based on the acquired first visible light image and second visible light image.
- the visible light image generation unit also generates pixel information according to a result of comparing the pixel values of the acquired first visible light image with the pixel values of the second visible light image.
- the visible light image generation unit may determine that the level is outside the appropriate level and perform level correction by changing the exposure, electronic amplification, shutter speed, etc.
- FIG. 10 is a diagram showing an example of a visible light image when the first background is used and when the second background is used by the three-dimensional information acquisition device according to the second embodiment.
- FIG. 10(A) shows an image of a gum bottle and blocks around it, etc., with a general wall as the background. In this state, the general wall can be said to be the first background BG1, which has a high reflectance of near-infrared rays. Therefore, if an attempt is made to acquire a distance image in this state, it is likely to be affected by multipath.
- FIG. 10(B) shows an image of the same subject as FIG.
- the black cloth or the like is preferably an infrared absorbing sheet.
- the black cloth or the like can be said to be the second background BG2, which has a low reflectance of near-infrared rays. Therefore, if an attempt is made to acquire a distance image in this state, it is unlikely to be affected by multipath.
- FIG. 11 is a diagram showing an example of point cloud data when a first distance image is used and when a second distance image is used by a three-dimensional information acquisition device according to embodiment 2.
- a distance image will be described for each of the cases where a first background BG1 is used and where a second background BG2 is used.
- the image is rotated diagonally so that the distortion can be easily seen.
- FIG. 11(A) is an example of a first distance image DI1A, which is a distance image acquired under the conditions in which FIG. 10(A) was captured.
- DI1A is a distance image acquired under the conditions in which FIG. 10(A) was captured.
- the cylindrical gum bottle is distorted elongated in the depth direction.
- FIG. 11(B) is an example of a second distance image DI2A, which is a distance image acquired under the conditions in which FIG. 10(B) was captured. As can be seen from the figure, the distortion in the depth direction is less than that in FIG. 11(A). This is because the effect of multipath was reduced by using a background with low reflectance of near-infrared rays.
- the three-dimensional information acquisition device 10A acquires the first distance image DI1A by including the first distance image acquisition unit 132A, and acquires the second distance image DI2A by including the second distance image acquisition unit 133A.
- the first distance image DI1A and the second distance image DI2A are both distance images (depth images) including a plurality of distance values obtained according to the time from irradiating light to receiving the light reflected by the object.
- the first distance image DI1A and the second distance image DI2A are distance images obtained by irradiating light to the same object T, and are distance images obtained using different backgrounds BG.
- the first distance image DI1A is a distance image obtained using the first background BG1
- the second distance image DI2A is a distance image obtained using the second background BG2.
- the second background BG2 has a lower reflectance of near-infrared rays than the first background BG1.
- the three-dimensional information acquisition device 10A includes a three-dimensional information generating unit 134A, and generates three-dimensional information of the object T with reduced effects of multipath caused by light reflection based on the first distance image DI1A and the second distance image DI2A. Therefore, according to this embodiment, a distance measurement technique capable of reducing the effects of multipath can be provided.
- the effects of multipath could not be reduced unless an environment susceptible to the effects of multipath (for example, surrounding objects such as a background with high near-infrared light reflectance) was excluded.
- an environment susceptible to the effects of multipath for example, surrounding objects such as a background with high near-infrared light reflectance
- a distance measurement technique capable of reducing the effects of multipath without excluding an environment susceptible to the effects of multipath can be provided (i.e., three-dimensional information including information about the background of the object T can be generated).
- the first distance image DI1A and the second distance image DI2A both have distance values corresponding to each coordinate in the two-dimensional coordinate system. Furthermore, the three-dimensional information generating unit 134A compares the distance values contained in the first distance image DI1A and the second distance image DI2A at the same coordinate, and generates three-dimensional information of the object according to the comparison result. That is, the three-dimensional information acquisition device 10A determines which distance value to use according to the difference in the distance values. Coordinates with a large difference in distance values are likely to be affected by multipath in the first distance image DI1A using the first background BG1, which has a high reflectance of near-infrared rays. For such coordinates, the effect of multipath can be reduced by using the distance values of the second distance image DI2A. Therefore, according to this embodiment, a distance measurement technique that can easily reduce the effect of multipath can be provided.
- the three-dimensional information acquisition device 10A further includes a first visible light image acquisition unit and a second visible light image acquisition unit.
- the first visible light image acquisition unit acquires a first visible light image, which is a visible light image obtained by capturing an object T and a first background BG1 corresponding to the first distance image DI1A.
- the second visible light image acquisition unit acquires a second visible light image, which is a visible light image obtained by capturing an object T and a second background BG2 corresponding to the second distance image DI2A.
- the first visible light image and the second visible light image have different imaging conditions for determining the brightness of the visible light image.
- the visible light image using the first background BG1 and the visible light image using the second background BG2 are captured under different imaging conditions (exposure, electronic amplification, shutter speed, etc.). Therefore, according to this embodiment, it is possible to capture a visible light image under imaging conditions that provide an appropriate luminance level for the image.
- the three-dimensional information acquisition device 10A further includes a first visible light image acquisition unit, a second visible light image acquisition unit, and a visible light image generation unit.
- the first visible light image acquisition unit acquires a first visible light image, which is a visible light image obtained by capturing an image of the object T and the first background BG1 corresponding to the first distance image DI1A.
- the second visible light image acquisition unit acquires a second visible light image, which is a visible light image obtained by capturing an image of the object T and the second background BG2 corresponding to the second distance image DI2A.
- the visible light image generation unit generates pixel information to be added to the three-dimensional information of the object T based on the acquired first and second visible light images.
- the visible light image generation unit also generates pixel information to be added to the three-dimensional information of the object T according to a result of comparing the pixel values of the acquired first and second visible light images. That is, the three-dimensional information acquisition device 10A may perform correction after capturing the visible light image. Therefore, according to this embodiment, it is possible to correct a visible light image so that the brightness level of the image is optimal.
- the three-dimensional information acquisition system includes the three-dimensional information acquisition device 10A and the second background BG2.
- the second background BG2 is an infrared absorbing sheet that is used when acquiring the second distance image DI2A and has a low reflectance of near-infrared rays. Therefore, according to this embodiment, a normal wall, floor, building, natural object, or other background that is reflected during normal imaging is used as the first background BG1, and an infrared absorbing sheet is used as the second background BG2, so that the first distance image DI1A and the second distance image DI2A can be acquired.
- the second distance image DI2A is a distance image in which the influence of multipath is reduced.
- the first background BG1 is not limited to a normal wall, floor, or the like, and a background with a high reflectance such as a white chart may be used as the first background BG1.
- the third embodiment differs from the first and second embodiments in that a distance image and a visible light image having different angles of view are captured using a zoom lens.
- FIG. 12 is a schematic diagram showing an example of a cross section of a three-dimensional information acquisition device according to embodiment 3.
- An example of a cross section of three-dimensional information acquisition device 10B will be described with reference to the same figure.
- Three-dimensional information acquisition device 10B includes lens 111, visible light reflective dichroic film 112, image sensor 113, and sensor 114.
- Three-dimensional information acquisition device 10B differs from three-dimensional information acquisition device 10 and three-dimensional information acquisition device 10A in that it further includes lens 111 that functions as a zoom lens. Note that the configurations of three-dimensional information acquisition device 10 and three-dimensional information acquisition device 10A, except for lens 111, may be similar to that of three-dimensional information acquisition device 10B.
- the three-dimensional information acquisition device 10B has a plurality of irradiation units 120 at positions symmetrical to each other with the light receiving unit 110 in between.
- the three-dimensional information acquisition device 10B has irradiation units 120B-1 and 120B-2 as the irradiation units 120 near the light receiving unit 110.
- the irradiation units 120B-1 and 120B-2 are arranged at positions symmetrical to each other with the light receiving unit 110 in between.
- the irradiation units 120B-1 and 120B-2 irradiate the object T with light.
- the light reflected by the object T is incident on the light receiving unit 110.
- the optical axis of the incident light is depicted as optical axis OA.
- the light incident on the light receiving unit 110 passes through the lens 111 and is incident on the visible light reflecting dichroic film 112.
- Lens 111 is specifically a zoom lens.
- a zoom lens can change the magnification (zoom magnification) by changing the spacing between multiple lens groups.
- Three-dimensional information acquisition device 10B may be equipped with multiple lenses (not shown).
- Lens 111 changes the magnification by sliding in the optical axis direction (left and right in the figure). The magnification is controlled by a control unit (not shown).
- the visible light reflecting dichroic film 112 is provided on the optical path between the light receiving unit 110 and the sensor 114.
- the visible light reflecting dichroic film 112 transmits a portion of the incident light (specifically, near-infrared light) and reflects the other light (specifically, visible light).
- the visible light reflecting dichroic film 112 transmits a portion of the light irradiated by the irradiation unit 120 and reflected by the object T, thereby guiding the light to the sensor 114.
- the light transmitted by the visible light reflecting dichroic film 112 is described as infrared light IL.
- the light reflected by the visible light reflecting dichroic film 112 is described as visible light VL.
- the infrared light IL and the visible light VL before passing through the visible light reflecting dichroic film 112 pass through approximately the same optical axis between the light receiving unit 110 and the visible light reflecting dichroic film 112.
- the approximately same range may be, for example, a range in which an optical path is formed by a common lens.
- the light split into two optical paths by the visible light reflecting dichroic film 112 is received by sensors arranged in each optical path. Specifically, the infrared light IL that passes through the visible light reflecting dichroic film 112 is received by the sensor 114, and the light reflected by the visible light reflecting dichroic film 112 is received by the image sensor 113.
- the image sensor 113 has a plurality of pixels arranged in a two-dimensional array.
- the image sensor 113 may have pixels of each of the colors RGB arranged in a Bayer array.
- the sensor 114 has multiple pixels arranged in a two-dimensional array. Each of the multiple pixels receives infrared light IL multiple times to obtain the information required for distance conversion.
- FIG. 13 is a functional configuration diagram showing an example of the functional configuration of a three-dimensional information acquisition device according to embodiment 3.
- Three-dimensional information acquisition device 10B differs from three-dimensional information acquisition device 10 or three-dimensional information acquisition device 10A in that it includes an irradiation unit 120B instead of irradiation unit 120, a control unit 130B instead of control unit 130A, and a magnification information acquisition unit 160 instead of background information acquisition unit 150.
- components similar to those of three-dimensional information acquisition device 10 or three-dimensional information acquisition device 10A are denoted by similar reference numerals and description thereof may be omitted.
- the magnification information acquisition unit 160 acquires information related to the magnification.
- the information related to the magnification may be, for example, information related to a change in the magnification caused by the lens 111 moving forward or backward.
- the magnification information acquisition unit 160 outputs the acquired information related to the magnification to the control unit 130B as magnification information ZI.
- the irradiation unit 120B irradiates light with an irradiation angle corresponding to the angle of view corresponding to the magnification. Specifically, the irradiation unit 120B acquires information related to the magnification from the magnification information acquisition unit 160, and irradiates light with an irradiation angle substantially the same as the angle of view corresponding to the magnification, based on the acquired information related to the magnification.
- Control unit 130B includes a ToF sensor control unit 131B instead of ToF sensor control unit 131, a first distance image acquisition unit 132B instead of first distance image acquisition unit 132, a second distance image acquisition unit 133B instead of second distance image acquisition unit 133, and a three-dimensional information generation unit 134B instead of three-dimensional information generation unit 134.
- Control unit 130B also includes a visible light image acquisition unit 135.
- Control unit 130B is a modified example of control unit 130.
- the ToF sensor control unit 131B controls the irradiation of light by the irradiation unit 120B. Specifically, the ToF sensor control unit 131 controls the timing of the irradiation of light by the first irradiation unit 121B by outputting first control information CI1, and controls the timing of the irradiation of light by the second irradiation unit 122B by outputting second control information CI2.
- the ToF sensor control unit 131B also acquires information about the reflected light received as a result of the irradiation by the irradiation unit 120B. Specifically, the ToF sensor control unit 131B acquires information about the reflected light by acquiring light reception information RI from the light receiving unit 110.
- the light reception information RI may include information about the timing at which the reflected light was acquired according to each coordinate of the two-dimensional coordinate system.
- the ToF sensor control unit 131B generates a distance image based on the acquired light reception information RI. Specifically, the ToF sensor control unit 131B generates a first distance image DI1B based on reflected light obtained as a result of performing irradiation by the first irradiating unit 121B (hereinafter referred to as the first irradiation) by outputting the first control information CI1.
- the ToF sensor control unit 131B generates a second distance image DI2B based on reflected light obtained as a result of performing irradiation by the second irradiating unit 122B (hereinafter referred to as the first irradiation) by outputting the second control information CI2.
- the first irradiation and the second irradiation are performed on the same object T.
- the first irradiation and the second irradiation are obtained by setting the magnification of the lens 111 to different values.
- the second irradiation is magnified compared to the first irradiation.
- the second distance image DI2B is a distance image obtained by magnifying a part of the same object T as the first distance image DI1B by an optical member.
- the first distance image acquisition unit 132B acquires the first distance image DI1B generated by the ToF sensor control unit 131B.
- the first distance image acquisition unit 132B outputs the acquired first distance image DI1B to the three-dimensional information generation unit 134B.
- the second distance image acquisition unit 133B acquires the second distance image DI2B generated by the ToF sensor control unit 131B.
- the second distance image acquisition unit 133B outputs the acquired second distance image DI2B to the three-dimensional information generation unit 134B.
- the three-dimensional information generating unit 134B acquires a first distance image DI1B from the first distance image acquiring unit 132B, and acquires a second distance image DI2B from the second distance image acquiring unit 133B.
- the three-dimensional information generating unit 134B generates three-dimensional information of the object T based on the acquired first distance image DI1B and second distance image DI2B.
- the second distance image DI2B which has a high magnification ratio, has less illumination of the background compared to the first distance image DI1B, and therefore is less susceptible to the effects of multipath caused by light reflection.
- the three-dimensional information generating unit 134B can generate three-dimensional information of the object T with reduced effects of multipath caused by light reflection based on the first distance image DI1B and the second distance image DI2B.
- the three-dimensional information generating unit 134B may be simply referred to as a generating unit.
- the first distance image DI1B and the second distance image DI2B are acquired with the optical axis fixed.
- this embodiment is not limited to this example, and the first distance image DI1B and the second distance image DI2B may be acquired with the optical axis misaligned from each other. In this case, a certain calculation is required when attempting to generate three-dimensional information with less influence of multipath.
- the visible light image acquisition unit 135 acquires a visible light image of the object T from the image sensor 113.
- the visible light image acquisition unit 135 acquires a visible light image with the same magnification as the magnification when the distance image is acquired. Specifically, the visible light image acquisition unit 135 acquires a first visible light image, which is a visible light image having approximately the same angle of view as the first distance image DI1B, and a second visible light image, which is a visible light image having approximately the same angle of view as the second distance image DI2B.
- the magnification ratio at which the second visible light image and the second distance image DI2B are acquired may be determined based on the results of analyzing the first visible light image.
- the first visible light image may be analyzed to detect the edge (contour) of the object T, and the second visible light image and the second distance image DI2B may be acquired at a magnification ratio that just contains the edge.
- the analysis of the first visible light image may involve differentiation of pixel values or frequency analysis, or a machine learning algorithm such as face recognition may be used.
- the magnification ratio determined by the optical member may be based on the visible light image acquired by the visible light image acquisition unit 135.
- either the distance image or the visible light image may be acquired first.
- the irradiation unit 120B may determine the irradiation angle according to the magnification acquired by the magnification information acquisition unit 160.
- the irradiation angle of the light irradiated to acquire the distance image may be determined according to the angle of view of the visible light image.
- FIG. 14 is a diagram showing an example of point cloud data in which a distance image and a visible light image at the wide end are combined by a three-dimensional information acquisition device according to embodiment 3.
- the first distance image DI1B and the first visible light image are acquired when the focal length is, for example, 4 mm (millimeters).
- the focal length is, for example, 4 mm (millimeters).
- the image is also affected by multipath due to light reflected from the background. It can also be said that the pixel density of a visible light image in a certain area at the wide end is lower than the pixel density of the corresponding area at the telephoto end.
- FIG. 15 is a diagram showing an example of point cloud data in which a distance image and a visible light image at the telephoto end are combined by the three-dimensional information acquisition device according to the third embodiment.
- the second distance image DI2B and the second visible light image are acquired when the focal length is, for example, 13 mm.
- the focal length is, for example, 13 mm.
- the density of the point cloud is dense.
- the pixel density of a visible light image in a certain area at the telephoto end is higher than the pixel density of the corresponding area at the wide-angle end.
- FIG. 16 is a diagram showing an example of point cloud data obtained by combining a distance image and a visible light image at the wide end and a distance image and a visible light image at the telephoto end by a three-dimensional information acquisition device according to the third embodiment.
- a three-dimensional information acquisition device With reference to the figure, an example of three-dimensional information obtained by combining a distance image and a visible light image at the wide end and a distance image and a visible light image at the telephoto end will be described.
- the example shown in the figure is obtained by replacing part of the point cloud data at the wide end shown in FIG. 14 with the point cloud data at the telephoto end shown in FIG. 15.
- the part is an area enlarged by the lens 111.
- the density of the point cloud data and the resolution of the visible light image are different between the area where the point cloud data at the telephoto end exists and the other areas. As shown in the figure, the density of the point cloud data and the resolution of the visible light image are increased in the area where the point cloud data at the telephoto end exists.
- this embodiment is not limited to this example, and for the area where the point cloud data at the telephoto end does not exist, the data may be supplemented by supplementing the density of the point cloud data and the resolution of the visible light image.
- FIG. 17 is a diagram for explaining the complementation of pixel values by the three-dimensional information acquisition device according to the third embodiment.
- An example of complementation of the density of point cloud data and the resolution of a visible light image will be described with reference to the diagram.
- FIG. 17(A) shows an image of a case where three-dimensional information at the wide-angle end is simply replaced with three-dimensional information at the telephoto end. Each rectangle shown in the diagram represents information corresponding to one pixel. As shown in the diagram, the pixel density is four times higher in the central portion of FIG. 17(A).
- FIG. 17(B) is a diagram showing an image of complementation. As shown in the diagram, the pixel density is the same in FIG. 17(B). In other words, the density of the peripheral portion is complemented to match the density of the central portion.
- Existing technology can be used as the complementation method, and linear interpolation, for example, may be used.
- pixel complementation may be performed by the visible light image generation unit.
- the visible light image generation unit generates pixel information to be added to the three-dimensional information of the object T based on the first visible light image and the second visible light image acquired by the visible light image acquisition unit 135.
- the visible light image generation unit also complements pixel values at coordinates in the first visible light image that have a lower resolution than the second visible light image (e.g., the peripheral part in FIG. 17(A)) using a predetermined method.
- the predetermined method may be linear interpolation, etc.
- the three-dimensional information acquisition device 10B acquires the first distance image DI1B by including the first distance image acquisition unit 132B, and acquires the second distance image DI2B by including the second distance image acquisition unit 133B.
- the first distance image DI1B and the second distance image DI2B are both distance images (depth images) including a plurality of distance values obtained according to the time from when light is irradiated to when the light reflected by the object is received.
- the first distance image DI1B and the second distance image DI2B are distance images obtained by irradiating light to the same object T, and are distance images obtained by irradiating light at different irradiation angles.
- the second distance image DI2B is a distance image obtained by enlarging a part of the same object T as the first distance image DI1B by an optical member. Since the second distance image DI2B is an enlarged part of the first distance image DI1B, it can be said that the light reflected on the background is small and the influence of multipath is reduced. Furthermore, the three-dimensional information acquisition device 10B includes a three-dimensional information generating unit 134B, and generates three-dimensional information of the object T with reduced effects of multipath caused by light reflection based on the first distance image DI1B and the second distance image DI2B. Therefore, according to this embodiment, a distance measurement technique capable of reducing the effects of multipath can be provided.
- the effects of multipath could not be reduced unless an environment susceptible to the effects of multipath (for example, surrounding objects such as a background with high near-infrared light reflectance) was excluded.
- an environment susceptible to the effects of multipath for example, surrounding objects such as a background with high near-infrared light reflectance
- a distance measurement technique capable of reducing the effects of multipath without excluding an environment susceptible to the effects of multipath can be provided.
- the first distance image DI1B and the second distance image DI2B are acquired while the optical axis remains fixed. Therefore, the three-dimensional information acquisition device 10B can easily synthesize the first distance image DI1B by replacing a portion of the first distance image DI1B with the second distance image DI2B. Therefore, according to this embodiment, three-dimensional information in which the effects of multipath are reduced can be easily generated.
- the three-dimensional information acquisition device 10B further includes a visible light image acquisition unit 135, thereby acquiring a visible light image of the object T. Furthermore, the magnification by the optical member is based on the visible light image acquired by the visible light image acquisition unit 135. For example, the three-dimensional information acquisition device 10B detects the position and size of the object T based on the visible light image, and enlarges the image to an extent that the object T fits in just right. Therefore, according to this embodiment, since light is not irradiated outside the object T, the effects of multipath can be reduced, and by enlarging the object T to obtain a distance image, high-resolution three-dimensional information can be generated.
- the visible light image acquisition unit 135 acquires a first visible light image, which is a visible light image having substantially the same angle of view as the first distance image DI1B, and a second visible light image, which is a visible light image having substantially the same angle of view as the second distance image DI2B. That is, the angle of view of the distance image and the angle of view of the visible light image are substantially the same. Therefore, according to this embodiment, the three-dimensional information acquisition device 10B can easily combine the distance image and the visible light image. Furthermore, according to the embodiment described above, the irradiation angle of the light irradiated to acquire the first distance image DI1B and the second distance image DI2B is determined according to the angle of view of the visible light image.
- the three-dimensional information acquisition device 10B further includes a visible light image generation unit, which generates pixel information to be added to the three-dimensional information of the object T based on the acquired first and second visible light images. Furthermore, the visible light image generation unit complements pixel values at coordinates in the first visible light image that have a lower resolution than the second visible light image using a predetermined method.
- the predetermined method may be, for example, linear interpolation. Therefore, according to this embodiment, high-resolution three-dimensional information can be easily generated.
- the present invention reduces the effects of multipath and makes it possible to measure the distance to an object.
- 10...3D information acquisition device 10A...3D information acquisition device, 110...light receiving unit, 111...lens, 112...visible light reflecting dichroic film, 113...image sensor, 114...sensor, 120...irradiation unit, 121...first irradiation unit, 122...second irradiation unit, 130...control unit, 131...ToF sensor control unit, 132...first distance image acquisition unit, 133...second distance image acquisition unit, 134...3D information generation unit, 140...irradiation unit, 141...light emitting unit, 142...diffusion unit, 150...background information acquisition unit, 160...magnification information acquisition unit, T...object, BG...background, BM...irradiation light, DI1...first distance image, DI2...second distance image, BGI...waveform information, ZI...magnification information, VL...visible light, IL...infrared light, OA...optical axis
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Measurement Of Optical Distance (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Description
本発明は、三次元情報取得装置に関する。
本願は、2023年1月11日に日本に出願された特願2023-002476、2023年1月11日に日本に出願された特願2023-002483、及び2023年1月11日に日本に出願された特願2023-002486について優先権を主張し、その内容をここに援用する。
The present invention relates to a three-dimensional information acquisition device.
This application claims priority to Japanese Patent Application No. 2023-002476 filed in Japan on January 11, 2023, Japanese Patent Application No. 2023-002483 filed in Japan on January 11, 2023, and Japanese Patent Application No. 2023-002486 filed in Japan on January 11, 2023. The contents of which are incorporated herein by reference.
従来、三次元的な形状の測定をする方法として、近赤外光を対象物に照射し、対象物から反射した光の飛行時間に基づいて対象物までの距離を測定する方法が知られている。このような測定方法を用いた装置として、ToF(Time of Flight)カメラが知られている。このToFカメラを用いた場合、センサにより受光する光には、対象物に直接反射した直接光と、対象物とは異なる物体(例えば対象物の背後に位置する壁等)に反射した間接光とが混在する。対象物の近傍に近赤外光反射率の高い物体が存在する場合、外乱反射(いわゆるマルチパス)の影響により、対象物までの距離に誤差が生じ、測定結果に基づき対象物の三次元的な形状を再現しようとした場合に歪みが発生する問題があった。このようなマルチパスによる影響を低減するため、鏡面反射体を用いた計測技術が提案されている(例えば、特許文献1を参照)。 Conventionally, a method for measuring three-dimensional shapes is known in which near-infrared light is irradiated onto an object, and the distance to the object is measured based on the time of flight of the light reflected from the object. A ToF (Time of Flight) camera is known as a device using this measurement method. When using this ToF camera, the light received by the sensor is a mixture of direct light reflected directly from the object and indirect light reflected from an object other than the object (for example, a wall located behind the object). When an object with high near-infrared light reflectance is present near the object, there is a problem in that an error occurs in the distance to the object due to the effect of disturbance reflection (so-called multipath), and distortion occurs when trying to reproduce the three-dimensional shape of the object based on the measurement results. In order to reduce the effect of such multipath, a measurement technology using a specular reflector has been proposed (for example, see Patent Document 1).
しかしながら、上述したような技術を用いる場合、対象物と背景の両方を測定したいような場合であっても、対象物の周囲に鏡面反射体を配置することを要する。鏡面反射体を配置することにより背景が隠れてしまうため、対象物と背景の両方の三次元的な形状の測定をする場合、上述したような技術を用いることはできなかった。更に、ToFカメラと、RGBカメラとを組み合わせて、対象物の色情報も含んだ点群データを取得するような場合には、背景画像が取得できないことは問題であった。 However, when using the above-mentioned technology, even if you want to measure both the object and the background, it is necessary to place a specular reflector around the object. Because placing a specular reflector hides the background, it is not possible to use the above-mentioned technology when measuring the three-dimensional shapes of both the object and the background. Furthermore, when combining a ToF camera and an RGB camera to obtain point cloud data that also includes color information of the object, the inability to obtain an image of the background is a problem.
本発明は、このような状況に鑑みてなされたものであって、マルチパスによる影響を低減可能な測距技術の提供を目的とする。 The present invention was made in consideration of these circumstances, and aims to provide a distance measurement technology that can reduce the effects of multipath.
[1]本実施形態の一態様は、光を照射してから対象物に反射した光を受光するまでの時間に応じて得られた複数の距離値を含む距離画像である第1距離画像を取得する第1距離画像取得部と、前記第1距離画像と同一の前記対象物に対して光を照射することにより得られる前記距離画像であって、前記第1距離画像とは異なる照射角の光を照射することにより得られる前記距離画像である第2距離画像を取得する第2距離画像取得部と、前記第1距離画像と前記第2距離画像とに基づいて、光の反射に伴うマルチパスの影響を判定し、判定した結果に基づいて前記第1距離画像と前記第2距離画像とを合成した前記対象物の三次元情報を生成する生成部とを備える三次元情報取得装置である。 [1] One aspect of this embodiment is a three-dimensional information acquisition device that includes a first distance image acquisition unit that acquires a first distance image, which is a distance image including multiple distance values obtained according to the time between irradiating light and receiving the light reflected from an object; a second distance image acquisition unit that acquires a second distance image, which is a distance image obtained by irradiating light on the same object as the first distance image, but by irradiating light at a different irradiation angle from the first distance image; and a generation unit that determines the effect of multipath caused by light reflection based on the first distance image and the second distance image, and generates three-dimensional information of the object by combining the first distance image and the second distance image based on the determination result.
[2]また、本実施形態の一態様は、上記[1]に記載の三次元情報取得装置において、前記距離画像は、二次元座標系の各座標に応じた距離値を有し、前記生成部は、同一座標における前記第1距離画像に含まれる距離値と前記第2距離画像に含まれる距離値とを比較し、比較した結果に基づいて光の反射に伴うマルチパスの影響を判定するものである。 [2] Also, in one aspect of this embodiment, in the three-dimensional information acquisition device described in [1] above, the distance image has distance values corresponding to each coordinate in a two-dimensional coordinate system, and the generation unit compares the distance values contained in the first distance image and the distance values contained in the second distance image at the same coordinate, and determines the effect of multipath due to light reflection based on the comparison result.
[3]また、本実施形態の一態様は、上記[1]又は[2]に記載の三次元情報取得装置は、前記距離画像を取得するための光を照射する照射部を更に備え、前記照射部は、前記対象物の位置に応じて光を照射する方向を変えられるものである。 [3] In one aspect of this embodiment, the three-dimensional information acquisition device described in [1] or [2] above further includes an irradiation unit that irradiates light to acquire the distance image, and the irradiation unit is capable of changing the direction in which the light is irradiated depending on the position of the target object.
[4]また、本実施形態の一態様は、上記[3]に記載の三次元情報取得装置は、前記対象物を撮像した可視光画像を取得する可視光画像取得部を更に備え、前記照射部は、前記可視光画像を解析したことにより得られた前記対象物の位置に応じて光を照射する方向を可変させられるものである。 [4] In one aspect of this embodiment, the three-dimensional information acquisition device described in [3] above further includes a visible light image acquisition unit that acquires a visible light image of the object, and the irradiation unit is capable of varying the direction of light irradiation according to the position of the object obtained by analyzing the visible light image.
[5]また、本実施形態の一態様は、上記[1]から[4]のいずれかに記載の三次元情報取得装置は、前記距離画像を取得するための光を照射する照射部を更に備え、前記照射部は、光を発光する発光部と、前記発光部により発光された光を拡散する拡散部とを更に備え、前記発光部と前記拡散部との距離を可変することにより異なる照射角の光を照射するものである。 [5] In addition, in one aspect of this embodiment, the three-dimensional information acquisition device described in any one of [1] to [4] above further includes an irradiation unit that irradiates light to acquire the distance image, and the irradiation unit further includes a light-emitting unit that emits light and a diffusion unit that diffuses the light emitted by the light-emitting unit, and irradiates light at different irradiation angles by varying the distance between the light-emitting unit and the diffusion unit.
また、参考態様は、次の通りである。 The reference examples are as follows:
[A1]本実施形態の一つの参考態様は、光を照射してから対象物及び背景に反射した光を受光するまでの時間に応じて得られた複数の距離値を含む距離画像である第1距離画像を取得する第1距離画像取得部と、前記第1距離画像と同一の前記対象物に対して光を照射することにより得られる前記距離画像であって、前記第1距離画像における背景より近赤外線の反射率が低い背景を用いて得られる前記距離画像である第2距離画像を取得する第2距離画像取得部と、前記第1距離画像と前記第2距離画像とに基づいて、光の反射に伴うマルチパスの影響を判定し、判定した結果に基づいて前記第1距離画像と前記第2距離画像とを合成した前記対象物の三次元情報を生成する生成部とを備える三次元情報取得装置である。 [A1] One reference aspect of this embodiment is a three-dimensional information acquisition device that includes a first distance image acquisition unit that acquires a first distance image, which is a distance image including multiple distance values obtained according to the time from when light is irradiated to when the light reflected off the object and the background is received; a second distance image acquisition unit that acquires a second distance image, which is a distance image obtained by irradiating light on the same object as the first distance image, and which is obtained using a background that has a lower near-infrared reflectance than the background in the first distance image; and a generation unit that determines the effect of multipath caused by light reflection based on the first distance image and the second distance image, and generates three-dimensional information of the object by combining the first distance image and the second distance image based on the determination result.
[A2]また、一態様は、上記[A1]に記載の三次元情報取得装置において、前記距離画像は、二次元座標系の各座標に応じた距離値を有し、前記生成部は、同一座標における前記第1距離画像に含まれる距離値と前記第2距離画像に含まれる距離値とを比較し、比較した結果に基づいて光の反射に伴うマルチパスの影響を判定するものである。 [A2] In one aspect, in the three-dimensional information acquisition device described in [A1] above, the distance image has distance values corresponding to each coordinate in a two-dimensional coordinate system, and the generation unit compares the distance values contained in the first distance image and the distance values contained in the second distance image at the same coordinate, and determines the effect of multipath caused by light reflection based on the comparison result.
[A3]また、一態様は、上記[A1]又は[A2]に記載の三次元情報取得装置において、前記第1距離画像に対応する前記対象物及び背景を撮像した可視光画像である第1可視光画像を取得する第1可視光画像取得部と、前記第2距離画像に対応する前記対象物及び背景を撮像した可視光画像である第2可視光画像を取得する第2可視光画像取得部とを更に備え、前記第1可視光画像と、前記第2可視光画像とは、可視光画像の明るさを決定するための撮像条件が異なるものである。 [A3] In one aspect, the three-dimensional information acquisition device described in [A1] or [A2] above further includes a first visible light image acquisition unit that acquires a first visible light image, which is a visible light image capturing an image of the object and background corresponding to the first distance image, and a second visible light image acquisition unit that acquires a second visible light image, which is a visible light image capturing an image of the object and background corresponding to the second distance image, and the first visible light image and the second visible light image have different imaging conditions for determining the brightness of the visible light images.
[A4]また、一態様は、上記[A1]又は[A2]に記載の三次元情報取得装置において、前記第1距離画像に対応する前記対象物及び背景を撮像した可視光画像である第1可視光画像を取得する第1可視光画像取得部と、前記第2距離画像に対応する前記対象物及び背景を撮像した可視光画像である第2可視光画像を取得する第2可視光画像取得部と、取得した前記第1可視光画像と、前記第2可視光画像とに基づき前記対象物の三次元情報に付与する画素情報を生成する可視光画像生成部とを更に備え、前記可視光画像生成部は、取得した前記第1可視光画像の画素値と、前記第2可視光画像の画素値とを比較した結果に応じて、前記画素情報を生成するものである。 [A4] In one aspect, the three-dimensional information acquisition device described in [A1] or [A2] above further includes a first visible light image acquisition unit that acquires a first visible light image, which is a visible light image of the object and background corresponding to the first distance image; a second visible light image acquisition unit that acquires a second visible light image, which is a visible light image of the object and background corresponding to the second distance image; and a visible light image generation unit that generates pixel information to be assigned to the three-dimensional information of the object based on the acquired first visible light image and the acquired second visible light image, and the visible light image generation unit generates the pixel information according to a result of comparing pixel values of the acquired first visible light image and pixel values of the acquired second visible light image.
[A5]また、一態様は、上記[A1]から[A5]のいずれかに記載の三次元情報取得装置と、前記第2距離画像を取得する際に用いられ、近赤外線の反射率が低い背景である赤外線吸収シートとを備える三次元情報取得システムである。 [A5] Also, one aspect is a three-dimensional information acquisition system comprising a three-dimensional information acquisition device described in any one of [A1] to [A5] above, and an infrared absorbing sheet that is used when acquiring the second distance image and that is a background having low reflectance of near-infrared rays.
[B1]本実施形態の一つの参考態様は、光を照射してから対象物に反射した光を受光するまでの時間に応じて得られた複数の距離値を含む距離画像である第1距離画像を取得する第1距離画像取得部と、前記第1距離画像と同一の前記対象物の一部に対して光を照射することにより得られる前記距離画像であって、前記第1距離画像とは異なる照射角の光を照射することにより得られる前記距離画像であって、前記第1距離画像と同一の前記対象物の一部を光学部材により拡大することにより得られる前記距離画像である第2距離画像を取得する第2距離画像取得部と、前記第1距離画像と前記第2距離画像とに基づいて、光の反射に伴うマルチパスの影響を判定し、判定した結果に基づいて前記第1距離画像と前記第2距離画像とを合成した前記対象物の三次元情報を生成する生成部とを備える三次元情報取得装置である。 [B1] One reference aspect of this embodiment is a three-dimensional information acquisition device that includes a first distance image acquisition unit that acquires a first distance image, which is a distance image including a plurality of distance values obtained according to the time between irradiating light and receiving the light reflected by an object; a second distance image acquisition unit that acquires a second distance image, which is a distance image obtained by irradiating light onto a part of the object that is the same as the first distance image, with light at an irradiation angle different from that of the first distance image, and which is obtained by enlarging a part of the object that is the same as the first distance image with an optical member; and a generation unit that determines the effect of multipath caused by light reflection based on the first distance image and the second distance image, and generates three-dimensional information of the object by combining the first distance image and the second distance image based on the determination result.
[B2]また、一態様は、上記[B1]に記載の三次元情報取得装置において、前記第1距離画像及び前記第2距離画像は、光軸を固定したまま取得されるものである。 [B2] In one aspect, in the three-dimensional information acquisition device described in [B1] above, the first distance image and the second distance image are acquired while keeping the optical axis fixed.
[B3]また、一態様は、上記[B1]又は[B2]に記載の三次元情報取得装置において、前記対象物を撮像した可視光画像を取得する可視光画像取得部を更に備え、前記光学部材による拡大倍率は、前記可視光画像取得部により取得された可視光画像に基づくものである。 [B3] In one aspect, the three-dimensional information acquisition device described in [B1] or [B2] above further includes a visible light image acquisition unit that acquires a visible light image of the object, and the magnification achieved by the optical member is based on the visible light image acquired by the visible light image acquisition unit.
[B4]また、一態様は、上記[B3]に記載の三次元情報取得装置において、前記可視光画像取得部は、前記第1距離画像と略同一の画角を有する可視光画像である第1可視光画像と、前記第2距離画像と略同一の画角を有する可視光画像である第2可視光画像とを取得し、前記距離画像を取得するために照射される光の照射角は、可視光画像の画角に応じて決定されるものである。 [B4] In one aspect, in the three-dimensional information acquisition device described in [B3] above, the visible light image acquisition unit acquires a first visible light image, which is a visible light image having substantially the same angle of view as the first distance image, and a second visible light image, which is a visible light image having substantially the same angle of view as the second distance image, and the irradiation angle of the light irradiated to acquire the distance image is determined according to the angle of view of the visible light image.
[B5]また、一態様は、上記[B4]に記載の三次元情報取得装置において、取得した前記第1可視光画像と、前記第2可視光画像とに基づき前記対象物の三次元情報に付与する画素情報を生成する可視光画像生成部を更に備え、前記可視光画像生成部は、前記第1可視光画像のうち、前記第2可視光画像より解像度が低い座標における画素値を所定の方法により補完するものである。 [B5] In one aspect, the three-dimensional information acquisition device described in [B4] above further includes a visible light image generation unit that generates pixel information to be added to the three-dimensional information of the object based on the acquired first visible light image and the acquired second visible light image, and the visible light image generation unit complements pixel values at coordinates in the first visible light image that have a lower resolution than the second visible light image using a predetermined method.
本実施形態によれば、マルチパスによる影響を低減し、対象物までの距離を測距することができる。 According to this embodiment, the effects of multipath can be reduced and the distance to the target object can be measured.
以下、本発明の実施形態について、図面を参照しながら説明する。以下で説明する実施形態は一例に過ぎず、本発明が適用される実施形態は、以下の実施形態に限られない。また、本願でいう「XXに基づいて」とは、「少なくともXXに基づく」ことを意味し、XXに加えて別の要素に基づく場合も含む。また、「XXに基づいて」とは、XXを直接に用いる場合に限定されず、XXに対して演算や加工が行われたものに基づく場合も含む。「XX」は、任意の要素(例えば、任意の情報)である。 Below, an embodiment of the present invention will be described with reference to the drawings. The embodiment described below is merely an example, and the embodiment to which the present invention is applied is not limited to the following embodiment. Furthermore, "based on XX" in this application means "based on at least XX," and includes cases where it is based on other elements in addition to XX. Furthermore, "based on XX" is not limited to cases where XX is used directly, but also includes cases where it is based on XX that has been subjected to calculations or processing. "XX" is any element (for example, any information).
[実施形態1]
まず、図1から図7を参照しながら、実施形態1について説明する。
[Embodiment 1]
First, a first embodiment will be described with reference to FIGS.
図1は、実施形態1に係る三次元情報取得装置の概略について説明するための図である。同図を参照しながら、三次元情報取得装置10の概略について説明する。三次元情報取得装置10は、三次元空間上に存在する対象物Tの三次元的な情報を取得する。三次元情報取得装置10により取得される三次元的な情報には、対象物Tの三次元的な形状についての情報が少なくとも含まれる。三次元情報取得装置10は、三次元情報取得装置10から対象物Tまでの距離L1を計測する。三次元情報取得装置10は、二次元座標系の各座標において、対象物Tまでの距離L1をそれぞれ計測することにより、対象物Tの三次元的な形状を取得する。三次元情報取得装置10が対象とする対象物Tには、動物や物体等の三次元的な情報の取得の対象となるあらゆるものが含まれる。対象物Tの背後には、背景BGが存在する。背景BGとは、例えば撮影用に用いられるグリーンバック等のスクリーンであってもよいし、単なる壁や床、建造物、自然物等、その他通常の撮像時に映り込む背景等であってもよい。三次元情報取得装置10は、例えば屋内における撮影スタジオでプロのカメラマンにより使用されてもよいし、屋内外における通常の写真撮影と同様の状況において一般ユーザにより使用されてもよい。
FIG. 1 is a diagram for explaining an outline of a three-dimensional information acquisition device according to
三次元情報取得装置10は、受光部110と、照射部120と、制御部130とを備える。受光部110は、例えば、対物レンズ等の光学系レンズを含んで構成されてもよい。照射部120は、照射光を対象物Tに照射する。照射部120は、例えばレーザーダイオード等の光源であってもよい。より詳細には、照射部120は、垂直方向にレーザービームを放射可能なVCSEL(Vertical Cavity Surface Emitting Laser、垂直共振器型面発光レーザー)等であってもよい。照射部120により照射された光(第1照射光BM1)は、対象物Tにより反射し、対象物Tにより反射した光(第2照射光BM2)は、受光部110に入射する。制御部130は、光を照射してから受光するまでの時間(飛行時間)に応じて、三次元情報取得装置10から対象物Tまでの距離L1を測距する。受光部110は、二次元アレイ状に配置された複数の受光素子(不図示)を備える。制御部130は、複数の受光素子それぞれにおける測距情報に応じて、対象物Tの三次元的な形状を測定する。なお、図示する一例では、一対の受光部110及び照射部120が示されているが、1つの受光部110に対して複数の照射部120が備えられるような構成であってもよい。この場合、複数の照射部120は、受光部110を中心として、その近傍に備えられることが好適である。
The three-dimensional
三次元情報取得装置10は、不図示のイメージセンサを備えていてもよい。イメージセンサは、二次元アレイ状に配置された複数の画素を備え、イメージセンサが備える複数の画素は、受光部110が備える光学系レンズにより結像された可視光を受光し、受光した情報に基づき、可視光画像(RGB画像)を生成する。可視光画像の方式としては、RGB方式に限らず、YCbCr方式やグレースケール(モノクロ)方式でもよい。照射部120により照射され対象物Tに反射した光(例えば近赤外光)と、可視光画像を生成するための可視光とは、同一光軸上を通り受光部110に入射してもよい。この場合、三次元情報取得装置10は、不図示の可視光反射ダイクロイック膜等を備えることにより、可視光反射ダイクロイック膜を透過する近赤外光と、可視光反射ダイクロイック膜に反射する可視光の2つに分光してもよい。この場合、測距のための受光素子は可視光反射ダイクロイック膜を透過する光の光軸上に設けられ、可視光画像を生成するためのイメージセンサは可視光反射ダイクロイック膜に反射した光の光軸上に設けられる。
The three-dimensional
図2は、実施形態1に係る三次元情報取得装置の機能構成の一例を示す機能構成図である。同図を参照しながら、三次元情報取得装置10の機能構成の一例について説明する。三次元情報取得装置10は、受光部110と、照射部120と、制御部130とを含んで構成される。
FIG. 2 is a functional configuration diagram showing an example of the functional configuration of the three-dimensional information acquisition device according to the first embodiment. With reference to the diagram, an example of the functional configuration of the three-dimensional
照射部120は、第1照射部121と、第2照射部122とを備える。第1照射部121と、第2照射部122とは、互いに異なる照射角の照射光を照射する。受光部110は、第1照射部121又は第2照射部122のいずれかにより照射された照射光が対象物T又は背景BGに反射した反射光を受光する。ここで、第1照射部121の照射角と第2照射部122の照射角とは異なる。具体的には、第1照射部121の照射角は、第2照射部122の照射角より広角である。第1照射部121の照射角と、第2照射部122の照射角について、図3及び図4を参照しながら説明する。なお、以降の説明において「照射角」と記載した場合、「視野角(FoV;Field Of View)」と同義で用いる場合がある。
The
図3は、実施形態1に係る三次元情報取得装置による第1の照射について説明するための図である。同図を参照しながら、第1照射部121により行われる第1の照射について説明する。同図は、図1における配置を真上から見た図である。同図に示す一例では、三次元情報取得装置10が背景BGの手前に存在する対象物Tの三次元的形状を測定する。三次元情報取得装置10は、受光部110と、第1照射部121と、第2照射部122とを備える。三次元情報取得装置10は、第1照射部121として、第1照射部121-1及び第1照射部121-2を備える。第1照射部121による照射角を角度αとして示す。例えば、第1照射部121により照射され対象物Tに反射した光(当該光の経路を照射光BM1-1と記載する。)は、マルチパスの影響を受けない。しかしながら、第1照射部121により照射され背景BGに反射した光(当該光の経路を照射光BM1-2と記載する。)によっては、背景BGからの反射光が対象物T等によって更に反射している場合があり、このような光はマルチパスの影響を与える。マルチパスの影響により、対象物Tの形状は、本来点線で示すような形状であるものの、実線で示すような形状として計測されてしまう。これは、マルチパスの影響を受けた場合、Depth値(三次元情報取得装置10から対象物Tまでの距離を示す値)は、本来の値より大きく(遠く)測定されるためである。
FIG. 3 is a diagram for explaining the first irradiation by the three-dimensional information acquisition device according to
なお、本実施形態においては、便宜上、第1照射部121を第1照射部121-1と、第1照射部121-2とに分けて記載しているが、1つの第1照射部121により、角度αの照射角を有する光を照射してもよい。図示するように第1照射部121が2つ備えられる場合、2つの第1照射部121は、受光部110を中心として互いに対称な位置に備えられることが好適である。
In this embodiment, for convenience, the
図4は、実施形態1に係る三次元情報取得装置による第2の照射について説明するための図である。同図を参照しながら、第2照射部122により行われる第2の照射について説明する。同図は、図1における配置を真上から見た図である。同図に示す一例では、三次元情報取得装置10が背景BGの手前に存在する対象物Tの三次元的形状を測定する。三次元情報取得装置10は、受光部110と、第1照射部121と、第2照射部122とを備える。第2照射部122による照射角を角度βとして示す。角度βは、角度αより狭く、対象物Tがちょうど画角内に収まる程度の角度である。第2照射部122により照射され対象物Tに反射した光の経路を照射光BM1-3と記載する。角度βは角度αより狭く、対象物Tがちょうど画角内に収まる程度の角度であるため、背景BGまで届く光が少なく、マルチパスを通って受光部110まで届く光が少ない。したがって、第2の照射によれば、マルチパスの影響を受けることを低減することができる。第2照射部122により照射される光に基づく対象物Tの形状測定では、マルチパスによる影響が低減されているため、本来対象物Tの形状は点線で示されるような形状であるところ、計測結果としても実線で示すような形状となる。このように、第2の照射によれば、対象物Tの形状を正確に測定することができる。なお、図示する一例では、真上から見た図であるため、1つの第2照射部122しか見えないが、受光部110を挟んで第2照射部122と対向する位置(受光部110の下側ということもできる)に、不図示の第2照射部122を備えていてもよい。換言すれば、第1照射部121は受光部110を挟んで左右方向に配置され、第2照射部122は受光部110を挟んで上下方向に配置されているということができる。
4 is a diagram for explaining the second irradiation by the three-dimensional information acquisition device according to the first embodiment. The second irradiation performed by the
なお、本実施形態においては、便宜上、異なる照射角の照射光を照射する照射部を、第1照射部121及び第2照射部122に分けて記載しているが、1つの照射部により異なる照射角の照射光を照射してもよい。すなわち、第1照射部121及び第2照射部122は、同一のものであってもよい。
In this embodiment, for convenience, the irradiation units that irradiate irradiation light at different irradiation angles are described as being divided into the
図2に戻り、制御部130の機能構成について説明する。制御部130は、照射部120による光の照射及び受光部110の露光を制御し、受光部110により受光した情報を取得する。制御部130は、光の照射と受光に関する情報に基づき、二次元座標系の各座標において対象物Tまでの距離を計測し、対象物Tの三次元的形状を取得する。
Returning to FIG. 2, the functional configuration of the
制御部130は、ToFセンサ制御部131と、第1距離画像取得部132と、第2距離画像取得部133と、三次元情報生成部134とを含んで構成される。これらの各機能部は、例えば、電子回路を用いて実現される。また、各機能部は、必要に応じて、半導体メモリや磁気ハードディスク装置などといった記憶手段を内部に備えてよい。また、各機能を、コンピュータおよびソフトウェアによって実現するようにしてもよい。
The
ToFセンサ制御部131は、照射部120による光の照射を制御する。具体的には、ToFセンサ制御部131は、第1制御情報CI1を出力することにより第1照射部121による光の照射タイミングを制御し、第2制御情報CI2を出力することにより第2照射部122による光の照射タイミングを制御する。また、ToFセンサ制御部131は、第3制御情報CI3を出力することにより、照射部120が照射したときの反射光を受光部110が受光する際の露光を制御する。その結果、ToFセンサ制御部131は受光部110から受光情報RIを取得することにより反射光についての情報を取得する。受光情報RIには、二次元座標の各座標に応じて、反射光を取得した対象物Tまでの距離に関する情報が含まれていてもよい。受光情報RIには、受光部110が露光して取得したそれぞれの情報が含まれていてもよいし、受光部110が複数回露光して取得した反射光に基づいて信号処理することによって取得した座標ごとの赤外光情報及び距離情報が含まれていてもよい。赤外光情報や距離情報は、ToFセンサ制御部131が受光部110から取得した反射光についての情報に基づいて信号処理することにより取得してもよい。
The ToF
ToFセンサ制御部131は、取得した受光情報RIに基づき、距離画像を生成する。距離画像とは、光を照射してから対象物に反射した光を受光するまでの時間に応じて得られた複数の距離値を含むものである。複数の距離値は、二次元座標系に応じたものである。距離画像は、ToFセンサにより得られるDepth画像ということもできる。具体的には、ToFセンサ制御部131は、第1制御情報CI1を出力することにより第1照射部121による照射を行った結果として得られた反射光に基づき、第1距離画像DI1を生成する。また、ToFセンサ制御部131は、第2制御情報CI2を出力することにより第2照射部122による照射を行った結果として得られた反射光に基づき、第2距離画像DI2を生成する。ここで、第1照射部121による照射と、第2照射部122による照射とは、同一の対象物Tに対して行われる。また、第1照射部121による照射の照射角と、第2照射部122による照射の照射角とは異なる。すなわち、第2距離画像DI2とは、第1距離画像DI1と同一の対象物Tに対して光を照射することにより得られる距離画像であって、第1距離画像DI1とは異なる照射角の光を照射することにより得られる距離画像であるということもできる。
The ToF
第1距離画像取得部132は、ToFセンサ制御部131により生成された第1距離画像DI1を取得する。第1距離画像取得部132は、取得した第1距離画像DI1を三次元情報生成部134に出力する。
The first distance
第2距離画像取得部133は、ToFセンサ制御部131により生成された第2距離画像DI2を取得する。第2距離画像取得部133は、取得した第2距離画像DI2を三次元情報生成部134に出力する。
The second distance
三次元情報生成部134は、第1距離画像取得部132から第1距離画像DI1を取得し、第2距離画像取得部133から第2距離画像DI2を取得する。三次元情報生成部134は、取得した第1距離画像DI1と第2距離画像DI2とに基づいて、対象物Tの三次元情報を生成する。ここで、第1距離画像DI1を得るために照射された光の照射角と、第2距離画像DI2を得るために照射された光の照射角とは異なり、具体的には、第1距離画像DI1を得るために照射された光の照射角はより広角である。第1距離画像DI1を得るために照射された光の照射角は広角のため、第1距離画像DI1はマルチパスの影響を受けたものであるということができる。一方、第2距離画像DI2を得るために照射された光の照射角は第1距離画像DI1の照射角より狭いため(理想的には、対象物Tの大きさ又は範囲にのみ照射される角度のため)、第2距離画像DI2はマルチパスの影響が軽減されたものである。しかしながら第2距離画像DI2によれば、対象物Tの外側の領域は、距離値(Depth値)がとれない(値が0である)。したがって第2距離画像DI2によって距離値が得られない領域が存在する。三次元情報生成部134は、第2距離画像DI2によって距離値が得られない領域については、第1距離画像DI1の距離値を用いて対象物Tの三次元情報を生成する。三次元情報生成部134により生成される対象物Tの三次元情報は、第1距離画像DI1と比べて、光の反射に伴うマルチパスの影響が軽減されたものである。また、三次元情報生成部134により生成される対象物Tの三次元情報には、第2距離画像DI2と比べて、対象物Tの周辺(例えば背景BG)についての情報も含まれる。なお、以下の説明において、三次元情報生成部134を単に生成部と記載する場合がある。
The three-dimensional
三次元情報生成部134は、第1距離画像DI1及び第2距離画像DI2の両方から距離値を取得可能な場合、第1距離画像DI1の距離値と第2距離画像DI2の距離値とを比較した結果に応じて、いずれの距離値を採用するかを決定してもよい。つまり、第1距離画像DI1の距離値と第2距離画像DI2の距離値とを比較した結果に基づいて対象物Tの三次元情報に対するマルチパスの影響を判定し、判定した結果に応じていずれの距離値を採用するかを決定する。ここで、第1距離画像DI1及び第2距離画像DI2は、それぞれ二次元座標系の各座標に応じた距離値を有している。そこで、三次元情報生成部134は、同一座標における第1距離画像DI1に含まれる距離値と第2距離画像DI2に含まれる距離値とを比較し、比較した結果に応じて対象物Tの三次元情報を生成してもよい。
When the three-dimensional
「比較した結果に応じて」とは、距離値の差分が、センサのノイズ特性、Depth精度、個体差ばらつき、温度特性等で変動する量をある一定量以上超えた場合に、マルチパスの影響を受けていると判定することであってもよい。例えば、三次元情報生成部134は、Depth精度が±2%である場合、比較した結果が±5%又は±10%であることを条件として、マルチパスの影響を受けていると判定してもよい。マルチパスの影響を受けていると判定された座標については、第2距離画像DI2の距離値を採用してもよい。
"Depending on the result of the comparison" may mean determining that there is a multipath effect when the difference in distance values exceeds a certain amount of variation due to the sensor's noise characteristics, depth accuracy, individual variation, temperature characteristics, etc. For example, when the depth accuracy is ±2%, the three-dimensional
三次元情報生成部134は、マルチパスによる物体の歪みが目に見えて不自然となるような場合に、マルチパスが発生していると判定して補正を行ってもよい。マルチパスによる物体の歪みが目に見えて不自然となるか否かの判定は、対象物Tの大きさに基づくものであってもよい。例えば対象物Tの大きさが直径100[mm(ミリメートル)]の円形である場合、閾値が5%なら5[mm]、閾値が10%なら10[mm]、の歪みを許容することとなる。このように、許容可能な歪みに基づいて閾値が設定されてもよい。
The three-dimensional
なお、上述したように、可視光反射ダイクロイック膜等を用いて更に可視光画像を取得可能とした構成の場合、更に可視光画像取得部(不図示)を備えることにより対象物Tの可視光画像を取得し、三次元情報生成部134は、取得した可視光画像に基づいて、第1距離画像DI1又は第2距離画像DI2のいずれの距離値を用いるかを決定してもよい。可視光画像を用いれば、画素値の微分や周波数解析等の画像解析を行うことにより対象物Tのエッジ(輪郭)を検出することが可能である。また、距離画像によれば、距離値に一定量の差が存在する位置を対象物Tのエッジとして検出することができる。したがって、可視光画像に基づくエッジと、距離画像に基づくエッジが異なる場合、マルチパスによる影響を受けていると判定することができる。このような場合、三次元情報生成部134は可視光画像による対象物Tのエッジに基づき、対象物Tのエッジより外側は第1距離画像DI1の距離値を用い、対象物Tのエッジより内側は第2距離画像DI2の距離値を用いることができる。
As described above, in the case of a configuration in which a visible light image can be acquired using a visible light reflecting dichroic film or the like, a visible light image acquisition unit (not shown) may be further provided to acquire a visible light image of the object T, and the three-dimensional
上述した一例によれば、対象物Tが画角の中央に存在することが前提となっている。しかしながら、本実施形態は、対象物Tが画角の中央に存在しない場合についても適用可能である。次に、図5及び図6を参照しながら、対象物Tが画角の中央に存在しない場合の一例について説明する。 In the above example, it is assumed that the object T is located at the center of the angle of view. However, this embodiment can also be applied to cases where the object T is not located at the center of the angle of view. Next, with reference to Figures 5 and 6, an example of a case where the object T is not located at the center of the angle of view will be described.
図5は、実施形態1に係る三次元情報取得装置による第1の照射について説明するための第2の図である。同図を参照しながら、対象物Tが画角の中央に存在しない場合における三次元情報取得装置10による第1の照射について説明する。同図は、図3における配置と比較して、対象物Tの位置が画角中央から左側に移動した状態における図である。この状態においても、対象物Tは、角度αの範囲内に存在している。図示する一例では、図3の状況と同様に、第1照射部121により照射され対象物Tに反射した光(当該光の経路を照射光BM1-1と記載する。)は、マルチパスの影響を受けない。しかしながら、第1照射部121により照射され背景BGに反射した光(当該光の経路を照射光BM1-2と記載する。)によっては、背景BGからの反射光が対象物T等によって更に反射している場合があり、このような光はマルチパスの影響を与える。
5 is a second diagram for explaining the first irradiation by the three-dimensional information acquisition device according to the first embodiment. With reference to the diagram, the first irradiation by the three-dimensional
図6は、実施形態1に係る三次元情報取得装置による第2の照射について説明するための第2の図である。同図を参照しながら、対象物Tが画角の中央に存在しない場合における三次元情報取得装置10による第2の照射について説明する。同図は、図4における配置と比較して、対象物Tの位置が画角中央から左側に移動した状態における図である。この状態において、図4のように画角の中央に照射角の狭い光を照射すると、対象物Tが角度βの範囲内に収まらない。本実施形態によれば、照射部120が光を照射する角度を対象物Tに合わせて変更することにより、対象物Tを狭い画角内に収める。具体的には、第2照射部122が向く方向を可変にすることにより、照射部120は対象物Tの位置に応じて光を照射する方向を変えられる。
6 is a second diagram for explaining the second irradiation by the three-dimensional information acquisition device according to the first embodiment. With reference to this diagram, the second irradiation by the three-dimensional
なお、上述したように、可視光反射ダイクロイック膜等を用いて更に可視光画像を取得可能とした構成の場合、照射部120は、可視光画像に基づいて第2照射部122が向く方向を変えるようにしてもよい。この場合、三次元情報取得装置10は、対象物Tを撮像した可視光画像を取得する可視光画像取得部を更に備え、照射部120は、取得した可視光画像を解析したことにより得られた対象物Tの位置に応じて光を照射する方向を変えられる。なお、照射部120により光の照射が行われる方向は、例えば取得した可視光画像につき物体検出処理を行い、物体が存在すると判定された範囲の中心点に基づき、照射方向角及び照射範囲角を制御することであってもよい。また、対象物Tが人物である場合、例えば可視光画像を画像処理することにより顔認識を行い、顔であると認識された範囲の中心点に基づき、照射方向角及び照射範囲角を制御してもよい。これにより、人物の顔についてマルチパスの影響が軽減された三次元情報を生成することができる。
As described above, in the case of a configuration in which a visible light image can be further acquired using a visible light reflecting dichroic film or the like, the
上述した一例によれば、照射部120は、予め照射角の広い第1照射部121と、照射角の狭い第2照射部122とを予め備え、いずれか一方から光を照射することにより、第1の照射と第2の照射とを切り替えていた。通常市販されているVCSELによれば、アイセーフの観点からディフューザの位置が固定されており、照射角を変えることは困難である。したがって、照射角を変更するためには予め異なる照射角のVCSELを用意する必要が生じ、上述したような実施形態をとることが考えられる。しかしながらディフューザとVCSELとの距離を可変にすることにより照射角を容易に変更することが可能となれば、1個のVCSELにより上述した実施形態と同様の構成を実現することが可能である。以下、図7を参照しながら、1個のVCSELにより上述した実施形態と同様の構成を実現する場合の一例について説明する。
In the above example, the
図7は、実施形態1に係る三次元情報取得装置において、照射角の変更方法について説明するための図である。同図を参照しながら、照射角の変更方法について説明する。図示する照射部140は、照射部120の変形例である。同図には、照射部140の内部構成の一例を示す。照射部140は、距離画像を取得するための光を照射するための部材である。照射部140は、発光部141と拡散部142とを含んで構成される。発光部141は、光を発光する部材であり、例えばVCSELであってもよい。拡散部142は、発光部141により発光された光を拡散する部材であり、例えばディフューザであってもよい。照射部140は、発光部141と拡散部142との距離を可変にすることにより異なる照射角の光を照射する。
FIG. 7 is a diagram for explaining a method of changing the irradiation angle in the three-dimensional information acquisition device according to the first embodiment. The method of changing the irradiation angle will be explained with reference to the same figure. The illustrated
図7(A)から図7(C)は、それぞれ発光部141と拡散部142との距離が異なっている。図7(A)から図7(C)によれば、照射部140は、それぞれ異なる照射角の光を照射する。例えば固定された発光部141に対して、拡散部142が前後方向(図中に両向き矢印で示した上下方向)にシフトすることにより、発光部141と拡散部142との距離を可変にするよう構成されていてもよい。この場合、ToFセンサ制御部131による距離値の算出には、拡散部142のシフト量が用いられ、補正が行われてもよい。なお、当該補正は、光の速度で無視できる範囲であれば無視してもよい。拡散部142の前後位置シフト機構は、アイセーフの観点から、容易に外れないような構成とされることが好適である。図7(A)に示す一例では、発光部141と拡散部142との距離が距離L41であり、図示する中で最も短い。この場合の照射角は角度γ1であり、図示する中で最も広角に光を照射することができる。図7(C)に示す一例では、発光部141と拡散部142との距離が距離L43であり、図示する中で最も長い。この場合の照射角は角度γ3であり、図示する中で最も狭角に光を照射することができる。図7(B)に示す一例では、発光部141と拡散部142との距離が距離L42であり、図7(A)に示す一例と図7(C)に示す一例との間の距離である。この場合の照射角は角度γ2であり、図7(A)に示す一例と図7(C)に示す一例との間の照射角の光を照射することができる。
7(A) to 7(C) show different distances between the
[実施形態1のまとめ]
以上説明した実施形態によれば、三次元情報取得装置10は、第1距離画像取得部132を備えることにより第1距離画像DI1を取得し、第2距離画像取得部133を備えることにより第2距離画像DI2を取得する。第1距離画像DI1及び第2距離画像DI2は、いずれも光を照射してから対象物に反射した光を受光するまでの時間に応じて得られた複数の距離値を含む距離画像(Depth画像)である。第1距離画像DI1及び第2距離画像DI2は、同一の対象物Tに対して光を照射することにより得られる距離画像であって、互いに異なる照射角の光を照射することにより得られる距離画像である。第1距離画像DI1は、広い照射角の光により対象物Tまでの距離を測距しているため、広い範囲について距離情報を有している。第2距離画像DI2は、狭い照射角の光により対象物Tまでの距離を測距しているため、マルチパスの影響が少ない。三次元情報取得装置10は三次元情報生成部134を備えることにより、第1距離画像DI1と第2距離画像DI2とに基づいて、光の反射に伴うマルチパスの影響を軽減した対象物Tの三次元情報を生成する。したがって、本実施形態によれば、マルチパスによる影響を低減可能な測距技術を提供することができる。また、従来であればマルチパスの影響を受けやすい環境(例えば近赤外光反射率の高い背景等の周囲物)は除外しなければ、マルチパスの影響を低減することはできなかった。しかしながら本実施形態によれば、マルチパスの影響を受けやすい環境を除外することなくマルチパスによる影響を低減可能な測距技術を提供することができる。
[Summary of the First Embodiment]
According to the embodiment described above, the three-dimensional
また、以上説明した実施形態によれば、第1距離画像DI1及び第2距離画像DI2は、いずれも二次元座標系の各座標に応じた距離値を有する。また、三次元情報生成部134は、同一座標における第1距離画像DI1に含まれる距離値と第2距離画像DI2に含まれる距離値とを比較し、比較した結果に応じて対象物の三次元情報を生成する。すなわち、三次元情報取得装置10は、距離値の差に応じてどちらの距離値を採用するかを決定する。距離値の差が大きい座標は、照射角が広角である第1距離画像DI1においてマルチパスの影響を受けている可能性が高い。このような座標については、第2距離画像DI2の距離値を用いることにより、マルチパスによる影響を低減した三次元情報を生成することができる。したがって、本実施形態によれば、容易にマルチパスによる影響を低減可能な測距技術を提供することができる。
Furthermore, according to the embodiment described above, the first distance image DI1 and the second distance image DI2 both have distance values corresponding to each coordinate in the two-dimensional coordinate system. Furthermore, the three-dimensional
また、以上説明した実施形態によれば、照射部120を備えることにより距離画像を取得するための光を照射する。照射部120は、対象物Tの位置に応じて光を照射する方向を変えられる。すなわち、三次元情報取得装置10は、被写体の位置に応じて照射角を変えることができる。したがって本実施形態によれば、対象物Tが画角の中心に存在しない場合であっても、対象物Tのみに光を照射する第2の照射を行うことができる。したがって本実施形態によれば、対象物Tが画角の中心にない場合であっても、マルチパスによる影響を低減可能な測距技術を提供することができる。
Furthermore, according to the embodiment described above, the
また、以上説明した実施形態によれば、三次元情報取得装置10は可視光画像取得部を更に備えることにより、対象物Tを撮像した可視光画像を取得する。また、照射部120は、可視光画像を解析したことにより得られた対象物Tの位置や大きさに応じて光を照射する方向や照射角を変えられる。すなわち、照射部120は、可視光画像に基づいて対象物Tの位置や大きさを特定し、照射する方向や照射角を変えることができる。したがって、本実施形態によれば、対象物Tが画角の中心にない場合であっても、第2の照射を行う方向を自動的に判定し、第2の照射を行うことができる。したがって本実施形態によれば、対象物Tが画角の中心にない場合であっても、マルチパスによる影響を低減可能な測距技術を提供することができる。
Furthermore, according to the embodiment described above, the three-dimensional
また、以上説明した実施形態によれば、三次元情報取得装置10は照射部140を備えることにより距離画像を取得するための光を照射し、照射部140は、光を発光する発光部141と、発光部141により発光された光を拡散する拡散部142とを備える。また、照射部140は、発光部141と拡散部142との距離を可変にすることにより異なる照射角の光を照射する。すなわち、本実施形態によれば、複数の異なる照射角を有する照射部120を予め備えることを要せず、対象物Tの位置や大きさに応じて照射角を変えることができる。したがって本実施形態によれば、対象物Tの位置や大きさ位に応じて好適な照射角の光を照射することができ、精度よくマルチパスによる影響を低減可能な測距技術を提供することができる。
Furthermore, according to the embodiment described above, the three-dimensional
上述した一例によれば、対象物Tが画角の中に1つだけ存在することが前提となっている。しかしながら、本実施形態はこの一例に限定されず、対象物Tが画角の中に複数存在する場合についても適用可能である。対象物Tが画角の中に複数存在する場合、例えば複数の対象物Tのうちメインの対象物Tに対して第2の照射を行い、複数の対象物Tのうちその他の対象物Tについては第2の照射を行わなくてもよい。また、他の実施形態としては、第1の照射に対応する第2の照射を対象物Tの数だけ行うことにより、マルチパスの影響が少ない第2距離画像DI2を複数取得してもよい。この場合、三次元情報生成部134は、1枚の第1距離画像DI1と、複数の第2距離画像DI2とにもとづいて、複数の対象物Tの三次元情報を生成してもよい。
In the above example, it is assumed that only one object T exists within the angle of view. However, this embodiment is not limited to this example, and can also be applied to a case where multiple objects T exist within the angle of view. When multiple objects T exist within the angle of view, for example, the second irradiation may be performed on a main object T among the multiple objects T, and the second irradiation may not be performed on the other objects T among the multiple objects T. In another embodiment, the second irradiation corresponding to the first irradiation may be performed as many times as the number of objects T to obtain multiple second distance images DI2 that are less affected by multipath. In this case, the three-dimensional
なお、上述した一例によれば、第2の照射では対象物Tの位置や大きさに合わせて照射角を狭めるが、照射角の調整に限度がある場合(すなわち、照射角を最も狭くした場合であっても、対象物Tの外側に光が照射されてしまう場合)には、対象物Tの位置がより光軸近くへ配置されるようにすることにより、(マルチパスの影響を完全になくすことはできないかもしれないが)マルチパスの影響を低減させることが可能である。第2照射部122により照射される光の光軸が対象物Tの中心を通るように第2照射部122が向く方向を調節することにより、マルチパスの影響を低減させるようにしてもよい。
In the above example, the irradiation angle is narrowed in the second irradiation according to the position and size of the object T, but if there is a limit to the adjustment of the irradiation angle (i.e., even when the irradiation angle is set to the narrowest, light is irradiated to the outside of the object T), it is possible to reduce the effect of multipath (although it may not be possible to completely eliminate the effect of multipath) by positioning the object T closer to the optical axis. The effect of multipath may also be reduced by adjusting the direction in which the
また、マルチパスの影響の大小は、対象物Tの形状や背景BGによって決定される。対象物Tの形状や背景BGによっては、マルチパスの影響が水平方向に多い場合もあるし、垂直方向に多い場合もある。そこで、三次元情報取得装置10は、マルチパスの影響が水平方向に多いか、垂直方向に多いかに応じて、異なる制御を行ってもよい。マルチパスの影響が水平方向に多いか、垂直方向に多いかは、例えば可視光画像により判定されてもよい。水平方向からのマルチパスの影響が多い場合、第2照射部122は、受光部110を挟んで垂直方向上下に配置されていてもよい(すなわち図3に示した配置と同様である。)。また、垂直方向からのマルチパスの影響が多い場合、第2照射部122は、受光部110を挟んで水平方向上下に配置されていてもよい(すなわち図3に示した配置を90度回転させた配置である。)。
The magnitude of the multipath effect is determined by the shape of the object T and the background BG. Depending on the shape of the object T and the background BG, the multipath effect may be more in the horizontal direction or more in the vertical direction. Therefore, the three-dimensional
[実施形態2]
次に、図8から図11を参照しながら、実施形態2について説明する。実施形態1では、照射角の異なる光(具体的には照射角の狭い光)を照射することにより第2距離画像DI2を取得する場合の一例について説明した。実施形態2は、照射角を固定したまま背景を異ならせることによりマルチパスを低減した第2距離画像DI2を取得する点において、実施形態1とは異なる。
[Embodiment 2]
Next, a second embodiment will be described with reference to Fig. 8 to Fig. 11. In the first embodiment, an example of acquiring a second distance image DI2 by irradiating light with a different irradiation angle (specifically, light with a narrow irradiation angle) has been described. The second embodiment differs from the first embodiment in that a second distance image DI2 in which multipath is reduced is acquired by changing the background while keeping the irradiation angle fixed.
図8は、実施形態2に係る三次元情報取得装置の機能構成の一例を示す機能構成図である。同図を参照しながら、実施形態2に係る三次元情報取得装置10Aの機能構成の一例について説明する。三次元情報取得装置10Aの照射部120Aは、互いに異なる照射角の光を照射する複数の照射部を備えない点において三次元情報取得装置10とは異なる。具体的には、三次元情報取得装置10Aは、照射部120に代えて照射部120Aを備える点において三次元情報取得装置10とは異なる。また、三次元情報取得装置10Aは、更に背景情報取得部150を備える点において三次元情報取得装置10とは異なる。また、三次元情報取得装置10Aは、制御部130に代えて制御部130Aを備える点において三次元情報取得装置10とは異なる。三次元情報取得装置10Aの説明において三次元情報取得装置10と同様の構成については同様の符号を付すことにより説明を省略する場合がある。
8 is a functional configuration diagram showing an example of the functional configuration of a three-dimensional information acquisition device according to the second embodiment. With reference to the same figure, an example of the functional configuration of a three-dimensional
照射部120Aは、ToFセンサ制御部131Aからの制御情報CIに基づき、距離画像を取得するための光を照射する。
The
背景情報取得部150は、対象物Tの背景についての情報を取得する。背景情報取得部150は、取得した情報を背景情報BGIとしてToFセンサ制御部131Aに出力する。背景情報取得部150は、例えばユーザからの操作により対象物Tの背景BGについての情報を取得してもよい。また、他の一例として背景情報取得部150は、可視光画像を撮像し、撮像した可視光画像を画像解析することにより対象物Tの背景BGについての情報を取得してもよい。背景情報BGIには、近赤外線の反射率が高い背景であるか、近赤外線の反射率が低い背景であるかについての情報が含まれていてもよい。背景情報取得部150が可視光画像を画像解析することにより対象物Tの背景BGについての情報を取得する場合、例えば対象物Tのエッジを検出し、対象物Tの外側が白に近い場合には近赤外線の反射率が高い背景であるとし、対象物Tの外側が黒に近い場合には近赤外線の反射率が低い背景であるとしてもよい。
The background
制御部130Aは、ToFセンサ制御部131に代えてToFセンサ制御部131Aを、第1距離画像取得部132に代えて第1距離画像取得部132Aを、第2距離画像取得部133に代えて第2距離画像取得部133Aを、三次元情報生成部134に代えて三次元情報生成部134Aを備える。制御部130Aは、制御部130の変形例である。
ToFセンサ制御部131Aは、照射部120Aによる光の照射を制御する。具体的には、ToFセンサ制御部131Aは、制御情報CIを出力することにより照射部120Aによる光の照射タイミングを制御する。また、ToFセンサ制御部131Aは、照射部120Aによる照射の結果として受光した反射光についての情報を取得する。具体的には、ToFセンサ制御部131Aは、受光部110から受光情報RIを取得することにより、反射光についての情報を取得する。受光情報RIには、二次元座標の各座標に応じて、反射光を取得したタイミングに関する情報が含まれていてもよい。ToFセンサ制御部131Aは、取得した受光情報RIに基づき、距離画像を生成する。ToFセンサ制御部131Aは、対象物Tの背景が近赤外線の反射率が高い背景である第1背景BG1である場合に光が照射され(以下、第1の照射と記載する)、結果として得られた反射光に基づいて、第1距離画像DI1Aを生成する。また、ToFセンサ制御部131Aは、対象物Tの背景が近赤外線の反射率が第1背景BG1より低い背景である第2背景BG2である場合に光が照射され(以下、第2の照射と記載する)、結果として得られた反射光に基づいて、第2距離画像DI2Aを生成する。ここで、第1の照射と、第2の照射とは、同一の対象物Tに対して行われるものである。
The ToF
第1距離画像取得部132Aは、ToFセンサ制御部131Aにより生成された第1距離画像DI1Aを取得する。第1距離画像取得部132Aは、取得した第1距離画像DI1Aを三次元情報生成部134Aに出力する。
The first distance
第2距離画像取得部133Aは、ToFセンサ制御部131Aにより生成された第2距離画像DI2Aを取得する。第2距離画像取得部133Aは、取得した第2距離画像DI2Aを三次元情報生成部134Aに出力する。
The second distance
三次元情報生成部134Aは、第1距離画像取得部132Aから第1距離画像DI1Aを取得し、第2距離画像取得部133Aから第2距離画像DI2Aを取得する。三次元情報生成部134Aは、取得した第1距離画像DI1Aと第2距離画像DI2Aとに基づいて、対象物Tの三次元情報を生成する。ここで、第2背景BG2を用いた場合は、第1背景BG1より近赤外線の反射率が低いため、第1背景BG1を用いた場合と比較して光の反射に伴うマルチパスによる影響を受けにくいということができる。したがって、第2距離画像DI2Aは、第1距離画像DI1Aと比較して、光の反射に伴うマルチパスによる影響を受けていないものということができる。したがって、三次元情報生成部134Aは、第1距離画像DI1Aと第2距離画像DI2Aとに基づいて、光の反射に伴うマルチパスの影響を軽減した対象物Tの三次元情報を生成することができる。なお、以下の説明において三次元情報生成部134Aを単に生成部と記載する場合がある。
The three-dimensional
なお、三次元情報生成部134Aは、第1距離画像DI1A及び第2距離画像DI2Aの両方から距離値を取得可能な場合、第1距離画像DI1Aの距離値と第2距離画像DI2Aの距離値とを比較した結果に応じて、いずれの距離値を採用するかを決定してもよい。ここで、第1距離画像DI1A及び第2距離画像DI2Aは、それぞれ二次元座標系の各座標に応じた距離値を有している。そこで、三次元情報生成部134Aは、同一座標における第1距離画像DI1Aに含まれる距離値と第2距離画像DI2Aに含まれる距離値とを比較し、比較した結果に応じて対象物Tの三次元情報を生成してもよい。
Note that, when distance values can be obtained from both the first distance image DI1A and the second distance image DI2A, the three-dimensional
図9は、実施形態2に係る三次元情報取得装置による第1の照射と第2の照射について説明するための図である。同図を参照しながら、実施形態2に係る三次元情報取得装置10Aによる照射であって、第1背景BG1を用いた第1の照射と第2背景BG2を用いた第2の照射について説明する。同図に示す一例では、三次元情報取得装置10Aが背景の手前に存在する対象物Tの三次元的形状を測定する。三次元情報取得装置10Aは、受光部110と、照射部120Aとを備える。三次元情報取得装置10Aは、照射部120Aとして、照射部120A-1及び照射部120A-2を備える。図9(A)は、第1の照射の一例を示したものであり、図9(B)は、第2の照射の一例を示したものである。図示する一例では、対象物Tとして円柱形のガムケースが用いられている。また、第1背景BG1として近赤外線の反射率が高い白い壁が用いられ、第2背景BG2として近赤外線の反射率が低い黒い壁が用いられている。
9 is a diagram for explaining the first irradiation and the second irradiation by the three-dimensional information acquisition device according to the second embodiment. With reference to the figure, the first irradiation using the first background BG1 and the second irradiation using the second background BG2, which are irradiation by the three-dimensional
図9(A)に示すように、照射部120Aにより照射され対象物Tに反射した光(当該光の経路を照射光BM2-1と記載する。)は、マルチパスの影響を受けない。しかしながら、照射部120Aにより照射され第1背景BG1に反射した光(当該光の経路を照射光BM2-2と記載する。)によっては、第1背景BG1からの反射光が対象物T等によって更に反射している場合があり、このような光はマルチパスの影響を与える。マルチパスの影響により、対象物Tの形状は、本来点線で示すような形状であるものの、実線で示すような形状として計測されてしまう。これは、マルチパスの影響を受けた場合、Depth値(三次元情報取得装置10Aから対象物Tまでの距離を示す値)は、本来の値より大きく(遠く)測定されるためである。
As shown in FIG. 9(A), the light irradiated by the
図9(B)に示すように、照射部120Aにより照射され対象物Tに反射した光(当該光の経路を照射光BM2-1と記載する。)は、マルチパスの影響を受けない。また、照射部120Aにより照射され第2背景BG2に反射した光(当該光の経路を照射光BM2-3と記載する。)によっては、第2背景BG2からの反射光が対象物T等によって更に反射している場合がある。しかしながら第2背景BG2は、近赤外線の反射率が低いため、反射光は減衰しており、このような光はマルチパスの影響を与えない(与えたとしてもその影響は軽微である)。したがって、第2背景BG2を用いた場合は、マルチパスの影響を受けない(または影響が軽微である)ため、本来対象物Tの形状は点線で示されるような形状であるところ、計測結果としても実線で示すような形状となる。このように、第2背景BG2を用いた第2の照射によれば、対象物Tの形状を正確に測定することができる。以下の説明において、三次元情報取得装置10Aと、第2背景BG2とを含む構成を三次元情報取得システムと記載する場合がある。
As shown in FIG. 9B, the light irradiated by the
なお、第2背景BG2は、第1背景BG1である白い壁等に黒い布(近赤外線の反射率が低い布)等を被せたものであってもよい。好適には、第2背景BG2としては、近赤外線の反射率が低い背景である赤外線吸収シート等が用いられてもよい。 The second background BG2 may be the first background BG1, such as a white wall, covered with a black cloth (a cloth with low near-infrared reflectance). Preferably, the second background BG2 may be an infrared absorbing sheet or the like, which is a background with low near-infrared reflectance.
三次元情報生成部134Aは、実施形態1において説明した方法と同様の方法により、第1距離画像DI1Aと、第2距離画像DI2Aとに基づき、光の反射に伴うマルチパスの影響を軽減した対象物Tの三次元情報を生成する。
The three-dimensional
なお、上述したように、可視光反射ダイクロイック膜等を用いて更に可視光画像を取得可能とした構成の場合、背景の輝度に依存して、対象物Tを撮像した可視光画像の輝度が適正レベルから外れる場合が考えられる。したがって、このような場合、第1背景BG1を用いた場合の撮像条件(露出、電子増幅、シャッタースピード等)と、第2背景BG2を用いた場合の撮像条件とを異ならせて、レベル補正を行ってもよい。具体的には、三次元情報取得装置10Aは、第1可視光画像取得部(不図示)と、第2可視光画像取得部(不図示)とを備えることにより、このような機能を実現させてもよい。第1可視光画像取得部は、第1距離画像DI1Aに対応する対象物T及び第1背景BG1を撮像した可視光画像である第1可視光画像を取得する。第2可視光画像取得部は、第2距離画像DI2Aに対応する対象物T及び第2背景BG2を撮像した可視光画像である第2可視光画像を取得する。第1可視光画像と、第2可視光画像とは、可視光画像の明るさを決定するための撮像条件を互いに異ならせて撮像されたものである。
As described above, in the case of a configuration in which a visible light image can be further acquired using a visible light reflecting dichroic film or the like, the luminance of the visible light image of the object T may deviate from an appropriate level depending on the luminance of the background. Therefore, in such a case, the imaging conditions (exposure, electronic amplification, shutter speed, etc.) when the first background BG1 is used may be different from the imaging conditions when the second background BG2 is used, and level correction may be performed. Specifically, the three-dimensional
また、上述したようなレベル補正は、撮像後に行われてもよい。この場合、三次元情報取得装置10Aは、可視光画像生成部(不図示)を更に備えることにより、撮像後にレベル補正を行ってもよい。可視光画像生成部は、取得した第1可視光画像と、第2可視光画像とに基づき対象物Tの三次元情報に付与する画素情報を生成する。また、可視光画像生成部は、取得した第1可視光画像の画素値と、第2可視光画像の画素値とを比較した結果に応じて、画素情報を生成する。可視光画像生成部は、近赤外線反射率が低い第2背景BG2の可視光画像レベルを基準とし、近赤外線反射率が高い第1背景BG1の可視光画像レベルとの差分が一定以上あると検出した場合に、適正レベルから外れたと判断し、露出、電子増幅、シャッタースピード等を変えてレベル補正を行ってもよい。
Furthermore, the level correction as described above may be performed after imaging. In this case, the three-dimensional
次に、図10及び図11を参照しながら、第1背景BG1を用いた場合と、第2背景BG2を用いた場合のそれぞれについて、可視光画像と距離画像の一例を説明する。 Next, with reference to Figures 10 and 11, examples of visible light images and distance images will be described for the cases where the first background BG1 is used and where the second background BG2 is used.
図10は、実施形態2に係る三次元情報取得装置による第1の背景を用いた場合の可視光画像と第2の背景を用いた場合の可視光画像の一例を示す図である。同図を参照しながら、第1背景BG1を用いた場合と、第2背景BG2を用いた場合のそれぞれについて、可視光画像の一例を説明する。図10(A)は、一般的な壁を背景としてガムのボトル、及びその周囲に存在するブロック等を撮像したものである。この状態において、一般的な壁は、近赤外線の反射率が高い第1背景BG1であるということができる。したがって、この状態において距離画像を取得しようとした場合、マルチパスの影響を受けやすい。図10(B)は、図10(A)と同一の被写体を撮像したものであるが、壁と対象物Tとの間に、黒色の布等が挿入されている。当該黒色の布等は、赤外線吸収シートが望ましい。当該黒色の布等は、近赤外線の反射率が低い第2背景BG2であるということができる。したがって、この状態において距離画像を取得しようとした場合、マルチパスの影響を受けにくい。 10 is a diagram showing an example of a visible light image when the first background is used and when the second background is used by the three-dimensional information acquisition device according to the second embodiment. With reference to the figure, an example of a visible light image will be described for each of the cases where the first background BG1 and the second background BG2 are used. FIG. 10(A) shows an image of a gum bottle and blocks around it, etc., with a general wall as the background. In this state, the general wall can be said to be the first background BG1, which has a high reflectance of near-infrared rays. Therefore, if an attempt is made to acquire a distance image in this state, it is likely to be affected by multipath. FIG. 10(B) shows an image of the same subject as FIG. 10(A), but a black cloth or the like is inserted between the wall and the object T. The black cloth or the like is preferably an infrared absorbing sheet. The black cloth or the like can be said to be the second background BG2, which has a low reflectance of near-infrared rays. Therefore, if an attempt is made to acquire a distance image in this state, it is unlikely to be affected by multipath.
図11は、実施形態2に係る三次元情報取得装置による第1距離画像を用いた場合の点群データと第2距離画像を用いた場合の点群データの一例を示す図である。同図を参照しながら、第1背景BG1を用いた場合と、第2背景BG2を用いた場合のそれぞれについて、距離画像の一例を説明する。なお、図示する一例では、歪みが分かりやすいように斜め方向に回転させている。図11(A)は、図10(A)を撮像した条件において取得された距離画像である第1距離画像DI1Aの一例である。図から分かるように、円柱形のガムのボトルが奥行き方向に長く歪んでいる。これは、マルチパスの影響により本来の距離値より奥行き方向に大きくなってしまったためである。図11(B)は、図10(B)を撮像した条件において取得された距離画像である第2距離画像DI2Aの一例である。図から分かるように、奥行き方向の歪みは、図11(A)と比較して、少ない。これは、近赤外線の反射率が低い背景を用いたために、マルチパスの影響が低減されたためである。
11 is a diagram showing an example of point cloud data when a first distance image is used and when a second distance image is used by a three-dimensional information acquisition device according to
[実施形態2のまとめ]
以上説明した実施形態によれば、三次元情報取得装置10Aは、第1距離画像取得部132Aを備えることにより第1距離画像DI1Aを取得し、第2距離画像取得部133Aを備えることにより第2距離画像DI2Aを取得する。第1距離画像DI1A及び第2距離画像DI2Aは、いずれも光を照射してから対象物に反射した光を受光するまでの時間に応じて得られた複数の距離値を含む距離画像(Depth画像)である。第1距離画像DI1A及び第2距離画像DI2Aは、同一の対象物Tに対して光を照射することにより得られる距離画像であって、互いに異なる背景BGを用いて得られる距離画像である。具体的には、第1距離画像DI1Aは第1背景BG1を用いて得られる距離画像であって、第2距離画像DI2Aは第2背景BG2を用いて得られる距離画像である。第2背景BG2は、第1背景BG1より近赤外線の反射率が低い。また、三次元情報取得装置10Aは、三次元情報生成部134Aを備えることにより、第1距離画像DI1Aと第2距離画像DI2Aとに基づいて、光の反射に伴うマルチパスの影響を軽減した対象物Tの三次元情報を生成する。したがって、本実施形態によれば、マルチパスによる影響を低減可能な測距技術を提供することができる。また、従来であればマルチパスの影響を受けやすい環境(例えば近赤外光反射率の高い背景等の周囲物)は除外しなければ、マルチパスの影響を低減することはできなかった。しかしながら本実施形態によれば、マルチパスの影響を受けやすい環境を除外することなくマルチパスによる影響を低減可能な測距技術を提供することができる(すなわち対象物Tの背景についての情報を含む三次元情報を生成することができる。)。
[Summary of the second embodiment]
According to the embodiment described above, the three-dimensional
また、以上説明した実施形態によれば、第1距離画像DI1A及び第2距離画像DI2Aは、いずれも二次元座標系の各座標に応じた距離値を有する。また、三次元情報生成部134Aは、同一座標における第1距離画像DI1Aに含まれる距離値と第2距離画像DI2Aに含まれる距離値とを比較し、比較した結果に応じて対象物の三次元情報を生成する。すなわち、三次元情報取得装置10Aは、距離値の差に応じてどちらの距離値を採用するかを決定する。距離値の差が大きい座標は、近赤外線の反射率が高い背景である第1背景BG1を用いた第1距離画像DI1Aにおいてマルチパスの影響を受けている可能性が高い。このような座標については、第2距離画像DI2Aの距離値を用いることにより、マルチパスによる影響を低減することができる。したがって、本実施形態によれば、容易にマルチパスによる影響を低減可能な測距技術を提供することができる。
Furthermore, according to the embodiment described above, the first distance image DI1A and the second distance image DI2A both have distance values corresponding to each coordinate in the two-dimensional coordinate system. Furthermore, the three-dimensional
また、以上説明した実施形態によれば、三次元情報取得装置10Aは、第1可視光画像取得部と、第2可視光画像取得部とを更に備える。第1可視光画像取得部は、第1距離画像DI1Aに対応する対象物T及び第1背景BG1を撮像した可視光画像である第1可視光画像を取得する。第2可視光画像取得部は、第2距離画像DI2Aに対応する対象物T及び第2背景BG2を撮像した可視光画像である第2可視光画像を取得する。第1可視光画像と第2可視光画像とは、可視光画像の明るさを決定するための撮像条件が異なる。すなわち、三次元情報取得装置10Aによれば、第1背景BG1を用いた可視光画像の撮像と、第2背景BG2を用いた可視光画像の撮像とを、互いに異なる撮像条件(露出、電子増幅、シャッタースピード等)で撮像する。したがって、本実施形態によれば、画像の輝度レベルが好適となるような撮像条件で可視光画像を撮像することができる。
Furthermore, according to the embodiment described above, the three-dimensional
また、以上説明した実施形態によれば、三次元情報取得装置10Aは、第1可視光画像取得部と、第2可視光画像取得部と、可視光画像生成部とを更に備える。第1可視光画像取得部は、第1距離画像DI1Aに対応する対象物T及び第1背景BG1を撮像した可視光画像である第1可視光画像を取得する。第2可視光画像取得部は、第2距離画像DI2Aに対応する対象物T及び第2背景BG2を撮像した可視光画像である第2可視光画像を取得する。可視光画像生成部は、取得した第1可視光画像と第2可視光画像とに基づき対象物Tの三次元情報に付与する画素情報を生成する。また、可視光画像生成部は、取得した第1可視光画像の画素値と、第2可視光画像の画素値とを比較した結果に応じて、対象物Tの三次元情報に付与する画素情報を生成する。すなわち、三次元情報取得装置10Aは、可視光画像の撮像後に補正を行ってもよい。したがって、本実施形態によれば、画像の輝度レベルが好適となるように可視光画像を補正することができる。
According to the embodiment described above, the three-dimensional
また、以上説明した実施形態によれば、三次元情報取得システムは、上述したような三次元情報取得装置10Aと、第2背景BG2とを備える。第2背景BG2は、第2距離画像DI2Aを取得する際に用いられ、近赤外線の反射率が低い背景である赤外線吸収シートである。したがって、本実施形態によれば、通常の壁や床、建造物、自然物等、その他通常の撮像時に映り込む背景を第1背景BG1とし、赤外線吸収シートを第2背景BG2とすることにより、第1距離画像DI1Aと、第2距離画像DI2Aとを取得することができる。第2距離画像DI2Aは、マルチパスによる影響を低減した距離画像である。よって、本実施形態によれば、マルチパスによる影響を低減可能な測距技術を提供することができる。なお、第1背景BG1は通常の壁や床等の背景を用いる場合に限定されず、ホワイトチャート等の反射率が高い背景を第1背景BG1として用いてもよい。
Furthermore, according to the embodiment described above, the three-dimensional information acquisition system includes the three-dimensional
[実施形態3]
次に、図12から図17を参照しながら、実施形態3について説明する。実施形態3は、ズームレンズを用いて異なる画角の距離画像及び可視光画像を撮像する点において、実施形態1及び実施形態2とは異なる。
[Embodiment 3]
Next, a third embodiment will be described with reference to Fig. 12 to Fig. 17. The third embodiment differs from the first and second embodiments in that a distance image and a visible light image having different angles of view are captured using a zoom lens.
図12は、実施形態3に係る三次元情報取得装置の断面の一例を示す模式図である。同図を参照しながら、三次元情報取得装置10Bの断面の一例について説明する。三次元情報取得装置10Bは、レンズ111と、可視光反射ダイクロイック膜112と、イメージセンサ113と、センサ114とを備える。三次元情報取得装置10Bは、ズームレンズとして機能するレンズ111を更に備える点において三次元情報取得装置10や三次元情報取得装置10Aとは異なる。なお、三次元情報取得装置10及び三次元情報取得装置10Aについても、レンズ111を除く構成については、三次元情報取得装置10Bと同様であってもよい。
FIG. 12 is a schematic diagram showing an example of a cross section of a three-dimensional information acquisition device according to embodiment 3. An example of a cross section of three-dimensional
三次元情報取得装置10Bは、受光部110を挟んで互いに対称な位置に照射部120を複数備える。図示する一例では、三次元情報取得装置10Bは、照射部120として照射部120B-1と、照射部120B-2とを受光部110の近傍に備える。照射部120B-1及び照射部120B-2は、受光部110を挟んで互いに対称な位置に配置される。照射部120B-1及び照射部120B-2は、対象物Tに光を照射する。対象物Tにより反射した光は、受光部110に入射する。同図には、入射した光の光軸を、光軸OAとして記載する。受光部110に入射した光は、レンズ111を通り、可視光反射ダイクロイック膜112に入射する。
The three-dimensional
レンズ111は、具体的にはズームレンズである。ズームレンズは複数のレンズ群の間隔を互いに変更することにより拡大倍率(ズーム倍率)を変更することができる。三次元情報取得装置10Bは、複数のレンズ(不図示)を備えていてもよい。レンズ111は、光軸方向(図中左右方向)にスライドすることにより拡大倍率を変える。拡大倍率は、制御部(不図示)により制御される。
可視光反射ダイクロイック膜112は、受光部110とセンサ114との間の光路上に設けられる。可視光反射ダイクロイック膜112は、入射する一部の光(具体的には近赤外光)を透過させ、その他の光(具体的には可視光)を反射する。可視光反射ダイクロイック膜112は、照射部120により照射された光が対象物Tに反射した光の一部を透過させることにより、光をセンサ114に導く。可視光反射ダイクロイック膜112が透過させる光を赤外光ILと記載する。また、可視光反射ダイクロイック膜112が反射する光を可視光VLとして記載する。可視光反射ダイクロイック膜112を通る前の赤外光IL及び可視光VLは、受光部110と可視光反射ダイクロイック膜112との間で、略同一の光軸を通る。略同一の範囲とは、例えば共通のレンズにより、光路が形成される範囲であってもよい。
The visible light reflecting
可視光反射ダイクロイック膜112により二つの光路に分光された光は、それぞれの光路に配置されたセンサにより受光される。具体的には、可視光反射ダイクロイック膜112を透過した赤外光ILはセンサ114により受光され、可視光反射ダイクロイック膜112により反射した光はイメージセンサ113により受光される。
The light split into two optical paths by the visible light reflecting
イメージセンサ113は、二次元配列された複数の画素を備える。イメージセンサ113は、ベイヤー配列により配置されたRGB各色の画素を備えていてもよい。
The
センサ114は、二次元配列された複数の画素を備える。当該複数の画素は、それぞれ複数回ずつ赤外光ILを受光し、距離換算に必要な情報を取得する。
The
図13は、実施形態3に係る三次元情報取得装置の機能構成の一例を示す機能構成図である。同図を参照しながら、実施形態3に係る三次元情報取得装置10Bの機能構成の一例について説明する。三次元情報取得装置10Bは、照射部120に代えて照射部120Bを、制御部130Aに代えて制御部130Bを、背景情報取得部150に代えて拡大倍率情報取得部160を備える点において三次元情報取得装置10又は三次元情報取得装置10Aとは異なる。三次元情報取得装置10Bの説明において、三次元情報取得装置10又は三次元情報取得装置10Aと同様の構成については同様の符号を付すことにより説明を省略する場合がある。
FIG. 13 is a functional configuration diagram showing an example of the functional configuration of a three-dimensional information acquisition device according to embodiment 3. With reference to the same figure, an example of the functional configuration of a three-dimensional
拡大倍率情報取得部160は、拡大倍率に関する情報を取得する。拡大倍率に関する情報とは、例えばレンズ111が前後方向に動作することにより拡大倍率を変更したことに伴う情報であってもよい。拡大倍率情報取得部160は、取得した拡大倍率に関する情報を拡大倍率情報ZIとして制御部130Bに出力する。
The magnification
照射部120Bは、拡大倍率に応じた画角に応じた照射角の光を照射する。具体的には、照射部120Bは、拡大倍率情報取得部160から拡大倍率に関する情報を取得し、取得した拡大倍率に関する情報に基づいて、拡大倍率に応じた画角と略同様の照射角の光を照射する。
The
制御部130Bは、ToFセンサ制御部131に代えてToFセンサ制御部131Bを、第1距離画像取得部132に代えて第1距離画像取得部132Bを、第2距離画像取得部133に代えて第2距離画像取得部133Bを、三次元情報生成部134に代えて三次元情報生成部134Bを備える。また、制御部130Bは、可視光画像取得部135を更に備える。制御部130Bは、制御部130の変形例である。
ToFセンサ制御部131Bは、照射部120Bによる光の照射を制御する。具体的には、ToFセンサ制御部131は、第1制御情報CI1を出力することにより第1照射部121Bによる光の照射タイミングを制御し、第2制御情報CI2を出力することにより第2照射部122Bによる光の照射タイミングを制御する。また、ToFセンサ制御部131Bは、照射部120Bによる照射の結果として受光した反射光についての情報を取得する。具体的には、ToFセンサ制御部131Bは、受光部110から受光情報RIを取得することにより、反射光についての情報を取得する。受光情報RIには、二次元座標の各座標に応じて、反射光を取得したタイミングに関する情報が含まれていてもよい。ToFセンサ制御部131Bは、取得した受光情報RIに基づき、距離画像を生成する。具体的には、ToFセンサ制御部131Bは、第1制御情報CI1を出力することにより第1照射部121Bによる照射(以下、第1の照射と記載する)を行った結果として得られた反射光に基づき、第1距離画像DI1Bを生成する。また、ToFセンサ制御部131Bは、第2制御情報CI2を出力することにより第2照射部122Bによる照射(以下、第1の照射と記載する)を行った結果として得られた反射光に基づき、第2距離画像DI2Bを生成する。ここで、第1の照射と、第2の照射とは、同一の対象物Tに対して行われる。また、第1の照射と、第2の照射とは、レンズ111の拡大倍率を異ならせて取得されたものである。第2の照射は、第1の照射に比べて拡大されたものである。換言すれば、第2距離画像DI2Bは、第1距離画像DI1Bと同一の対象物Tの一部を光学部材により拡大することにより得られる距離画像である。
The ToF
第1距離画像取得部132Bは、ToFセンサ制御部131Bにより生成された第1距離画像DI1Bを取得する。第1距離画像取得部132Bは、取得した第1距離画像DI1Bを三次元情報生成部134Bに出力する。
The first distance
第2距離画像取得部133Bは、ToFセンサ制御部131Bにより生成された第2距離画像DI2Bを取得する。第2距離画像取得部133Bは、取得した第2距離画像DI2Bを三次元情報生成部134Bに出力する。
The second distance
三次元情報生成部134Bは、第1距離画像取得部132Bから第1距離画像DI1Bを取得し、第2距離画像取得部133Bから第2距離画像DI2Bを取得する。三次元情報生成部134Bは、取得した第1距離画像DI1Bと第2距離画像DI2Bとに基づいて、対象物Tの三次元情報を生成する。ここで、拡大倍率が高い第2距離画像DI2Bは、背景への照射が第1距離画像DI1Bと比較して少ないため、光の反射に伴うマルチパスによる影響を受けにくいということができる。したがって、三次元情報生成部134Bは、第1距離画像DI1Bと第2距離画像DI2Bとに基づいて、光の反射に伴うマルチパスの影響を軽減した対象物Tの三次元情報を生成することができる。なお、以下の説明において三次元情報生成部134Bを単に生成部と記載する場合がある。
The three-dimensional
ここで、第1距離画像DI1B及び第2距離画像DI2Bに基づき、マルチパスの影響が少ない三次元情報を生成しようとする場合、光軸がずれていると(不可能ではないものの)合成が困難である。したがって、第1距離画像DI1Bと第2距離画像DI2Bとは、光軸を固定したまま取得されることが好適である。なお、本実施形態はこの一例に限定されるものではなく、互いに光軸をずらして第1距離画像DI1B及び第2距離画像DI2Bを取得してもよい。この場合、マルチパスの影響が少ない三次元情報を生成しようとする場合に所定の演算を要する。 Here, when attempting to generate three-dimensional information with less influence of multipath based on the first distance image DI1B and the second distance image DI2B, synthesis is difficult (although not impossible) if the optical axis is misaligned. Therefore, it is preferable that the first distance image DI1B and the second distance image DI2B are acquired with the optical axis fixed. Note that this embodiment is not limited to this example, and the first distance image DI1B and the second distance image DI2B may be acquired with the optical axis misaligned from each other. In this case, a certain calculation is required when attempting to generate three-dimensional information with less influence of multipath.
可視光画像取得部135は、対象物Tを撮像した可視光画像をイメージセンサ113から取得する。可視光画像取得部135は、距離画像が取得される際の拡大倍率と同様の拡大倍率とする可視光画像を取得する。具体的には、可視光画像取得部135は、第1距離画像DI1Bと略同一の画角を有する可視光画像である第1可視光画像と、第2距離画像DI2Bと略同一の画角を有する可視光画像である第2可視光画像とを取得する。
The visible light
なお、第2可視光画像及び第2距離画像DI2Bが取得される際の拡大倍率は、第1可視光画像を解析した結果に基づいて決定されてもよい。例えば、第1可視光画像を解析することにより対象物Tのエッジ(輪郭)を検出し、当該エッジがちょうど収まる程度の拡大倍率としたうえで第2可視光画像及び第2距離画像DI2Bを取得してもよい。第1可視光画像の解析とは、画素値の微分や周波数解析等による物であってもよいし、顔認識等の機械学習アルゴリズム等が用いられてもよい。この場合、光学部材による拡大倍率は、可視光画像取得部135により取得された可視光画像に基づくということもできる。
The magnification ratio at which the second visible light image and the second distance image DI2B are acquired may be determined based on the results of analyzing the first visible light image. For example, the first visible light image may be analyzed to detect the edge (contour) of the object T, and the second visible light image and the second distance image DI2B may be acquired at a magnification ratio that just contains the edge. The analysis of the first visible light image may involve differentiation of pixel values or frequency analysis, or a machine learning algorithm such as face recognition may be used. In this case, the magnification ratio determined by the optical member may be based on the visible light image acquired by the visible light
なお、本実施形態において距離画像と可視光画像は、いずれが先に取得されてもよい。例えば、可視光画像が先に取得され、その後に距離画像が取得される場合、照射部120Bは、拡大倍率情報取得部160により取得された拡大倍率に応じて照射角を決定してもよい。すなわち距離画像を取得するために照射される光の照射角は、可視光画像の画角に応じて決定されてもよい。
In this embodiment, either the distance image or the visible light image may be acquired first. For example, if the visible light image is acquired first and then the distance image is acquired, the
次に、図14から図16を参照しながら、三次元情報取得装置10Bにより生成される点群データの一例について説明する。
Next, an example of point cloud data generated by the three-dimensional
図14は、実施形態3に係る三次元情報取得装置によるワイド端における距離画像と可視光画像とが合成された点群データの一例を示す図である。同図を参照しながら、第1距離画像DI1Bと第1可視光画像とに基づき生成された点群データの一例について説明する。図示する一例において、第1距離画像DI1B及び第1可視光画像は、例えば焦点距離が4[mm(ミリメートル)]の場合に取得されたものである。ワイド端においては、広角な情報が得られる反面、点群の密度としては粗い。また、ワイド端においては、背景に反射した光によるマルチパスの影響を受けている状態でもある。また、ワイド端におけるある領域の可視光画像の画素密度は、テレ端において対応する領域の画素密度よりも低いということもできる。 FIG. 14 is a diagram showing an example of point cloud data in which a distance image and a visible light image at the wide end are combined by a three-dimensional information acquisition device according to embodiment 3. With reference to the same figure, an example of point cloud data generated based on the first distance image DI1B and the first visible light image will be described. In the example shown, the first distance image DI1B and the first visible light image are acquired when the focal length is, for example, 4 mm (millimeters). At the wide end, wide-angle information is obtained, but the density of the point cloud is low. In addition, at the wide end, the image is also affected by multipath due to light reflected from the background. It can also be said that the pixel density of a visible light image in a certain area at the wide end is lower than the pixel density of the corresponding area at the telephoto end.
図15は、実施形態3に係る三次元情報取得装置によるテレ端における距離画像と可視光画像とが合成された点群データの一例を示す図である。同図を参照しながら、第2距離画像DI2Bと第2可視光画像とに基づき生成された点群データの一例について説明する。図示する一例において、第2距離画像DI2B及び第2可視光画像は、例えば焦点距離が13[mm]の場合に取得されたものである。テレ端においては、狭角な情報しか得られない反面、点群の密度としては密である。また、テレ端においては、対象物Tのみに光が照射しているため、背景には光が照射されず、反射光によるマルチパスの影響が低減された状態でもある。また、テレ端におけるある領域の可視光画像の画素密度は、ワイド端において対応する領域の画素密度よりも高いということもできる。 FIG. 15 is a diagram showing an example of point cloud data in which a distance image and a visible light image at the telephoto end are combined by the three-dimensional information acquisition device according to the third embodiment. With reference to the same figure, an example of point cloud data generated based on the second distance image DI2B and the second visible light image will be described. In the example shown, the second distance image DI2B and the second visible light image are acquired when the focal length is, for example, 13 mm. At the telephoto end, only narrow-angle information is obtained, but the density of the point cloud is dense. Also, at the telephoto end, light is only irradiated onto the object T, so light is not irradiated onto the background, and the effect of multipath caused by reflected light is reduced. It can also be said that the pixel density of a visible light image in a certain area at the telephoto end is higher than the pixel density of the corresponding area at the wide-angle end.
図16は、実施形態3に係る三次元情報取得装置によりワイド端における距離画像及び可視光画像と、テレ端における距離画像及び可視光画像とが合成された点群データの一例を示す図である。同図を参照しながら、ワイド端における距離画像及び可視光画像と、テレ端における距離画像及び可視光画像とを合成した場合の三次元情報の一例について説明する。同図に示す一例は、図14に示したワイド端における点群データの一部について、図15に示したテレ端における点群データを載せ替えたものである。当該一部は、レンズ111により拡大された領域である。この一例では、テレ端における点群データが存在する領域と、その他の領域において、点群データの密度と、可視光画像の解像度が異なる。図示するように、テレ端における点群データが存在する領域において、点群データの密度と、可視光画像の解像度が上がっている。しかしながら本実施形態はこの一例に限定されず、テレ端における点群データが存在しない領域については、点群データの密度及び可視光画像の解像度を補完することによりデータを補ってもよい。
16 is a diagram showing an example of point cloud data obtained by combining a distance image and a visible light image at the wide end and a distance image and a visible light image at the telephoto end by a three-dimensional information acquisition device according to the third embodiment. With reference to the figure, an example of three-dimensional information obtained by combining a distance image and a visible light image at the wide end and a distance image and a visible light image at the telephoto end will be described. The example shown in the figure is obtained by replacing part of the point cloud data at the wide end shown in FIG. 14 with the point cloud data at the telephoto end shown in FIG. 15. The part is an area enlarged by the
図17は、実施形態3に係る三次元情報取得装置による画素値の補完について説明するための図である。同図を参照しながら、点群データの密度及び可視光画像の解像度の補完の一例について説明する。図17(A)は、ワイド端における三次元情報に、テレ端における三次元情報を単純に載せ替えた場合のイメージを示す。図中に示す1つの矩形を1つの画素に応じた情報とする。図示するように、図17(A)の中央部分では、画素密度が4倍になっている。図17(B)は、補完のイメージについて示す図である。図示するように、図17(B)においては、画素密度が同一である。換言すれば、中央部分の密度に合わせて、周縁部分の密度が補完されている。補完方法は既存技術を用いることができ、例えば線形補間等が用いられてもよい。 FIG. 17 is a diagram for explaining the complementation of pixel values by the three-dimensional information acquisition device according to the third embodiment. An example of complementation of the density of point cloud data and the resolution of a visible light image will be described with reference to the diagram. FIG. 17(A) shows an image of a case where three-dimensional information at the wide-angle end is simply replaced with three-dimensional information at the telephoto end. Each rectangle shown in the diagram represents information corresponding to one pixel. As shown in the diagram, the pixel density is four times higher in the central portion of FIG. 17(A). FIG. 17(B) is a diagram showing an image of complementation. As shown in the diagram, the pixel density is the same in FIG. 17(B). In other words, the density of the peripheral portion is complemented to match the density of the central portion. Existing technology can be used as the complementation method, and linear interpolation, for example, may be used.
具体的には、画素の補完は、可視光画像生成部により行われてもよい。可視光画像生成部は、可視光画像取得部135により取得された第1可視光画像及び第2可視光画像とに基づき、対象物Tの三次元情報に付与する画素情報を生成する。また、可視光画像生成部は、第1可視光画像のうち、第2可視光画像より解像度が低い座標(例えば図17(A)の周縁部分)における画素値を所定の方法により補完する。所定の方法とは、線形補間等であってもよい。
Specifically, pixel complementation may be performed by the visible light image generation unit. The visible light image generation unit generates pixel information to be added to the three-dimensional information of the object T based on the first visible light image and the second visible light image acquired by the visible light
[実施形態3のまとめ]
以上説明した実施形態によれば、三次元情報取得装置10Bは、第1距離画像取得部132Bを備えることにより第1距離画像DI1Bを取得し、第2距離画像取得部133Bを備えることにより第2距離画像DI2Bを取得する。第1距離画像DI1B及び第2距離画像DI2Bは、いずれも光を照射してから対象物に反射した光を受光するまでの時間に応じて得られた複数の距離値を含む距離画像(Depth画像)である。第1距離画像DI1B及び第2距離画像DI2Bは、同一の対象物Tに対して光を照射することにより得られる距離画像であって、互いに異なる照射角の光を照射することにより得られる距離画像である。また、第2距離画像DI2Bは、第1距離画像DI1Bと同一の対象物Tの一部を光学部材により拡大することにより得られる距離画像である。第2距離画像DI2Bは、第1距離画像DI1Bの一部が拡大されているため、背景に反射する光が少なく、マルチパスの影響が低減されているということができる。また、三次元情報取得装置10Bは、三次元情報生成部134Bを備えることにより、第1距離画像DI1Bと第2距離画像DI2Bとに基づいて、光の反射に伴うマルチパスの影響を軽減した対象物Tの三次元情報を生成する。したがって、本実施形態によれば、マルチパスによる影響を低減可能な測距技術を提供することができる。また、従来であればマルチパスの影響を受けやすい環境(例えば近赤外光反射率の高い背景等の周囲物)は除外しなければ、マルチパスの影響を低減することはできなかった。しかしながら本実施形態によれば、マルチパスの影響を受けやすい環境を除外することなくマルチパスによる影響を低減可能な測距技術を提供することができる。
[Summary of the Third Embodiment]
According to the embodiment described above, the three-dimensional
また、以上説明した実施形態によれば、第1距離画像DI1B及び第2距離画像DI2Bは、光軸を固定したまま取得される。したがって、三次元情報取得装置10Bは、第1距離画像DI1Bの一部を第2距離画像DI2Bに置き換えることにより容易に合成することができる。したがって、本実施形態によれば、マルチパスによる影響が低減された三次元情報を容易に生成することができる。
Furthermore, according to the embodiment described above, the first distance image DI1B and the second distance image DI2B are acquired while the optical axis remains fixed. Therefore, the three-dimensional
また、以上説明した実施形態によれば、三次元情報取得装置10Bは、可視光画像取得部135を更に備えることにより対象物Tを撮像した可視光画像を取得する。また、光学部材による拡大倍率は、可視光画像取得部135により取得された可視光画像に基づく。例えば、三次元情報取得装置10Bは、可視光画像に基づき、対象物Tが存在する位置とその大きさを検出し、対象物Tがちょうど収まる程度に拡大する。したがって、本実施形態によれば、対象物Tの外側に光を照射することがないため、マルチパスの影響を軽減することができ、対象物Tを拡大して距離画像を所得することにより、解像度の高い三次元情報を生成することができる。
Furthermore, according to the embodiment described above, the three-dimensional
また、以上説明した実施形態によれば、可視光画像取得部135は、第1距離画像DI1Bと略同一の画角を有する可視光画像である第1可視光画像と、第2距離画像DI2Bと略同一の画角を有する可視光画像である第2可視光画像とを取得する。すなわち、距離画像の画角と、可視光画像の画角は略同一である。したがって、本実施形態によれば、三次元情報取得装置10Bは、距離画像と、可視光画像とを容易に合成することができる。また、以上説明した実施形態によれば、第1距離画像DI1B及び第2距離画像DI2Bを取得するために照射される光の照射角は、可視光画像の画角に応じて決定される。すなわち、本実施形態によれば、可視光画像を撮像した画角において、当該画角に対応する照射角の光を照射する。したがって、本実施形態によれば、画角の外側に光を照射することなく、マルチパスの影響を軽減することができる。
Furthermore, according to the embodiment described above, the visible light
また、以上説明した実施形態によれば、三次元情報取得装置10Bは、可視光画像生成部を更に備えることにより、取得した第1可視光画像と第2可視光画像とに基づき対象物Tの三次元情報に付与する画素情報を生成する。また、可視光画像生成部は、第1可視光画像のうち、第2可視光画像より解像度が低い座標における画素値を所定の方法により補完する。所定の方法とは、例えば線形補間等であってもよい。したがって、本実施形態によれば、容易に高解像度の三次元情報を生成することができる。
Furthermore, according to the embodiment described above, the three-dimensional
以上、本発明の実施形態について説明したが、本発明は、上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲において種々の変更を加えることが可能であり、また、上述した各実施形態を適宜組み合わせてもよい。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above-mentioned embodiments, and various modifications can be made without departing from the spirit of the present invention. Furthermore, the above-mentioned embodiments may be combined as appropriate.
本発明によれば、マルチパスによる影響を低減し、対象物までの距離を測距することができる。 The present invention reduces the effects of multipath and makes it possible to measure the distance to an object.
10…三次元情報取得装置、10A…三次元情報取得装置、110…受光部、111…レンズ、112…可視光反射ダイクロイック膜、113…イメージセンサ、114…センサ、120…照射部、121…第1照射部、122…第2照射部、130…制御部、131…ToFセンサ制御部、132…第1距離画像取得部、133…第2距離画像取得部、134…三次元情報生成部、140…照射部、141…発光部、142…拡散部、150…背景情報取得部、160…拡大倍率情報取得部、T…対象物、BG…背景、BM…照射光、DI1…第1距離画像、DI2…第2距離画像、BGI…波形情報、ZI…拡大倍率情報、VL…可視光、IL…赤外光、OA…光軸 10...3D information acquisition device, 10A...3D information acquisition device, 110...light receiving unit, 111...lens, 112...visible light reflecting dichroic film, 113...image sensor, 114...sensor, 120...irradiation unit, 121...first irradiation unit, 122...second irradiation unit, 130...control unit, 131...ToF sensor control unit, 132...first distance image acquisition unit, 133...second distance image acquisition unit, 134...3D information generation unit, 140...irradiation unit, 141...light emitting unit, 142...diffusion unit, 150...background information acquisition unit, 160...magnification information acquisition unit, T...object, BG...background, BM...irradiation light, DI1...first distance image, DI2...second distance image, BGI...waveform information, ZI...magnification information, VL...visible light, IL...infrared light, OA...optical axis
Claims (17)
前記第1距離画像と同一の前記対象物に対して光を照射することにより得られる前記距離画像であって、前記第1距離画像とは異なる照射角の光を照射することにより得られる前記距離画像である第2距離画像を取得する第2距離画像取得部と、
前記第1距離画像と前記第2距離画像とに基づいて、光の反射に伴うマルチパスの影響を判定し、判定した結果に基づいて前記第1距離画像と前記第2距離画像とを合成した前記対象物の三次元情報を生成する生成部と
を備える三次元情報取得装置。 a first distance image acquisition unit that acquires a first distance image that is a distance image including a plurality of distance values obtained according to the time from when light is emitted to when the light reflected by the object is received;
a second distance image acquisition unit that acquires a second distance image, the second distance image being the distance image obtained by irradiating the same object as the first distance image with light, the second distance image being the distance image obtained by irradiating the object with light at an illumination angle different from that of the first distance image;
a generation unit that determines the effect of multipath caused by light reflection based on the first distance image and the second distance image, and generates three-dimensional information of the object by combining the first distance image and the second distance image based on the determination result.
前記生成部は、同一座標における前記第1距離画像に含まれる距離値と前記第2距離画像に含まれる距離値とを比較し、比較した結果に基づいて光の反射に伴うマルチパスの影響を判定する
請求項1に記載の三次元情報取得装置。 the distance image has distance values corresponding to each coordinate in a two-dimensional coordinate system;
The three-dimensional information acquisition device according to claim 1 , wherein the generation unit compares the distance values contained in the first distance image with the distance values contained in the second distance image at the same coordinates, and determines the effect of multipath caused by light reflection based on the comparison result.
前記生成部は、同一座標における前記第1距離画像に含まれる距離値と前記第2距離画像に含まれる距離値とを比較した結果が所定以上の差分であった場合に、前記第1距離画像がマルチパスの影響を受けていると判定し、前記座標の距離値として前記第2距離画像の距離値を採用する、
請求項2に記載の三次元情報取得装置。 an illumination angle of light irradiated to obtain the first distance image is wider than an illumination angle of light irradiated to obtain the second distance image;
the generation unit determines that the first distance image is affected by multipath when a comparison result between a distance value included in the first distance image and a distance value included in the second distance image at the same coordinate shows a difference equal to or greater than a predetermined value, and adopts the distance value of the second distance image as the distance value of the coordinate.
The three-dimensional information acquisition device according to claim 2 .
前記照射部は、前記対象物の位置に応じて光を照射する方向を変えられる
請求項1又は請求項2に記載の三次元情報取得装置。 An illumination unit that illuminates light for acquiring the distance image,
The three-dimensional information acquisition device according to claim 1 or 2, wherein the irradiating section is capable of changing a direction in which the light is irradiated depending on a position of the object.
前記照射部は、前記可視光画像を解析したことにより得られた前記対象物の位置に応じて光を照射する方向を変えられる
請求項4に記載の三次元情報取得装置。 A visible light image acquisition unit that acquires a visible light image of the object is further provided,
The three-dimensional information acquisition device according to claim 4 , wherein the irradiating section is capable of changing a direction in which the light is irradiated depending on a position of the object obtained by analyzing the visible light image.
請求項5に記載の三次元情報取得装置。 a light receiving unit that receives, on the same optical axis, the light irradiated by the irradiating unit and reflected by the object and visible light for acquiring the visible light image,
The three-dimensional information acquisition device according to claim 5 .
前記照射部は、
光を発光する発光部と、
前記発光部により発光された光を拡散する拡散部とを更に備え、
前記発光部と前記拡散部との距離を可変にすることにより異なる照射角の光を照射する
請求項1又は請求項2に記載の三次元情報取得装置。 An illumination unit that illuminates light for acquiring the distance image,
The irradiation unit includes:
A light emitting unit that emits light;
A diffusion unit that diffuses the light emitted by the light emitting unit,
The three-dimensional information acquisition device according to claim 1 or 2, wherein the distance between the light emitting section and the diffusion section is variable, so that light is irradiated at different irradiation angles.
前記第1距離画像と同一の前記対象物に対して光を照射することにより得られる前記距離画像であって、前記第1距離画像における背景より近赤外線の反射率が低い背景を用いて得られる前記距離画像である第2距離画像を取得する第2距離画像取得部と、
前記第1距離画像と前記第2距離画像とに基づいて、光の反射に伴うマルチパスの影響を判定し、判定した結果に基づいて前記第1距離画像と前記第2距離画像とを合成した前記対象物の三次元情報を生成する生成部と
を備える三次元情報取得装置。 a first distance image acquisition unit that acquires a first distance image, which is a distance image including a plurality of distance values obtained according to the time from when light is emitted to when the light reflected by the object and the background is received;
a second distance image acquisition unit that acquires a second distance image, the second distance image being the distance image obtained by irradiating light onto the same object as the first distance image, the second distance image being the distance image obtained using a background having a lower reflectance of near-infrared rays than the background in the first distance image;
a generation unit that determines the effect of multipath caused by light reflection based on the first distance image and the second distance image, and generates three-dimensional information of the object by combining the first distance image and the second distance image based on the determination result.
前記生成部は、同一座標における前記第1距離画像に含まれる距離値と前記第2距離画像に含まれる距離値とを比較し、比較した結果に基づいて光の反射に伴うマルチパスの影響を判定する
請求項8に記載の三次元情報取得装置。 the distance image has distance values corresponding to each coordinate in a two-dimensional coordinate system;
The three-dimensional information acquisition device according to claim 8 , wherein the generation unit compares the distance values contained in the first distance image with the distance values contained in the second distance image at the same coordinates, and determines the effect of multipath caused by light reflection based on the comparison result.
前記第2距離画像に対応する前記対象物及び背景を撮像した可視光画像である第2可視光画像を取得する第2可視光画像取得部と
を更に備え、
前記第1可視光画像と、前記第2可視光画像とは、可視光画像の明るさを決定するための撮像条件が異なる
請求項8に記載の三次元情報取得装置。 a first visible light image acquisition unit that acquires a first visible light image that is a visible light image obtained by capturing an image of the object and a background corresponding to the first distance image;
a second visible light image acquisition unit that acquires a second visible light image that is a visible light image obtained by capturing an image of the object and a background corresponding to the second distance image,
The three-dimensional information acquisition device according to claim 8 , wherein the first visible light image and the second visible light image are imaged under different imaging conditions for determining brightness of the visible light image.
前記第2距離画像に対応する前記対象物及び背景を撮像した可視光画像である第2可視光画像を取得する第2可視光画像取得部と、
取得した前記第1可視光画像と、前記第2可視光画像とに基づき前記対象物の三次元情報に付与する画素情報を生成する可視光画像生成部と
を更に備え、
前記可視光画像生成部は、取得した前記第1可視光画像の画素値と、前記第2可視光画像の画素値とを比較した結果に応じて、前記画素情報を生成する
請求項8に記載の三次元情報取得装置。 a first visible light image acquisition unit that acquires a first visible light image that is a visible light image obtained by capturing an image of the object and a background corresponding to the first distance image;
a second visible light image acquisition unit that acquires a second visible light image that is a visible light image obtained by capturing an image of the object and a background corresponding to the second distance image;
a visible light image generating unit that generates pixel information to be assigned to the three-dimensional information of the object based on the acquired first visible light image and the acquired second visible light image,
The three-dimensional information acquisition device according to claim 8 , wherein the visible light image generation section generates the pixel information according to a result of comparing pixel values of the acquired first visible light image with pixel values of the acquired second visible light image.
前記第2距離画像を取得する際に用いられ、近赤外線の反射率が低い背景である赤外線吸収シートと
を備える三次元情報取得システム。 A three-dimensional information acquisition device according to any one of claims 8 to 11,
an infrared absorbing sheet that is used when acquiring the second distance image and that serves as a background with low reflectance of near-infrared rays.
前記第1距離画像と同一の前記対象物の一部に対して前記第1距離画像とは異なる照射角の光を照射することにより得られる前記距離画像であって、前記第1距離画像と同一の前記対象物の一部を光学部材により拡大することにより得られる前記距離画像である第2距離画像を取得する第2距離画像取得部と、
前記第1距離画像と前記第2距離画像とに基づいて、光の反射に伴うマルチパスの影響を判定し、判定した結果に基づいて前記第1距離画像と前記第2距離画像とを合成した前記対象物の三次元情報を生成する生成部と
を備える三次元情報取得装置。 a first distance image acquisition unit that acquires a first distance image that is a distance image including a plurality of distance values obtained according to the time from when light is emitted to when the light reflected by the object is received;
a second distance image acquisition unit that acquires a second distance image, the second distance image being obtained by irradiating a part of the object identical to the first distance image with light at a different illumination angle from the first distance image, and the second distance image being obtained by magnifying the part of the object identical to the first distance image with an optical member;
a generation unit that determines the effect of multipath caused by light reflection based on the first distance image and the second distance image, and generates three-dimensional information of the object by combining the first distance image and the second distance image based on the determination result.
請求項13に記載の三次元情報取得装置。 The three-dimensional information acquisition device according to claim 13 , wherein the first distance image and the second distance image are acquired while keeping an optical axis fixed.
前記光学部材による拡大倍率は、前記可視光画像取得部により取得された可視光画像に基づく
請求項13又は請求項14に記載の三次元情報取得装置。 A visible light image acquisition unit that acquires a visible light image of the object is further provided,
The three-dimensional information acquisition device according to claim 13 or 14, wherein a magnification ratio achieved by the optical member is based on a visible light image acquired by the visible light image acquisition unit.
それぞれの前記距離画像を取得するために照射される光の照射角は、対応する前記可視光画像の画角に応じて決定される
請求項15に記載の三次元情報取得装置。 the visible light image acquisition unit acquires a first visible light image which is a visible light image having substantially the same angle of view as the first distance image, and a second visible light image which is a visible light image having substantially the same angle of view as the second distance image,
The three-dimensional information acquisition device according to claim 15 , wherein an illumination angle of light emitted to acquire each of the distance images is determined in accordance with an angle of view of the corresponding visible light image.
前記可視光画像生成部は、前記第1可視光画像のうち、前記第2可視光画像より解像度が低い座標における画素値を所定の方法により補完する
請求項16に記載の三次元情報取得装置。 a visible light image generating unit configured to generate pixel information to be assigned to three-dimensional information of the object based on the acquired first visible light image and the acquired second visible light image,
The three-dimensional information acquisition device according to claim 16 , wherein the visible light image generation section complements pixel values at coordinates in the first visible light image that have a lower resolution than the second visible light image, using a predetermined method.
Applications Claiming Priority (6)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023002483A JP2024098779A (en) | 2023-01-11 | 2023-01-11 | Three-dimensional information acquisition device and three-dimensional information acquisition system |
| JP2023-002486 | 2023-01-11 | ||
| JP2023-002476 | 2023-01-11 | ||
| JP2023002486A JP2024098782A (en) | 2023-01-11 | 2023-01-11 | Three-dimensional information acquisition device |
| JP2023002476A JP2024098777A (en) | 2023-01-11 | 2023-01-11 | Three-dimensional information acquisition device |
| JP2023-002483 | 2023-01-11 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2024150720A1 true WO2024150720A1 (en) | 2024-07-18 |
Family
ID=91897054
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2024/000101 Ceased WO2024150720A1 (en) | 2023-01-11 | 2024-01-09 | Three-dimensional information acquisition device |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2024150720A1 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014077668A (en) * | 2012-10-09 | 2014-05-01 | Optex Co Ltd | Dimension measurement device and dimension measurement method |
| WO2014097539A1 (en) * | 2012-12-20 | 2014-06-26 | パナソニック株式会社 | Device for three-dimensional measurement, and method for three-dimensional measurement |
| JP2021085683A (en) * | 2019-11-25 | 2021-06-03 | ファナック株式会社 | Object detection system using TOF sensor |
| WO2021205787A1 (en) * | 2020-04-06 | 2021-10-14 | パナソニックIpマネジメント株式会社 | Ranging device and program |
| JP2022549134A (en) * | 2019-09-17 | 2022-11-24 | 8 リバーズ キャピタル,エルエルシー | Eye-safe divergent-beam optical wireless communication system |
-
2024
- 2024-01-09 WO PCT/JP2024/000101 patent/WO2024150720A1/en not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014077668A (en) * | 2012-10-09 | 2014-05-01 | Optex Co Ltd | Dimension measurement device and dimension measurement method |
| WO2014097539A1 (en) * | 2012-12-20 | 2014-06-26 | パナソニック株式会社 | Device for three-dimensional measurement, and method for three-dimensional measurement |
| JP2022549134A (en) * | 2019-09-17 | 2022-11-24 | 8 リバーズ キャピタル,エルエルシー | Eye-safe divergent-beam optical wireless communication system |
| JP2021085683A (en) * | 2019-11-25 | 2021-06-03 | ファナック株式会社 | Object detection system using TOF sensor |
| WO2021205787A1 (en) * | 2020-04-06 | 2021-10-14 | パナソニックIpマネジメント株式会社 | Ranging device and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US6876775B2 (en) | Technique for removing blurring from a captured image | |
| JP6484072B2 (en) | Object detection device | |
| JP5133626B2 (en) | Surface reflection characteristic measuring device | |
| WO2012077713A1 (en) | Method for detecting point of gaze and device for detecting point of gaze | |
| JP2004212385A (en) | Photographic device, photographing method and control method for the photographic device | |
| WO2022050279A1 (en) | Three-dimensional measurement device | |
| US10863082B2 (en) | Image processing apparatus, image processing method, and storage medium | |
| CN106471336A (en) | For target detection and/or knowledge method for distinguishing and measuring instrument | |
| WO2020184447A1 (en) | Gating camera, automobile, vehicle lamp, object identifying system, arithmetic processing unit, object identifying method, image display system, detection method, image capturing device, and image processing device | |
| US20080074648A1 (en) | Method and Apparatus for Three-Dimensional Measurement of Objects in an Extended angular range | |
| JP6614905B2 (en) | Three-dimensional measuring apparatus and control method thereof | |
| CN114543697A (en) | Measuring apparatus, control apparatus, and control method | |
| JP2015046019A (en) | Image processing apparatus, imaging apparatus, imaging system, image processing method, program, and storage medium | |
| US10362235B2 (en) | Processing apparatus, processing system, image pickup apparatus, processing method, and storage medium | |
| KR20200032442A (en) | 3D information generating device and method capable of self-calibration | |
| JP7730668B2 (en) | Image processing device, imaging device, image processing method and program | |
| WO2024150720A1 (en) | Three-dimensional information acquisition device | |
| JP2024098777A (en) | Three-dimensional information acquisition device | |
| JP2024098779A (en) | Three-dimensional information acquisition device and three-dimensional information acquisition system | |
| JP2024098782A (en) | Three-dimensional information acquisition device | |
| JP2022138755A (en) | Projection control device, spatial projection device, spatial projection system and spatial projection method | |
| US20240022707A1 (en) | Handheld blur evaluating apparatus, handheld blur evaluating method, manufacturing method of imaging unit, and storage medium | |
| US8295635B2 (en) | Methods and apparatus for facilitating elimination of ambient light from an image | |
| US12254656B2 (en) | Apparatus, method, and storage medium for acquiring a reflection characistic of an object | |
| US10091404B2 (en) | Illumination apparatus, imaging system, and illumination method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 24741493 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |