WO2021010339A1 - イメージング装置およびその照明装置、車両、車両用灯具 - Google Patents
イメージング装置およびその照明装置、車両、車両用灯具 Download PDFInfo
- Publication number
- WO2021010339A1 WO2021010339A1 PCT/JP2020/027092 JP2020027092W WO2021010339A1 WO 2021010339 A1 WO2021010339 A1 WO 2021010339A1 JP 2020027092 W JP2020027092 W JP 2020027092W WO 2021010339 A1 WO2021010339 A1 WO 2021010339A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image data
- imaging device
- mode
- image
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
- B60Q1/0017—Devices integrating an element dedicated to another function
- B60Q1/0023—Devices integrating an element dedicated to another function the element being a sensor, e.g. distance sensor, camera
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/46—Indirect determination of position data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/145—Illumination specially adapted for pattern recognition, e.g. using gratings
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/23—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on positionally close patterns or neighbourhood relationships
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/11—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/51—Housings
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/667—Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/75—Circuitry for compensating brightness variation in the scene by influencing optical camera components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/951—Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
Definitions
- the present invention relates to an imaging device.
- An object identification system that senses the position and type of objects existing around the vehicle is used for automatic driving and automatic control of the light distribution of headlamps.
- the object identification system includes a sensor and an arithmetic processing unit that analyzes the output of the sensor.
- the sensor is selected from cameras, LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), millimeter-wave radar, ultrasonic sonar, etc. in consideration of application, required accuracy, and cost.
- one using the principle of ghost imaging (hereinafter referred to as quantum radar) is known.
- ghost imaging an object is irradiated while randomly switching the intensity distribution (pattern) of the reference light, and the light detection intensity of the reflected light is measured for each pattern.
- the photodetection intensity is an integral value of energy or intensity over a plane, not an intensity distribution. Then, the restored image of the object is reconstructed by correlating the corresponding pattern with the light detection intensity.
- Quantum radar can take pictures of objects that cannot be taken with a normal two-dimensional image sensor (camera) in an environment with poor visibility such as in fog, but in order to restore one image, the reference light is emitted multiple times. , It is necessary to irradiate, and the frame rate is lower than that of a general camera. Therefore, in an environment with good visibility, a situation may occur in which a two-dimensional image sensor is preferable to a quantum radar.
- a certain aspect of the present invention has been made in such a situation, and one of its exemplary purposes is to provide an imaging device and its lighting device that achieve both high image quality and a high frame rate.
- one of the objects of an aspect of the present invention is to provide an imaging apparatus having the advantages of a quantum radar and a two-dimensional image sensor.
- the imaging device includes a light source that generates a light beam having a uniform intensity distribution, a patterning device that modulates the intensity distribution of the light beam according to the first image data of two gradations, and light that measures the reflected light from an object. It is provided with a detector, a calculation processing device that performs correlation calculation between the detection intensity based on the output of the light detector and the second image data of m gradation (m ⁇ 2), and reconstructs the restored image of the object. ..
- the number of pixels of the first image data is larger than the number of pixels of the second image data.
- One pixel of the second image data is associated with a pixel group including a plurality of L pixels of the first image data.
- the lighting device includes a light source that generates a light beam having a uniform intensity distribution and an array of pixels having a first pixel number, has a first pixel number, and has a light beam according to the first image data of two gradations.
- a patterning device that modulates the intensity distribution of the above, a second image data having a second pixel number less than the first pixel number, and a random m gradation (m ⁇ 2) is generated and provided for correlation calculation.
- a controller that converts the second image data into the first image data and supplies the second image data to the patterning device.
- the imaging device is a lighting device that irradiates an object with infrared reference light whose intensity distribution can be controlled, a two-dimensional image sensor that has sensitivity in the infrared region, and an arithmetic processing device that processes images taken by the two-dimensional image sensor.
- the illuminator changes the intensity distribution of the reference light based on a sequence of a plurality of M patterning data.
- the two-dimensional image sensor captures a plurality of (M images) of images.
- the arithmetic processing unit calculates the light detection intensity according to the integrated value of a plurality of pixels for each of the plurality of images.
- the arithmetic processing unit performs correlation calculation between the plurality of light detection intensities corresponding to the plurality of images and the plurality of patterning data, and outputs the first output image.
- the arithmetic processing unit outputs a second output image based on the image captured by the two-dimensional image sensor.
- both high image quality and high frame rate can be achieved.
- FIG. 2 (a) to 2 (c) are diagrams illustrating pixels of a DMD which is a patterning device. It is a figure explaining the relationship between the 2nd image data and the 1st image data. It is a figure which shows the specific example of the 1st image data and the 2nd image data.
- 5 (a) and 5 (b) are diagrams showing an example of placement rules. It is a time chart which shows the sensing of one frame of the imaging apparatus which concerns on a comparative technique. It is a time chart which shows the sensing of 1 frame of the imaging apparatus of FIG. It is a figure which shows an example of the 2nd image data and 1st image data.
- 10 (a) to 10 (c) are diagrams showing the second image data according to the modified example 1.1. It is a figure which shows the 1st image data and 2nd image data which concerns on modification 1.2. It is a figure which shows the imaging apparatus which concerns on Embodiment 2. It is a flowchart of the operation of the imaging apparatus of FIG. It is a figure which shows the state and processing of the lighting device, the two-dimensional image sensor, and the arithmetic processing unit in the 1st mode, the 2nd mode, and the 3rd mode.
- 15 (a) to 15 (c) are diagrams for explaining the hybrid mode. It is a block diagram of an object identification system. It is a figure which shows the automobile equipped with the object identification system. It is a block diagram which shows the lighting equipment for a vehicle provided with an object detection system.
- the imaging device includes a light source that generates a light beam having a uniform intensity distribution, a patterning device that modulates the intensity distribution of the light beam according to the first image data of two gradations, and light that measures the reflected light from an object. It is provided with a detector, a calculation processing device that performs correlation calculation between the detection intensity based on the output of the light detector and the second image data of m gradation (m ⁇ 2), and reconstructs the restored image of the object. ..
- the number of pixels of the first image data is larger than the number of pixels of the second image data.
- One pixel of the second image data is associated with a pixel group including a plurality of L pixels of the first image data.
- a high frame rate can be realized by using a patterning device having a larger number of pixels than the second image data used for the correlation calculation and operating the patterning device by 1 bit. Since the intensity distribution of the reference light generated by the patterning device is expressed in multiple gradations when viewed in terms of the number of pixels (resolution) of the second image data, high image quality can be realized.
- the imaging device may further include a controller that generates the second image data.
- the controller may convert the second image data to generate the first image data.
- the controller may assign a value of 1,0 to the pixel group according to a predetermined arrangement rule.
- the placement rule may be set so that the value 1 is preferentially filled from the center pixel of the pixel group. In this case, it is possible to reduce the interference between adjacent pixel groups of the patterning device.
- the placement rule may be set so that the value 1 is evenly placed in the pixel group.
- the values 1 and 0 may be randomly arranged.
- the size of the pixels that make up the second image data may differ depending on the position. As a result, the resolution can be controlled locally.
- the patterning device may be a DMD (Digital Micromirror Device).
- the lighting device can be used as an imaging device that uses correlation calculation.
- the imaging device reconstructs the restored image of the object by performing correlation calculation between the photodetector that measures the reflected light from the object and the detection intensity and the second image data based on the output of the photodetector. It is provided with an arithmetic processing device for processing.
- the imaging apparatus includes an illumination apparatus that irradiates an object with infrared reference light whose intensity distribution can be controlled, a two-dimensional image sensor having sensitivity in the infrared region, and an image taken by the two-dimensional image sensor. It is provided with an arithmetic processing device for processing. The imaging device can switch between the first mode and the second mode.
- the illuminating device changes the intensity distribution of the reference light based on a sequence of a plurality of patterning data.
- the two-dimensional image sensor captures a plurality of images.
- the arithmetic processing device calculates the photodetection intensity according to the integrated value of a plurality of pixels for each of the plurality of images, performs the correlation calculation between the plurality of light detection intensities corresponding to the plurality of images and the plurality of patterning data, and obtains the first 1 Output Outputs an image.
- the second mode arithmetic processing unit is configured to output a second output image based on the image captured by the two-dimensional image sensor.
- this imaging device operates as a quantum radar in the first mode and operates as a camera (two-dimensional image sensor) in the second mode, it can have the advantages of the quantum radar and the two-dimensional image sensor.
- the two-dimensional image sensor and the optical system can be shared between the first mode and the second mode, an image having the same angle of view can be obtained in the first mode and the second mode, and the two modes can be used with each other. There is no parallax.
- the illuminator may irradiate reference light having a uniform intensity distribution.
- the two-dimensional image sensor may operate as an active sensor that detects the reflected light of the reference light from the object.
- the imaging device can be used as a night-vision camera.
- the arithmetic processing unit is configured to be able to determine whether the visibility is good or bad, and when it is determined that the visibility is poor, the first mode may be selected, and when it is determined that the visibility is good, the second mode may be selected.
- the imaging device may operate as a passive sensor.
- the illuminator may stop emitting light.
- the arithmetic processing unit may output a third output image based on the image captured by the two-dimensional image sensor.
- the two-dimensional image sensor may have sensitivity in the visible light region in addition to the infrared region.
- the third output image may be a visible light image.
- the arithmetic processing unit is configured to be able to determine whether the visibility is good or bad and the brightness of the surroundings. When (i) it is determined that the visibility is poor, the first mode is selected, and (ii) the visibility is good and the surroundings are good. The second mode may be selected when it is determined that is dark, and (iii) the third mode may be selected when it is determined that the visibility is good and the surroundings are bright.
- the third output image may be an infrared light image.
- the imaging device may support hybrid mode.
- the illuminator changes the intensity distribution of the first part of the reference light to make the intensity distribution of the second part of the reference light uniform
- the arithmetic processing device changes the irradiation range of the first part of the reference light.
- the first output image is generated by the correlation calculation
- the second output image based on the image taken by the two-dimensional image sensor is generated for the irradiation range of the second portion of the reference light.
- the imaging device may operate as a passive sensor.
- the illuminator may stop emitting light.
- FIG. 1 is a diagram showing an imaging device 100 according to the first embodiment.
- the imaging device 100 is a correlation function image sensor using the principle of ghost imaging, and includes a lighting device 110, a photodetector 120, and an arithmetic processing unit 130.
- the imaging device 100 is also referred to as a quantum radar camera.
- the lighting device 110 is a pseudo-heat light source, generates reference light S1 having an intensity distribution I (x, y) that can be regarded as substantially random, and irradiates the object OBJ.
- the irradiation of the reference light S1 to the object OBJ is performed while changing its intensity distribution according to a plurality of M patterns.
- the lighting device 110 includes a light source 112, a patterning device 114, and a controller 116.
- the light source 112 produces a light beam S0 having a uniform intensity distribution.
- a laser, a light emitting diode, or the like may be used as the light source 112 .
- the light beam S0 is preferably infrared light, but its wavelength and spectrum are not particularly limited, and may be white light having a plurality of or continuous spectra, or monochromatic light containing a predetermined wavelength. Good.
- the patterning device 114 includes an array of pixels having a first pixel count (X ⁇ Y).
- the patterning device 114 has a first pixel number (X ⁇ Y), receives the first image data IMG1 having two gradations, controls the array of pixels according to the first image data IMG1, and controls the array of pixels of the light beam S0. Modulate the intensity distribution.
- a DMD Digital Micromirror Device
- a liquid crystal device can be used as the patterning device 114. In this embodiment, the patterning device 114 is assumed to be a DMD.
- FIG. 2A to 2 (c) are diagrams for explaining the pixels of the DMD which is the patterning device 114.
- the DMD is an array of a plurality of micromirrors (pixels PIX) arranged in a matrix of Y rows and X columns.
- each pixel PIX is a square mirror, and can be tilted in the ON direction and the OFF direction with a hinge provided diagonally as an axis.
- the patterning device 114 is configured so that all pixels can be independently turned on and off.
- the shape of the matrix is shown in a simplified manner as shown in FIG. 2 (c).
- each micromirror constituting the DMD is associated with the corresponding pixel of the first image data IMG1. That is, when the value of a certain pixel P B (i, j) of the first image data IMG1 is 1, the micromirror corresponding to the pixel P B (i, j) is tilted to the on side, and a certain pixel P B ( When the values of i and j) are 0, the micromirror corresponding to the pixel is tilted to the off side.
- the light beam S0 is patterned in accordance with the first image data IMG1, the reference light S1 having an intensity distribution I r (X, Y) is generated and irradiated forward of the object.
- the controller 116 generates the second image data IMG2 used for the correlation calculation in addition to the first image data IMG1 for controlling the patterning device 114.
- the second image data IMG2 has a second number of pixels (xxy), and each pixel has m gradation (m ⁇ 3).
- the number of second pixels XXy is smaller than the number of first pixels XXY.
- X satisfies the relationship of an integral multiple of x and Y satisfies the relationship of an integral multiple of y.
- the controller 116 generates the second image data IMG2 and generates the first image data IMG1 based on the second image data IMG2.
- the second image data IMG2 is supplied to the reconstruction processing unit 134 and is used for the correlation calculation for generating the restored image G (x, y).
- the photodetector 120 measures the reflected light from the object OBJ and outputs the detection signal Dr.
- Detection signal D r is the reference beam having an intensity distribution I r when irradiating the object OBJ, a spatial integral value of light energy (or intensity) that is incident on the light detector 120. Therefore, the photodetector 120 can use a single pixel device (photodetector). From the photodetector 120, a plurality of detection signals D 1 to DM corresponding to each of the plurality of M intensity distributions I 1 to IM are output.
- the arithmetic processing unit 130 includes a reconstruction processing unit 134.
- Reconstruction processor 134 performs a plurality of intensity distributions I 1 ⁇ I M in which a plurality of second image data IMG2 defines a correlation calculation of a plurality of detected intensity b 1 ⁇ b M, the object OBJ of the restored image G ( x, y) is reconstructed.
- the number of pixels of the final restored image G (x, y) matches the number of pixels of the second image data IMG2, and is smaller than the number of pixels of the patterning device 114.
- Detection intensity b 1 ⁇ b M is based on the detection signal D 1 ⁇ D M. Relationship detected intensity b r and the detection signal D r is the type and mode of the optical detector 120 may be determined in consideration.
- the detection signal D r is the received light amount at a certain time (or small time), that is, representing the instantaneous value.
- a plurality of times sampling a detection signal D r in the irradiation period, the detected intensity b r, the integral value of all sampled values of the detection signal D r it may be an average value or a maximum value. Alternatively, some of the total sampling values may be selected, and the integrated value, average value, or maximum value of the selected sampling values may be used.
- the ath to bth ranks may be extracted counting from the maximum value, sampling values lower than an arbitrary threshold value may be excluded, and the magnitude of signal fluctuation may be excluded. Sampling values in a small range may be extracted.
- the output D r of the optical detector 120 as it is can be detected intensity b r.
- Conversion from the detection signal D r to the detected intensity b r is to the processing unit 130 may execute, may be performed outside the processor 130.
- I r is a distribution of the pixel values of r th second image data IMG2, b r is the value of r th detected intensity.
- the arithmetic processing unit 130 can be implemented by combining a processor (hardware) such as a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or a microcomputer, and a software program executed by the processor (hardware).
- the arithmetic processing unit 130 may be a combination of a plurality of processors. Alternatively, the arithmetic processing unit 130 may be configured only by hardware.
- the controller 116 may be mounted inside the arithmetic processing unit 130.
- the above is the overall basic configuration of the imaging device 100. Subsequently, the first image data IMG1 and the second image data IMG2 will be described.
- k be the normalized gradation value of any pixel P m (i, j) of the second image data IMG2.
- the normalized gradation value k can take 4 values of 0,1 / 3,2 / 3,1.
- the normalized gradation value k can take 6 values of 0,1 / 5,2 / 5,3 / 5,4 / 5,5 / 5.
- the normalized gradation value k is 0,1 / (m-1), 2 / (m-1), ... , (M-2) / (m-1), 1 can be taken.
- One pixel P m (i, j) of the second image data IMG2 is associated with a pixel group PG (i, j) including a plurality of L pixels of the first image data IMG1.
- any pixel P m of the second image data IMG2 In i and j
- pixels P B of a plurality of L of the first image data IMG 1 overlap.
- the set of L pixels P B that overlap with the pixels P m (i, j) is the pixel group PG (i, j).
- (L ⁇ k) is a non-integer
- l is (i) an integer closest to L ⁇ k, (ii) an integer with the decimal point of L ⁇ k truncated, or (iii) a decimal point of L ⁇ k. It may be either an integer rounded up to the following, or an integer rounded to the first decimal place of (iv) L ⁇ k.
- FIG. 4 is a diagram showing specific examples of the first image data IMG1 and the second image data IMG2.
- B is included.
- the actual number of pixels x and y are on the order of tens to hundreds, respectively.
- the value of is 1.
- the gradation value k of the pixels P m (3, 2) of the second image data IMG 2 is 1/3
- the pixel group PG (3, 2) of the corresponding first image data IMG 1 is of L pixels.
- the gradation value k of the pixel P m (2, 1) of the second image data IMG 2 is 0, and the pixel group PG (2, 1) of the corresponding first image data IMG 1 has a value of 1.
- the number l is 0, and all L are 0.
- the pixel group PG is effective.
- values are mean of the values of a plurality of pixels contained therein, thus depending on the value of the pixel P m of the corresponding second image data IMG2 are multi-gradation control.
- the controller 116 may arrange the values 1, 0 in the pixel group PG according to a predetermined arrangement rule.
- 5 (a) and 5 (b) are diagrams showing an example of placement rules.
- the first arrangement rule shown in FIG. 5A is set so that 1 is preferentially filled from the center pixel of the pixel group.
- the light beam S0 generated by the light source 112 has a large spread angle, the luminous flux reflected by each pixel group PG spreads, and there is a possibility that adjacent pixel groups may interfere with each other. In this case, by concentrating the pixels having a value of 1 in the center, the interference of adjacent pixel groups can be reduced.
- the second placement rule of FIG. 5B is defined so that 1s are uniformly placed in the pixel group PG.
- 1s and 0s may be randomly arranged without defining an arrangement rule.
- the above is the configuration of the imaging device 100. Subsequently, the operation of the imaging device 100 will be described. The advantages of the imaging apparatus 100 are clarified by comparison with comparative techniques. Therefore, sensing in the comparative technique will be described.
- the patterning device is controlled based on the image data of m gradation with the number of pixels of xxy. Correlation calculation is also controlled based on the same image data of m gradation with the number of pixels of xxy.
- FIG. 6 is a time chart showing the sensing of one frame of the imaging apparatus according to the comparative technique. Pattern irradiation is performed M times in order to generate one restored image G (x, y).
- multi-gradation image data is used for the correlation calculation, and the effective number of pixels of the patterning device is equal to the number of pixels of the image data.
- the patterning device operates in a multi-gradation mode (multi-bit mode).
- Each pixel (micromirror) of the DMD can take two states, an on state and an off state, as shown in FIG. Therefore, the multi-gradation DMD realizes multi-gradation by switching the on state and the off state at high speed and changing the time ratio (duty ratio) between the on state and the off state. For this reason, the DMD in the multi-gradation mode has a longer frame period than the DMD in the 1-bit mode.
- the irradiation time of the reference light S1 based on one image data becomes long.
- the detection intensity b 1 is obtained
- the process proceeds to the irradiation of the second reference beam S1.
- M times of irradiation is completed, the detection intensity b 1 ⁇ b M can be obtained, is carried out correlation calculation, restored image G (x, y) is obtained.
- the time required to generate one restored image G (x, y) becomes longer as the irradiation time of the reference light S1 becomes longer.
- FIG. 7 is a time chart showing the sensing of one frame of the imaging device 100 of FIG.
- the second image data IMG2 with multiple gradations and a low number of pixels is used for the correlation calculation, while the first image data IMG1 with two gradations and a high number of pixels is used for the patterning device 114.
- the patterning device 114 since the patterning device 114 operates in the 1-bit mode, the duty ratio control as in the multi-gradation mode is unnecessary. Therefore, the irradiation time of one reference light S1 by the DMD is shorter than that of the comparative technique. As a result, the time required to generate one restored image G (x, y) can be shortened as compared with the comparison technique, and the frame rate can be increased.
- FIG. 8 is a diagram showing an example of the second image data IMG2 and the first image data IMG1.
- FIG. 9 is a diagram showing the simulation results.
- the upper part of FIG. 9 shows the results obtained for the comparative technique.
- the middle part of FIG. 9 shows the result when the method according to the first embodiment and the first arrangement rule is used.
- the lower part of FIG. 9 shows the result when the method according to the first embodiment and the second arrangement rule is used. According to this embodiment, it can be seen that the image quality equivalent to that of the comparative technique can be obtained.
- both high image quality and high frame rate can be achieved.
- the size and shape of the pixels constituting the second image data IMG2 are made uniform, but they may be made non-uniform. That is, the pixel size may be locally increased or decreased.
- 10 (a) to 10 (c) are diagrams showing the second image data IMG2 according to the modified example 1.1.
- the size of the pixel in the center of the second image data IMG2 may be reduced as shown in FIG. 10 (a), and a high resolution is required below the restored image.
- the size of the lower pixel of the second image data IMG2 may be reduced.
- the second image data IMG2 may include rectangular pixels.
- the second image data IMG2 is generated, it is converted into the first image data IMG1, but the order may be changed. That is, after generating a random first image data IMG1 having a first pixel number (X ⁇ Y) with one bit and two gradations, it may be converted into the second image data IMG2.
- the number of pixels of a certain pixel group PG (i, j) of the first image data IMG1 is L and the number of pixels having a value of 1 is l, the pixels of the corresponding second image data IMG1.
- the value (normalized value) of P m (i, j) may be l / L.
- FIG. 11 is a diagram showing the first image data IMG1 and the second image data IMG2 according to the modified example 1.2.
- a plurality of second image data IMG2s having different combinations of the number of pixels and the number of gradations can be generated from the first image data IMG1 having the number of pixels (X ⁇ Y) and two gradations.
- the resolution of the restored image G (x, y) can also be flexibly changed after obtaining the detected intensity b 1 ⁇ b M.
- FIG. 12 is a diagram showing an imaging device 100 according to the second embodiment.
- the imaging device 100 includes a lighting device 110, a two-dimensional image sensor 120, and an arithmetic processing unit 130.
- the imaging device 100 is configured so that three modes (first mode to third mode) can be switched.
- the lighting device 110 irradiates the object with infrared reference light S1 whose intensity distribution can be controlled.
- the illuminator 110 includes a light source 112, a patterning device 114, and a pattern generator 116.
- the light source 112 produces a light beam S0 having a uniform intensity distribution.
- a laser, a light emitting diode, or the like may be used.
- the wavelength and spectrum of the reference light S1 are not particularly limited, but are infrared in the present embodiment.
- the patterning device 114 has a plurality of pixels arranged in a matrix, and is configured so that the light intensity distribution I can be spatially modulated based on a combination of on and off of the plurality of pixels.
- the pixel in the on state is referred to as an on pixel
- the pixel in the off state is referred to as an off pixel.
- each pixel is assumed to have only two values (1,0) of on and off, but it is not limited to this, and an intermediate gradation may be taken.
- the patterning device 114 As the patterning device 114, a reflective DMD (Digital Micromirror Device) or a transmissive liquid crystal device can be used.
- the patterning device 114 is provided with patterning data PTN (image data) generated by the pattern generator 116.
- the pattern generator 116 generates a pattern data PTN r specifying the intensity distribution I r of the reference beam S1.
- the operation of the pattern generator 116 and the patterning data PTN r differ depending on the mode.
- the pattern generator 116 may be mounted inside the arithmetic processing unit 130.
- the two-dimensional image sensor 120 has sensitivity in the infrared region and the visible light region.
- the two-dimensional image sensor 120 is a CMOS (Complementary Metal Oxide Semiconductor) sensor or a CCD (Charge Coupled Device).
- CMOS Complementary Metal Oxide Semiconductor
- CCD Charge Coupled Device
- the arithmetic processing unit 130 processes the image IMG0 captured by the two-dimensional image sensor 120.
- the arithmetic processing unit 130 can be implemented by combining a processor (hardware) such as a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or a microcomputer, and a software program executed by the processor (hardware).
- the arithmetic processing unit 130 may be a combination of a plurality of processors. Alternatively, the arithmetic processing unit 130 may be configured only by hardware.
- the imaging device 100 operates as a quantum radar.
- the illuminating device 110 operates as a pseudo-heat light source, generates reference light S1 having an intensity distribution I (x, y) that can be regarded as substantially random, and irradiates the object OBJ.
- the pattern generator 116 generates a sequence of M substantially random patterning data PTNs 1 to PTN M. Therefore, the irradiation of the reference light S1 to the object OBJ is performed while changing its intensity distribution according to the sequence of a plurality of M patterning data PTNs 1 to PTN M.
- the two-dimensional image sensor 120 captures a plurality of images IMG 0 1 to IMG M corresponding to M times of irradiation of the reference light S1 based on the plurality of patterning data PTN 1 to PTN M.
- the first mode only infrared light is incident on the two-dimensional image sensor 120, and visible light is removed by the filter.
- the imaging device 100 includes a visible light filter and an infrared filter provided on the incident light path of the two-dimensional image sensor 120, and the visible light filter and the infrared filter may be mechanically replaced depending on the mode.
- the imaging device 100 includes an optical path that passes through the visible light filter and is incident on the two-dimensional image sensor 120, and an optical path that is transmitted through the infrared filter and is incident on the two-dimensional image sensor 120, and provides an optical path depending on the mode. It may be configured to be selectable. Alternatively, a tunable wavelength filter may be used to control the transmission wavelength according to the mode.
- the arithmetic processing unit 130 calculates the light detection intensities b 1 to b M corresponding to the integrated values of the plurality of pixels for each of the plurality of images IMG 0 1 to IMG 0 M. Most typically, the processing unit 130 can the value of all pixels of each image IMG0 r integrated (or average) to calculate the light detection intensity b r.
- the processing unit 130 performs correlation calculation between the plurality of light detection intensity b 1 ⁇ b M and a plurality of patterning data PTN 1 ⁇ PTN M corresponding to the plurality of image IMG0 1 ⁇ IMG0 M, the restored image G (x , Y) is generated.
- I r is the r th intensity distribution
- b r is the value of r th detected intensity
- the arithmetic processing unit 130 outputs the first output image IMG1 based on the restored image G (x, y).
- the second mode arithmetic processing unit 130 is configured to output the second output image IMG2 based on the image IMG0 captured by the two-dimensional image sensor 120. More specifically, the illumination device 110 irradiates the reference light S1 of infrared light having a uniform intensity distribution.
- the two-dimensional image sensor 120 operates as an active sensor that detects the reflected light S2 of the reference light S1 from the object OBJ. Even in the second mode, only infrared light is incident on the two-dimensional image sensor 120, and visible light is removed by the filter. In the second mode, the imaging device 100 operates as a night-vision camera.
- the third mode arithmetic processing unit 130 is configured to output the third output image IMG3 based on the image IMG0 captured by the two-dimensional image sensor 120.
- the operation of the lighting device 110 is different between the third mode and the second mode, and the lighting device 110 stops emitting light in the third mode. Further, in the third mode, only visible light is incident on the two-dimensional image sensor 120, and infrared light is removed by the filter. That is, in the third mode, the imaging device 100 operates as a passive sensor of visible light, in other words, a general camera.
- the arithmetic processing unit 130 is configured to be able to determine whether the field of view is good or bad.
- the method for determining the quality of the field of view is not particularly limited, but the arithmetic processing unit 130 may determine the quality of the field of view based on external information.
- fog generation information may be acquired from a sensor installed in a traffic infrastructure such as a traffic light, or quasi-dynamic information (narrow area weather information) of a dynamic map may be acquired.
- the arithmetic processing unit 130 may determine the quality of the field of view by performing image processing on the image IMG0 of the two-dimensional image sensor 120.
- the visibility may be determined based on (i) classification based on machine learning, (ii) the recognizable distance of the white line, and (iii) the relationship between the distance information of the preceding vehicle and the brightness.
- the determination may be made based on the uniformity and size of the water droplet.
- the same scene may be shot by switching between the first mode and the second mode, and the quality of the field of view may be determined based on the difference between the images IMG1 and IMG2 obtained in each mode.
- the arithmetic processing unit 130 may determine whether the visibility is good or bad based on the instruction input from the driver.
- the imaging device 100 may include a sensor that can provide a material for determining the quality of the field of view, and the arithmetic processing unit 130 may determine the quality of the field of view based on the output of this sensor.
- a sensor that irradiates pulsed light and detects the intensity of reflected light may be used, or a transmissometer may be used.
- the arithmetic processing unit 130 is configured to be able to determine the brightness of the surroundings in addition to the quality of the field of view.
- the arithmetic processing unit 130 is connected to an illuminance sensor (not shown), and the brightness may be determined based on the output of the illuminance sensor.
- the ambient brightness may be estimated based on the time zone and GPS information.
- FIG. 13 is a flowchart of the operation of the imaging device 100 of FIG.
- the quality of visibility is judged (S100). Then, when the field of view is poor (N in S100), the first mode is selected (S102), and the imaging device 100 operates as a quantum radar.
- the ambient brightness is determined (S104). Then, when the surroundings are dark (N in S104), the second mode is selected (S106), and the imaging device 100 operates as a night-vision camera. When the surroundings are bright (Y in S104), the third mode (S108) is selected, and the imaging device 100 operates as a normal visible light camera.
- FIG. 14 is a diagram showing the states and processes of the lighting device 110, the two-dimensional image sensor 120, and the arithmetic processing unit 130 in the first mode, the second mode, and the third mode.
- the illuminator 110 irradiates reference light with a random intensity distribution.
- the detection wavelength of the two-dimensional image sensor 120 is the same infrared as the reference light, and all the pixels are combined to virtually operate as a single pixel photodetector.
- the arithmetic processing unit 130 restores the image by correlation calculation.
- the illuminating device 110 irradiates the reference light with a uniform intensity distribution.
- the detection wavelength of the two-dimensional image sensor 120 is the same infrared as the reference light.
- the two-dimensional image sensor 120 captures infrared reflected light from an object.
- the lighting device 110 is turned off.
- the detection wavelength of the two-dimensional image sensor 120 is in the visible light region, and an object captures light reflected from ambient light (mainly sunlight).
- the above is the operation of the imaging device 100.
- the imaging device 100 can detect an object that is difficult to detect with a normal camera by selecting the first mode and operating it as a quantum radar when the field of view is poor. Further, in a state where the field of view is good, an image can be generated at a high frame rate by selecting the second mode or the third mode. That is, the imaging device 100 can have the advantages of a quantum radar and a two-dimensional image sensor.
- the two-dimensional image sensor 120 and the optical system can be shared in the first mode to the third mode, the cost of hardware can be reduced, and an image having the same angle of view can be obtained in the three modes. it can. It also has the advantage that there is no parallax between the three modes.
- the imaging device 100 can support a hybrid mode, which is a combination of the first mode and the second mode.
- FIG. 15A shows an example of a driving scene to which the hybrid mode is applied.
- a thick fog is generated in the center and the visibility is partially deteriorated, and the visibility of other parts is good.
- the imaging device 100 operates in the first mode for a range of poor visibility and in a second mode for a range of good visibility.
- the lighting device 110 randomly changes the intensity distribution of the first portion X of the reference light S1, fixes the intensity distribution of the second portion Y of the reference light S1, and uniformly irradiates the light.
- FIG. 15 (b) the diagrams showing an image IMG0 r two-dimensional image sensor 120 captures.
- the reference light S1 having a random intensity distribution is reflected the light object OBJ3 is reflected.
- the process moves the light reflected by the uniform reference beam S0. That is, the region Ry is a normal night-vision camera.
- FIG. 15 (c) shows the image IMG4 finally obtained in the hybrid mode.
- the image IMG4 includes the first output image G (x, y) in the central portion and the second output image IMG2 in the periphery.
- the first output image G (x, y) shows the shape of the object OBJ3 existing on the other side of the fog.
- the hybrid mode in a situation where the visibility of a part in front is poor, only the region with poor visibility can be operated as a quantum radar, and the portion with good visibility can be operated as a night-vision camera.
- the hybrid mode can also operate in a combination of the first mode and the third mode.
- the intensity of the reference light S1 is zero for the second portion Y.
- the lighting device 110 is composed of a combination of the light source 112 and the patterning device 114, but this is not the case.
- the lighting device 110 is composed of an array of a plurality of semiconductor light sources (LED (light emitting diode) and LD (laser diode)) arranged in a matrix, and can control on / off (or brightness) of each semiconductor light source. It may be configured as.
- the imaging apparatus 100 may support only the first mode and the second mode, or only the first mode and the third mode.
- the imaging device 100 When the imaging device 100 operates in the first mode (or hybrid mode), when the pixel value of a part of the image IMG0 captured by the two-dimensional image sensor 120 is saturated, the saturated pixels are excluded and the correlation calculation is performed. It may be. In ghost imaging using a conventional single-pixel photodetector, when the output of the photodetector is saturated, the image cannot be restored. On the other hand, in the quantum radar using the two-dimensional image sensor 120, it is possible to restore the image for other parts by excluding the saturated pixels.
- the two-dimensional image sensor 120 captures a visible light image in the third mode, but the two-dimensional image sensor 120 may capture an infrared image. That is, the imaging device 100 may be operated as an infrared passive sensor.
- Switching between the plurality of modes may be manually operated by the driver.
- a plurality of modes may be automatically switched periodically regardless of the ambient brightness, the presence or absence of fog, and the like.
- FIG. 16 is a block diagram of the object identification system 10.
- This object identification system 10 is mounted on a vehicle such as an automobile or a motorcycle, and determines the type (category) of the object OBJ existing around the vehicle.
- the object identification system 10 includes an imaging device 100 and an arithmetic processing unit 40. As described above, the imaging device 100 irradiates the object OBJ with the reference light S1 and measures the reflected light S2 to generate a restored image G of the object OBJ.
- the arithmetic processing unit 40 processes the output image G of the imaging device 100 and determines the position and type (category) of the object OBJ.
- the classifier 42 of the arithmetic processing unit 40 receives the image G as an input and determines the position and type of the object OBJ included in the image G.
- the classifier 42 is implemented based on the model generated by machine learning.
- the algorithm of the classifier 42 is not particularly limited, but YOLO (You Only Look Once), SSD (Single Shot MultiBox Detector), R-CNN (Region-based Convolutional Neural Network), SPPnet (Spatial Pyramid Pooling), Faster R-CNN. , DSSD (Deconvolution-SSD), Mask R-CNN, etc. can be adopted, or algorithms developed in the future can be adopted.
- the noise immunity is significantly improved. For example, when it is raining, snowing, or traveling in fog, it is difficult to recognize the object OBJ with the naked eye, but by using the imaging device 100, the object OBJ is not affected by rain, snow, or fog.
- the restored image G can be obtained.
- FIG. 17 is a diagram showing an automobile equipped with the object identification system 10.
- the automobile 300 includes headlights 302L and 302R.
- the imaging device 100 is built in at least one of the headlights 302L and 302R.
- the headlight 302 is located at the tip of the vehicle body, and is the most advantageous as an installation location of the imaging device 100 in detecting surrounding objects.
- FIG. 18 is a block diagram showing a vehicle lamp 200 including an object detection system 210.
- the vehicle lamp 200 constitutes the lamp system 310 together with the vehicle side ECU 304.
- the vehicle lamp 200 includes a light source 202, a lighting circuit 204, and an optical system 206. Further, the vehicle lamp 200 is provided with an object detection system 210.
- the object detection system 210 corresponds to the above-mentioned object identification system 10, and includes an imaging device 100 and an arithmetic processing unit 40.
- the information about the object OBJ detected by the arithmetic processing unit 40 may be used for the light distribution control of the vehicle lamp 200.
- the lamp side ECU 208 generates an appropriate light distribution pattern based on the information regarding the type of the object OBJ generated by the arithmetic processing unit 40 and its position.
- the lighting circuit 204 and the optical system 206 operate so as to obtain the light distribution pattern generated by the lamp side ECU 208.
- the information about the object OBJ detected by the arithmetic processing unit 40 may be transmitted to the vehicle side ECU 304.
- the vehicle-side ECU may perform automatic driving based on this information.
- the application of the imaging device 100 is not limited to in-vehicle use, and can be applied to other applications.
- the present invention relates to an imaging device.
- OBJ Object 10 Object Identification System 40 Arithmetic Processing Device 42 Classifier 100 Imaging Device 110 Lighting Device 112 Light Source 114 Patterning Device 116 Controller 120 Light Detector 130 Arithmetic Processing Device 134 Reconstruction Processing Unit 200 Vehicle Lighting Equipment 202 Light Source 204 Lighting Circuit 206 Optical System 300 Automobile 302 Headlight 310 Lighting system 304 Vehicle side ECU IMG1 1st image data IMG2 2nd image data
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Mechanical Engineering (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
パターニングデバイス114は、第1画素数を有し、かつ二階調の第1画像データIMG1に応じて、光ビームの強度分布を変調する。演算処理装置130は、光検出器120の出力にもとづく検出強度bと、第1画素数より少ない第2画素数を有し、かつランダムなm階調(m≧2)の第2画像データIMG2との相関計算を行い、物体の復元画像G(x,y)を再構成する。第1画像データIMG1と第2画像データIMG2を同じサイズにスケーリングして重ねたときに、第2画像データIMG2の任意の画素と、それとオーバーラップする第1画像データIMG1の複数の画素を含むピクセル群が対応付けられる。任意の画素の正規化された階調値をk、ピクセル群に含まれる画素の個数をL、ピクセル群に含まれる値が1である画素の個数をlとするとき、l=L×kが成り立つ。
Description
本発明は、イメージング装置に関する。
自動運転やヘッドランプの配光の自動制御のために、車両の周囲に存在する物体の位置および種類をセンシングする物体識別システムが利用される。物体識別システムは、センサと、センサの出力を解析する演算処理装置を含む。センサは、カメラ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ミリ波レーダ、超音波ソナーなどの中から、用途、要求精度やコストを考慮して選択される。
イメージング装置(センサ)のひとつとして、ゴーストイメージングの原理を利用したもの(以下、量子レーダと称する)が知られている。ゴーストイメージングは、参照光の強度分布(パターン)をランダムに切り替えながら物体に照射し、パターンごとに反射光の光検出強度を測定する。光検出強度はある平面にわたるエネルギーあるいは強度の積分値であり、強度分布ではない。そして、対応するパターンと光検出強度との相関をとることにより、物体の復元画像を再構成(reconstruct)する。
量子レーダは、霧中などの視界不良な環境下において、通常の二次元イメージセンサ(カメラ)では撮影できない物体を撮影することができるが、1枚の画像を復元するために、参照光を複数回、照射する必要があり、一般的なカメラに比べてフレームレートが低くなる。したがって、視界が良好な環境下では、量子レーダよりも二次元イメージセンサの方が好ましい状況が生じうる。
1. 本発明のある態様は係る状況においてなされたものであり、その例示的な目的のひとつは、高画質と高フレームレートを両立したイメージング装置およびその照明装置の提供にある。
2. また本発明のある態様の目的のひとつは、量子レーダと二次元イメージセンサの利点を併せ持つイメージング装置の提供にある。
1. 本発明のある態様は相関計算を利用したイメージング装置に関する。イメージング装置は、均一な強度分布を有する光ビームを生成する光源と、二階調の第1画像データに応じて、光ビームの強度分布を変調するパターニングデバイスと、物体からの反射光を測定する光検出器と、光検出器の出力にもとづく検出強度と、m階調(m≧2)の第2画像データとの相関計算を行い、物体の復元画像を再構成する演算処理装置と、を備える。第1画像データの画素数は第2画像データの画素数より多い。第2画像データの1画素は、第1画像データの複数L個の画素を含むピクセル群に対応付けられる。第2画像データのある画素の正規化された階調値をk、それと対応するピクセル群に含まれる値が1である画素の個数をlとするとき、l=L×kが成り立つ。
本発明の別の態様は、相関計算を利用したイメージング装置に用いられる照明装置に関する。照明装置は、均一な強度分布を有する光ビームを生成する光源と、第1画素数の画素のアレイを含み、第1画素数を有し、かつ二階調の第1画像データに応じて光ビームの強度分布を変調するパターニングデバイスと、第1画素数より少ない第2画素数を有し、かつランダムなm階調(m≧2)の第2画像データを生成して相関計算に提供するとともに、第2画像データを第1画像データに変換し、パターニングデバイスに供給するコントローラと、を備える。
2. 本発明の別の態様は、イメージング装置に関する。イメージング装置は、強度分布を制御可能な赤外の参照光を物体に照射する照明装置と、赤外線領域に感度を有する二次元イメージセンサと、二次元イメージセンサが撮影した画像を処理する演算処理装置と、を備える。(i)第1モードにおいて、照明装置は、複数M個のパターニングデータのシーケンスにもとづいて参照光の強度分布を変化させる。それと並行して、二次元イメージセンサは複数(M枚)の画像を撮影する。演算処理装置は、複数の画像それぞれについて複数の画素の積算値に応じた光検出強度を計算する。そして演算処理装置は、複数の画像に対応する複数の光検出強度と複数のパターニングデータとの相関計算を行い、第1出力画像を出力する。(ii)第2モードにおいて、演算処理装置は、二次元イメージセンサが撮影した画像にもとづく第2出力画像を出力する。
本発明のある態様によれば、高画質と高フレームレートを両立できる。また別の態様によれば、量子レーダと二次元イメージセンサの利点を併せ持つイメージング装置を提供できる。
(実施形態の概要)
本開示のいくつかの例示的な実施形態の概要を説明する。この概要は、後述する詳細な説明の前置きとして、実施形態の基本的な理解を目的として、1つまたは複数の実施形態のいくつかの概念を簡略化して説明するものであり、発明あるいは開示の広さを限定するものではない。またこの概要は、考えられるすべての実施形態の包括的な概要ではなく、実施形態の欠くべからざる構成要素を限定するものではない。便宜上、「一実施形態」は、本明細書に開示するひとつの実施形態(実施例や変形例)または複数の実施形態(実施例や変形例)を指すものとして用いる場合がある。
本開示のいくつかの例示的な実施形態の概要を説明する。この概要は、後述する詳細な説明の前置きとして、実施形態の基本的な理解を目的として、1つまたは複数の実施形態のいくつかの概念を簡略化して説明するものであり、発明あるいは開示の広さを限定するものではない。またこの概要は、考えられるすべての実施形態の包括的な概要ではなく、実施形態の欠くべからざる構成要素を限定するものではない。便宜上、「一実施形態」は、本明細書に開示するひとつの実施形態(実施例や変形例)または複数の実施形態(実施例や変形例)を指すものとして用いる場合がある。
1. 一実施形態は、相関計算を利用したイメージング装置に関する。イメージング装置は、均一な強度分布を有する光ビームを生成する光源と、二階調の第1画像データに応じて、光ビームの強度分布を変調するパターニングデバイスと、物体からの反射光を測定する光検出器と、光検出器の出力にもとづく検出強度と、m階調(m≧2)の第2画像データとの相関計算を行い、物体の復元画像を再構成する演算処理装置と、を備える。第1画像データの画素数は第2画像データの画素数より多い。第2画像データの1画素は、第1画像データの複数L個の画素を含むピクセル群に対応付けられる。第2画像データのある画素の正規化された階調値をk、それと対応するピクセル群に含まれる値が1である画素の個数をlとするとき、l=L×kが成り立つ。
一般的に、パターニングデバイスを多階調で動作させる場合、フレームレートが低下する。この実施形態によれば、相関計算に用いる第2画像データよりも、画素数が多いパターニングデバイスを用い、パターニングデバイスを1ビット動作させることで、高フレームレートを実現できる。パターニングデバイスが生成する参照光の強度分布は、第2画像データの画素数(解像度)でみたときには多階調表現されているため、高画質も実現できる。
イメージング装置は、第2画像データを生成するコントローラをさらに備えてもよい。コントローラは、第2画像データを変換して、第1画像データを生成してもよい。
コントローラは、所定の配置規則にしたがって、ピクセル群に値1,0を割り当ててもよい。
配置規則は、ピクセル群の中央の画素から優先的に値1が埋まるように定められてもよい。この場合、パターニングデバイスの隣接するピクセル群同士の干渉を低減できる。
配置規則は、ピクセル群において、値1が均一に配置されるように定められてもよい。
ピクセル群において、値1と0はランダムに配置されてもよい。
第2画像データを構成する画素のサイズは、位置に応じて異なってもよい。これにより、局所的に分解能を制御することができる。
パターニングデバイスはDMD(Digital Micromirror Device)であってもよい。
照明装置は、相関計算を利用したイメージング装置に利用できる。イメージング装置は、照明装置に加えて、物体からの反射光を測定する光検出器と、光検出器の出力にもとづく検出強度と第2画像データの相関計算を行い、物体の復元画像を再構成する演算処理装置と、を備える。
2. 一実施の形態に係るイメージング装置は、強度分布を制御可能な赤外の参照光を物体に照射する照明装置と、赤外線領域に感度を有する二次元イメージセンサと、二次元イメージセンサが撮影した画像を処理する演算処理装置と、を備える。イメージング装置は、第1モードと第2モードが切り替え可能である。
(i)第1モード
照明装置は、複数のパターニングデータのシーケンスにもとづいて参照光の強度分布を変化させる。この間に、二次元イメージセンサは複数の画像を撮影する。演算処理装置は、複数の画像それぞれについて複数の画素の積算値に応じた光検出強度を計算し、複数の画像に対応する複数の光検出強度と複数のパターニングデータとの相関計算を行い、第1出力画像を出力する。
(ii)第2モード
演算処理装置は、二次元イメージセンサが撮影した画像にもとづく第2出力画像を出力するように構成される。
照明装置は、複数のパターニングデータのシーケンスにもとづいて参照光の強度分布を変化させる。この間に、二次元イメージセンサは複数の画像を撮影する。演算処理装置は、複数の画像それぞれについて複数の画素の積算値に応じた光検出強度を計算し、複数の画像に対応する複数の光検出強度と複数のパターニングデータとの相関計算を行い、第1出力画像を出力する。
(ii)第2モード
演算処理装置は、二次元イメージセンサが撮影した画像にもとづく第2出力画像を出力するように構成される。
このイメージング装置は、第1モードにおいて量子レーダとして動作し、第2モードにおいてカメラ(二次元イメージセンサ)として動作するため、量子レーダと二次元イメージセンサの利点を併せ持つことができる。
また、第1モードと第2モードとで、二次元イメージセンサおよび光学系を共有できるため、第1モードと第2モードとで、同じ画角の画像を得ることができ、2つのモード間の視差も存在しない。
第2モードにおいて、照明装置は均一な強度分布を有する参照光を照射してもよい。二次元イメージセンサは、物体からの参照光の反射光を検出するアクティブセンサとして動作してもよい。イメージング装置を、暗視カメラとして使用することができる。
演算処理部は、視界の良・不良を判定可能に構成され、視界不良と判定されたとき、第1モードが選択され、視界良好と判定されたとき、第2モードが選択されてもよい。
第3モードにおいてイメージング装置は、パッシブセンサとして動作してもよい。第3モードにおいて、照明装置は発光を停止してもよい。演算処理装置は、二次元イメージセンサが撮影した画像にもとづく第3出力画像を出力してもよい。
二次元イメージセンサは、赤外線領域に加えて可視光領域に感度を有してもよい。第3出力画像は可視光画像であってもよい。
演算処理部は、視界の良・不良および周囲の明るさを判定可能に構成され、(i)視界不良と判定されたとき、第1モードが選択され、(ii)視界良好であり、かつ周囲が暗いと判定されたとき、第2モードが選択され、(iii)視界良好であり、かつ周囲が明るいと判定されたとき、第3モードが選択されてもよい。
第3出力画像は赤外光画像であってもよい。
イメージング装置は、ハイブリッドモードをサポートしてもよい。
ハイブリッドモードにおいて、照明装置は、参照光の第1部分の強度分布を変化させ、参照光の第2部分の強度分布を均一とし、演算処理装置は、参照光の第1部分の照射範囲について、相関計算により第1出力画像を生成し、参照光の第2部分の照射範囲については、二次元イメージセンサが撮影した画像にもとづく第2出力画像を生成する。
これにより、局所的に視界が悪いような状況において、視界が悪い領域のみ、量子レーダとして動作させることができる。
ハイブリッドモードにおいて、照明装置は、参照光の第1部分の強度分布を変化させ、参照光の第2部分の強度分布を均一とし、演算処理装置は、参照光の第1部分の照射範囲について、相関計算により第1出力画像を生成し、参照光の第2部分の照射範囲については、二次元イメージセンサが撮影した画像にもとづく第2出力画像を生成する。
これにより、局所的に視界が悪いような状況において、視界が悪い領域のみ、量子レーダとして動作させることができる。
第2モードにおいてイメージング装置は、パッシブセンサとして動作してもよい。第2モードにおいて、照明装置は発光を停止してもよい。
以下、本発明を好適な実施形態をもとに図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、実施形態は、発明を限定するものではなく例示であって、実施形態に記述されるすべての特徴やその組み合わせは、必ずしも発明の本質的なものであるとは限らない。
本明細書における「強度分布がランダム」とは、完全なランダムであることを意味するものではなく、ゴーストイメージングにおいて画像を再構築できる程度に、ランダムであればよい。したがって本明細書における「ランダム」は、その中にある程度の規則性を内包することができる。また「ランダム」は、完全に予測不能であることを要求するものではなく、予想可能、再生可能であってもよい。
(実施形態1)
図1は、実施形態1に係るイメージング装置100を示す図である。イメージング装置100はゴーストイメージングの原理を用いた相関関数イメージセンサであり、照明装置110、光検出器120、演算処理装置130を備える。イメージング装置100を、量子レーダカメラとも称する。
図1は、実施形態1に係るイメージング装置100を示す図である。イメージング装置100はゴーストイメージングの原理を用いた相関関数イメージセンサであり、照明装置110、光検出器120、演算処理装置130を備える。イメージング装置100を、量子レーダカメラとも称する。
照明装置110は、疑似熱光源であり、実質的にランダムとみなしうる強度分布I(x,y)を有する参照光S1を生成し、物体OBJに照射する。物体OBJへの参照光S1の照射は、その強度分布を、複数のM通りのパターンに応じて変化させながら行われる。
照明装置110は、光源112、パターニングデバイス114、コントローラ116を含む。光源112は、均一な強度分布を有する光ビームS0を生成する。光源112は、レーザや発光ダイオードなどを用いてもよい。好ましくは光ビームS0は赤外光であるが、その波長やスペクトルは特に限定されず、複数のあるいは連続スペクトルを有する白色光であってもよいし、所定の波長を含む単色光であってもよい。
パターニングデバイス114は、第1画素数(X×Y)の画素のアレイを含む。パターニングデバイス114は、第1画素数(X×Y)を有し、かつ二階調の第1画像データIMG1を受け、第1画像データIMG1に応じて、画素のアレイを制御し、光ビームS0の強度分布を変調する。パターニングデバイス114としては、DMD(Digital Micromirror Device)や液晶デバイスを用いることができる。本実施形態においてパターニングデバイス114はDMDであるもとする。
図2(a)~(c)は、パターニングデバイス114であるDMDの画素を説明する図である。図2(a)に示すように、DMDは、Y行X列のマトリクス状に配置される複数のマイクロミラー(画素PIX)のアレイである。図2(b)に示すように、各画素PIXは、正方形のミラーであり、対角に設けられたヒンジを軸として、ON方向とOFF方向に傾動可能となっている。パターニングデバイス114は、全画素を独立してオン、オフ制御可能に構成される。以下の説明では、マトリクスの形状を図2(c)のように簡略化して示す。
図1に戻る。DMDを構成する各マイクロミラーの状態は、第1画像データIMG1の対応する画素と対応付けられる。すなわち、第1画像データIMG1のある画素PB(i,j)の値が1のとき、その画素PB(i,j)に対応するマイクロミラーはオン側に傾動し、ある画素PB(i,j)の値が0のとき、その画素に対応するマイクロミラーはオフ側に傾動する。かくして、光ビームS0が第1画像データIMG1に応じてパターニングされ、強度分布Ir(X,Y)を有する参照光S1が生成され、前方の物体に照射される。
コントローラ116は、パターニングデバイス114を制御するための第1画像データIMG1に加えて、相関計算に用いる第2画像データIMG2を生成する。第2画像データIMG2は第2画素数(x×y)を有しており、各画素はm階調(m≧3)である。第2画素数x×yは、第1画素数X×Yよりも少ない。Xはxの整数倍、Yはyの整数倍の関係を満たす。
X=ax
Y=by
(a,bは自然数であり、少なくとも一方は二以上)
X=ax
Y=by
(a,bは自然数であり、少なくとも一方は二以上)
本実施形態において、コントローラ116は、第2画像データIMG2を生成し、第2画像データIMG2にもとづいて第1画像データIMG1を生成する。第2画像データIMG2は、再構成処理部134に供給され、復元画像G(x,y)の生成のための相関計算に利用される。
光検出器120は、物体OBJからの反射光を測定し、検出信号Drを出力する。検出信号Drは、強度分布Irを有する参照光を物体OBJに照射したときに、光検出器120に入射する光エネルギー(あるいは強度)の空間的な積分値である。したがって光検出器120は、シングルピクセルのデバイス(フォトディテクタ)を用いることができる。光検出器120からは、複数M通りの強度分布I1~IMそれぞれに対応する複数の検出信号D1~DMが出力される。
演算処理装置130は、再構成処理部134を含む。再構成処理部134は、複数の第2画像データIMG2が規定する複数の強度分布I1~IMと、複数の検出強度b1~bMの相関計算を行い、物体OBJの復元画像G(x,y)を再構成する。最終的な復元画像G(x,y)の画素数は、第2画像データIMG2の画素数と一致しており、パターニングデバイス114の画素数より少ない。
検出強度b1~bMは、検出信号D1~DMにもとづいている。検出強度brと検出信号Drの関係は、光検出器120の種類や方式などを考慮して定めればよい。
ある強度分布Irの参照光S1を、ある照射期間にわたり照射するとする。また検出信号Drは、ある時刻(あるいは微小時間)の受光量、すなわち瞬時値を表すとする。この場合、照射期間において検出信号Drを複数回サンプリングし、検出強度brを、検出信号Drの全サンプリング値の積分値、平均値あるいは最大値としてもよい。あるいは、全サンプリング値のうちのいくつかを選別し、選別したサンプリング値の積分値や平均値、最大値を用いてもよい。複数のサンプリング値の選別は、たとえば最大値から数えて序列a番目からb番目を抽出してもよいし、任意のしきい値より低いサンプリング値を除外してもよいし、信号変動の大きさが小さい範囲のサンプリング値を抽出してもよい。
光検出器120として、カメラのように露光時間を設定可能なデバイスを用いる場合には、光検出器120の出力Drをそのまま、検出強度brとすることができる。
検出信号Drから検出強度brへの変換は、演算処理装置130が実行してもよいし、演算処理装置130の外部で行ってもよい。
演算処理装置130は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)、マイコンなどのプロセッサ(ハードウェア)と、プロセッサ(ハードウェア)が実行するソフトウェアプログラムの組み合わせで実装することができる。演算処理装置130は、複数のプロセッサの組み合わせであってもよい。あるいは演算処理装置130はハードウェアのみで構成してもよい。コントローラ116は、演算処理装置130の内部に実装してもよい。
以上がイメージング装置100の全体の基本構成である。続いて、第1画像データIMG1と第2画像データIMG2について説明する。
図3は、第2画像データIMG2と第1画像データIMG1の関係を説明する図である。第2画像データIMG2のi行j列目(i=1~x、j=1~y)の画素をPm(i,j)と表すものとする。同様に第1画像データIMG1のI行J列目(I=1~X、J=1~Y)の画素をPB(I,J)と表すものとする。
第2画像データIMG2の任意の画素Pm(i,j)について、その正規化された階調値をkとする。たとえば第2画像データIMG2が2ビット4階調である場合、正規化された階調値kは0,1/3,2/3,1の4値を取り得る。第2画像データIMG2が6階調である場合、正規化された階調値kは0,1/5,2/5,3/5,4/5,5/5の6値を取り得る。一般化すると、第2画像データIMG2がm階調(m≧3)である場合、正規化された階調値kは0,1/(m-1),2/(m-1),…,(m-2)/(m-1),1のm値を取り得る。
第2画像データIMG2の1画素Pm(i,j)は、第1画像データIMG1の複数L個の画素を含むピクセル群PG(i,j)に対応付けられる。具体的には図3に示すように、第1画像データIMG1と第2画像データIMG2を同じサイズにスケーリングした状態で、それらを重ねたときに、第2画像データIMG2の任意の画素Pm(i,j)には、第1画像データIMG1のうち複数Lの画素PBがオーバーラップする。この画素Pm(i,j)とオーバーラップするL個の画素PBの集合が、ピクセル群PG(i,j)である。
第2画像データIMG2のある画素Pm(i,j)の正規化された階調値をkとする。またその画素Pm(i,j)に対応するピクセル群PG(i,j)に含まれるL個の画素のうち、値が1である画素の個数をlとする。このとき、l=L×kが成り立つ。なお、(L×k)が非整数の場合、lは、(i)L×kと最近接する整数、(ii)L×kの小数点以下を切り捨てた整数、あるいは(iii)L×kの小数点以下を切り上げた整数、あるいは(iv)L×kの小数点第1位を四捨五入した整数のいずれかとすればよい。
図4は、第1画像データIMG1と第2画像データIMG2の具体例を示す図である。この例では、x=5,y=4,X=15,Y=12であって、a=b=3であり、1つのピクセル群PGには、L(=a×b)個の画素PBが含まれる。なお、実際の画素数x、yはそれぞれ、数十~数百のオーダーである。
図4において、第2画像データIMG2の階調数は4であり、正規化された階調値kは0,1/3,2/3,1のいずれかをとるとする。
第2画像データIMG2の画素Pm(1,1)の階調値はk=1であり、対応する第1画像データIMG1のピクセル群PG(1,1)は、L個のうちL個すべての値が1である。
たとえば第2画像データIMG2の画素Pm(3,2)の階調値kは1/3であり、対応する第1画像データIMG1のピクセル群PG(3,2)は、L個の画素のうちl=3個が1であり、6個が0である。
また第2画像データIMG2の画素Pm(2,1)の階調値kは0であり、対応する第1画像データIMG1のピクセル群PG(2,1)のうち、値が1の画素の数lは0であり、L個すべてが0となる。
第1画像データIMG1を、第2画像データIMG2の画素数の画像としてみたときには、言い換えると第1画像データIMG1を、ピクセル群PGを1画素とする画像としてみたときには、ピクセル群PGの実効的な値は、それに含まれる複数の画素の値の平均であり、したがって対応する第2画像データIMG2の画素Pmの値に応じて多階調制御されている。
このような第1画像データIMG1にもとづいてパターニングされた参照光S1を物体に照射し、反射光から得られる検出強度bと、第2画像データIMG2との相関計算を行うことで、高画質を得ることができる。
ピクセル群PG内の値1と0の配置を説明する。コントローラ116は、所定の配置規則にしたがって、ピクセル群PG内の値1,0を配置してもよい。図5(a)、(b)は、配置規則の例を示す図である。これらの例ではピクセル群PGは5×5=25画素を含む。図5(a)に示す第1配置規則は、ピクセル群の中央の画素から優先的に1が埋まるように定められる。光源112が生成する光ビームS0が大きな広がり角を有する場合、各ピクセル群PGで反射された光束が広がり、隣接するピクセル群同士で干渉するおそれがある。この場合に、中央に値1の画素を集中させることで、隣接するピクセル群の干渉を低減できる。
図5(b)の第2配置規則は、ピクセル群PG内において、1が均一に配置されるように定められる。
あるいは、配置規則を定めずに、1と0をランダムに配置してもよい。
以上がイメージング装置100の構成である。続いてイメージング装置100の動作を説明する。イメージング装置100の利点は、比較技術との対比によって明確となる。そこで比較技術におけるセンシングを説明する。
比較技術では、パターニングデバイスを、x×yの画素数の、m階調の画像データにもとづいて制御する。また相関計算も、x×yの画素数でm階調の同じ画像データにもとづいて制御する。
図6は、比較技術に係るイメージング装置の1フレームのセンシングを示すタイムチャートである。1枚の復元画像G(x,y)を生成するためにM回のパターン照射が行われる。比較技術では、相関計算に、多階調の画像データが使用され、パターニングデバイスの実効的な画素数は、画像データの画素数と等しい。パターニングデバイスは、多階調モード(マルチビットモード)で動作する。
DMDの各画素(マイクロミラー)は、図2に示すようにオン状態とオフ状態の2状態を取り得る。したがって、多階調のDMDは、オン状態とオフ状態を高速にスイッチングし、オン状態とオフ状態の時間比率(デューティ比)を変化させることにより多階調を実現する。かかる理由から、多階調モードのDMDは、1ビットモードのDMDよりもフレーム周期が長くなる。
したがって比較技術では、1つの画像データにもとづく参照光S1の照射時間が長くなる。1回目の参照光S1の照射が完了すると、検出強度b1が得られ、2回目の参照光S1の照射に移行する。M回の照射が完了し、検出強度b1~bMが得られると、相関計算が行われ、復元画像G(x,y)が得られる。1枚の復元画像G(x、y)の生成に要する時間は、参照光S1の照射時間が長いほど、長くなる。
続いて図1のイメージング装置100の動作を説明する。図7は、図1のイメージング装置100の1フレームのセンシングを示すタイムチャートである。本実施形態では、相関計算には、多階調・低画素数の第2画像データIMG2が使用される一方、パターニングデバイス114には、二階調・高画素数の第1画像データIMG1が使用される。
本実施形態では、パターニングデバイス114は1ビットモードで動作するため、多階調モードのようなデューティ比制御が不要である。したがって、DMDによる1回の参照光S1の照射時間が、比較技術に比べて短くなる。その結果、1枚の復元画像G(x、y)の生成に要する時間を、比較技術に比べて短縮でき、フレームレートを高めることができる。
また実施形態1によれば、参照光S1の強度分布は、ピクセル群PG単位で多階調制御されているため、比較技術と同等の画質を得ることができる。このことを確認するために行ったシミュレーションについて説明する。シミュレーションでは、x=y=32,X=Y=640とした。また第2画像データIMG2の階調数をm=6階調としている。図8は、第2画像データIMG2と第1画像データIMG1の一例を示す図である。
図9は、シミュレーション結果を示す図である。シミュレーションは、M=1000,5000,10000,50000の4通りについて行った。図9の上段には、比較技術について得られた結果が示される。図9の中段は、実施形態1に係る方法であって第1配置規則を用いた場合の結果が示される。図9の下段は、実施形態1に係る方法であって第2配置規則を用いた場合の結果が示される。本実施形態によれば、比較技術と同等の画質を得ることができることが分かる。
すなわち、実施形態1に係るイメージング装置100によれば、高画質と高フレームレートを両立することができる。
続いて実施形態1に関連する変形例について説明する。
(変形例1.1)
実施形態では、第2画像データIMG2を構成する画素の大きさおよび形状を均一としたが、不均一としてもよい。すなわち局所的に画素サイズを大きくしてもよいし、小さくしてもよい。図10(a)~(c)は、変形例1.1に係る第2画像データIMG2を示す図である。たとえば復元画像の中央において高い解像度が必要な場合、図10(a)に示すように、第2画像データIMG2の中央の画素の大きさを小さくすればよく、復元画像の下方において高い解像度が必要な場合、図10(b)に示すように、第2画像データIMG2の下方の画素の大きさを小さくすればよく。また図10(c)に示すように、第2画像データIMG2は、長方形の画素を含んでもよい。
実施形態では、第2画像データIMG2を構成する画素の大きさおよび形状を均一としたが、不均一としてもよい。すなわち局所的に画素サイズを大きくしてもよいし、小さくしてもよい。図10(a)~(c)は、変形例1.1に係る第2画像データIMG2を示す図である。たとえば復元画像の中央において高い解像度が必要な場合、図10(a)に示すように、第2画像データIMG2の中央の画素の大きさを小さくすればよく、復元画像の下方において高い解像度が必要な場合、図10(b)に示すように、第2画像データIMG2の下方の画素の大きさを小さくすればよく。また図10(c)に示すように、第2画像データIMG2は、長方形の画素を含んでもよい。
(変形例1.2)
実施形態では、第2画像データIMG2を生成した後に、それを第1画像データIMG1に変換したが、順序を入れ替えてもよい。すなわち、1ビット二階調で第1画素数(X×Y)のランダムな第1画像データIMG1を生成した後に、それを第2画像データIMG2に変換してもよい。この場合、第1画像データIMG1の、あるピクセル群PG(i,j)の画素数がLであり、値が1である画素の個数がlであるとき、対応する第2画像データIMG1の画素Pm(i,j)の値(正規化値)を、l/Lとすればよい。
実施形態では、第2画像データIMG2を生成した後に、それを第1画像データIMG1に変換したが、順序を入れ替えてもよい。すなわち、1ビット二階調で第1画素数(X×Y)のランダムな第1画像データIMG1を生成した後に、それを第2画像データIMG2に変換してもよい。この場合、第1画像データIMG1の、あるピクセル群PG(i,j)の画素数がLであり、値が1である画素の個数がlであるとき、対応する第2画像データIMG1の画素Pm(i,j)の値(正規化値)を、l/Lとすればよい。
図11は、変形例1.2に係る第1画像データIMG1と第2画像データIMG2を示す図である。図11に示すように、画素数(X×Y)、二階調の第1画像データIMG1から、画素数と階調数の組み合わせの異なる複数の第2画像データIMG2を生成することができる。言い換えれば、復元画像G(x,y)の解像度を、検出強度b1~bMの取得後においても柔軟に変更することができる。
(実施形態2)
図12は、実施形態2に係るイメージング装置100を示す図である。イメージング装置100は、照明装置110、二次元イメージセンサ120、演算処理装置130を備える。
図12は、実施形態2に係るイメージング装置100を示す図である。イメージング装置100は、照明装置110、二次元イメージセンサ120、演算処理装置130を備える。
イメージング装置100は、3つのモード(第1モード~第3モード)が切り替え可能に構成される。
照明装置110は、強度分布を制御可能な赤外の参照光S1を物体に照射する。たとえば照明装置110は、光源112、パターニングデバイス114およびパターン発生器116を含む。光源112は、均一な強度分布を有する光ビームS0を生成する。光源112は、レーザや発光ダイオードなどを用いてもよい。参照光S1の波長やスペクトルは特に限定されないが、本実施形態において赤外である。
パターニングデバイス114は、マトリクス状に配置される複数の画素を有し、複数の画素のオン、オフの組み合わせにもとづいて、光の強度分布Iを空間的に変調可能に構成される。本明細書においてオン状態の画素をオン画素、オフ状態の画素をオフ画素という。なお、以下の説明では理解の容易化のために、各画素は、オンとオフの2値(1,0)のみをとるものとするがその限りでなく、中間的な階調をとってもよい。
パターニングデバイス114としては、反射型のDMD(Digital Micromirror Device)や透過型の液晶デバイスを用いることができる。パターニングデバイス114には、パターン発生器116が発生するパターニングデータPTN(画像データ)が与えられている。
パターン発生器116は、参照光S1の強度分布Irを指定するパターニングデータPTNrを発生する。パターン発生器116の動作およびパターニングデータPTNrは、モードに応じて異なる。パターン発生器116は、演算処理装置130の内部に実装してもよい。
二次元イメージセンサ120は、赤外線領域および可視光領域に感度を有している。二次元イメージセンサ120は、CMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)である。
演算処理装置130は、二次元イメージセンサ120が撮影した画像IMG0を処理する。演算処理装置130は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)、マイコンなどのプロセッサ(ハードウェア)と、プロセッサ(ハードウェア)が実行するソフトウェアプログラムの組み合わせで実装することができる。演算処理装置130は、複数のプロセッサの組み合わせであってもよい。あるいは演算処理装置130はハードウェアのみで構成してもよい。
続いて、第1モードから第3モードについて説明する。
(第1モード)
第1モードにおいてイメージング装置100は、量子レーダとして動作する。照明装置110は、疑似熱光源として動作し、実質的にランダムとみなしうる強度分布I(x,y)を有する参照光S1を生成し、物体OBJに照射する。第1モードにおいてパターン発生器116は、実質的にランダムなM個のパターニングデータPTN1~PTNMのシーケンスを生成する。したがって物体OBJへの参照光S1の照射は、その強度分布を、複数のM個のパターニングデータPTN1~PTNMのシーケンスに応じて変化させながら行われる。
第1モードにおいてイメージング装置100は、量子レーダとして動作する。照明装置110は、疑似熱光源として動作し、実質的にランダムとみなしうる強度分布I(x,y)を有する参照光S1を生成し、物体OBJに照射する。第1モードにおいてパターン発生器116は、実質的にランダムなM個のパターニングデータPTN1~PTNMのシーケンスを生成する。したがって物体OBJへの参照光S1の照射は、その強度分布を、複数のM個のパターニングデータPTN1~PTNMのシーケンスに応じて変化させながら行われる。
二次元イメージセンサ120は、複数のパターニングデータPTN1~PTNMにもとづくM回の参照光S1の照射に対応して、複数の画像IMG01~IMGMを撮影する。第1モードにおいて二次元イメージセンサ120には赤外光のみが入射し、可視光はフィルタによって除去される。
たとえばイメージング装置100は、二次元イメージセンサ120の入射光路上に設けられた可視光フィルタと赤外線フィルタを備え、モードに応じて、可視光フィルタと赤外線フィルタを機械的に入れ替えるようにしてもよい。
あるいはイメージング装置100は、可視光フィルタを透過して二次元イメージセンサ120に入射する光路と、赤外線フィルタを透過して二次元イメージセンサ120に入射する光路と、を含み、モードに応じて光路を選択可能に構成されてもよい。あるいは、波長可変フィルタを用い、モードに応じて透過波長を制御してもよい。
演算処理装置130は、複数の画像IMG01~IMG0Mそれぞれについて、複数の画素の積算値に応じた光検出強度b1~bMを計算する。もっとも典型的には、演算処理装置130は、各画像IMG0rの全画素の値を積算(あるいは平均)し、光検出強度brを計算することができる。
そして演算処理装置130は、複数の画像IMG01~IMG0Mに対応する複数の光検出強度b1~bMと複数のパターニングデータPTN1~PTNMとの相関計算を行い、復元画像G(x,y)を生成する。
演算処理装置130は、復元画像G(x,y)にもとづく第1出力画像IMG1を出力する。
(ii)第2モード
演算処理装置130は、二次元イメージセンサ120が撮影した画像IMG0にもとづく第2出力画像IMG2を出力するように構成される。より具体的には照明装置110は均一な強度分布を有する赤外光の参照光S1を照射する。二次元イメージセンサ120は、物体OBJからの参照光S1の反射光S2を検出するアクティブセンサとして動作する。第2モードにおいても二次元イメージセンサ120には赤外光のみが入射し、可視光はフィルタによって除去される。第2モードにおいて、イメージング装置100は暗視カメラとして動作する。
演算処理装置130は、二次元イメージセンサ120が撮影した画像IMG0にもとづく第2出力画像IMG2を出力するように構成される。より具体的には照明装置110は均一な強度分布を有する赤外光の参照光S1を照射する。二次元イメージセンサ120は、物体OBJからの参照光S1の反射光S2を検出するアクティブセンサとして動作する。第2モードにおいても二次元イメージセンサ120には赤外光のみが入射し、可視光はフィルタによって除去される。第2モードにおいて、イメージング装置100は暗視カメラとして動作する。
(ii)第3モード
演算処理装置130は、二次元イメージセンサ120が撮影した画像IMG0にもとづく第3出力画像IMG3を出力するように構成される。第3モードと第2モードとでは、照明装置110の動作が異なっており、第3モードにおいて照明装置110は発光を停止する。また第3モードにおいて二次元イメージセンサ120には可視光のみが入射し、赤外光はフィルタによって除去される。すなわち、第3モードにおいてイメージング装置100は可視光のパッシブセンサ、言い換えれば一般的なカメラとして動作する。
演算処理装置130は、二次元イメージセンサ120が撮影した画像IMG0にもとづく第3出力画像IMG3を出力するように構成される。第3モードと第2モードとでは、照明装置110の動作が異なっており、第3モードにおいて照明装置110は発光を停止する。また第3モードにおいて二次元イメージセンサ120には可視光のみが入射し、赤外光はフィルタによって除去される。すなわち、第3モードにおいてイメージング装置100は可視光のパッシブセンサ、言い換えれば一般的なカメラとして動作する。
演算処理装置130は、視界の良・不良を判定可能に構成される。視界の良否の判定手法は特に限定されないが、演算処理装置130は、外部情報にもとづいて、視界の良否を判定してもよい。たとえば信号機等の交通インフラに設置したセンサから、霧発生情報を取得してもよいし、ダイナミックマップの準動的情報(狭域気象情報)を取得してもよい。
あるいは演算処理装置130は、二次元イメージセンサ120の画像IMG0を画像処理することにより、視界の良否を判定してもよい。一例として、(i)機械学習にもとづくクラス分類や(ii)白線の認知可能距離、(iii)先行車の距離情報と輝度の関係にもとづいて、視認性を判定してもよい。あるいは水滴の均一性と大きさにもとづいて判定してもよい。
あるいは、同じシーンで第1モードと第2モードを切り替えて撮影し、各モードで得られる画像IMG1,IMG2の差分にもとづいて視界の良否を判定してもよい。
あるいは、演算処理装置130は、運転者からの指示入力にもとづいて、視界の良否を判定してもよい。
あるいはイメージング装置100は、視界の良否の判断材料を提供しうるセンサを備え、演算処理装置130は、このセンサの出力にもとづいて視界の良否を判定してもよい。たとえば、パルス光を照射し、反射光強度を検出するセンサを用いてもよいし、視程計を用いてもよい。
演算処理装置130は、視界の良否に加えて、周囲の明るさを判定可能に構成される。たとえば演算処理装置130は図示しない照度センサと接続されており、照度センサの出力にもとづいて明るさを判定してもよい。あるいは時間帯やGPS情報に基づいて周囲の明るさを推定してもよい。
上述の第1モードから第3モードは、視界の良否および周囲の明るさにもとづいて選択される。図13は、図12のイメージング装置100の動作のフローチャートである。
視界の良否が判定される(S100)。そして視界が悪いときには(S100のN)、第1モードが選択され(S102)、イメージング装置100は量子レーダとして動作する。
視界が良好なときには(S100のY)、周囲の明るさが判定される(S104)。そして周囲が暗いときには(S104のN)、第2モードが選択され(S106)、イメージング装置100は暗視カメラとして動作する。周囲が明るいときには(S104のY)、第3モード(S108)が選択され、イメージング装置100は通常の可視光カメラとして動作する。
図14は、第1モード、第2モード、第3モードにおける照明装置110、二次元イメージセンサ120、演算処理装置130の状態および処理を示す図である。第1モードでは、照明装置110はランダムな強度分布の参照光を照射する。また二次元イメージセンサ120の検出波長は参照光と同じ赤外であり、全画素が合成され、仮想的にシングルピクセルの光検出器として動作する。演算処理装置130は、相関計算により画像を復元する。
第2モードでは、照明装置110は均一な強度分布の参照光を照射する。また二次元イメージセンサ120の検出波長は参照光と同じ赤外である。二次元イメージセンサ120は、物体からの赤外の反射光を撮影する。
第3モードでは、照明装置110はオフとなる。二次元イメージセンサ120の検出波長は可視光領域であり、物体が、環境光(主として太陽光)を反射した光を撮影する。
以上がイメージング装置100の動作である。このイメージング装置100は、視界が悪い状態では第1モードを選択して、量子レーダとして動作させることで、通常のカメラでは検出しにくい物体を検出することができる。また視界が良い状態では、第2モードあるいは第3モードを選択することで、高いフレームレートで画像を生成することができる。すなわちイメージング装置100は、量子レーダと二次元イメージセンサの利点を併せ持つことができる。
また、第1モード~第3モードで、二次元イメージセンサ120および図示しない光学系を共有できるため、ハードウェアのコストを下げることができ、さらに3つのモードで同じ画角の画像を得ることができる。また3つのモード間の視差も存在しないという利点がある。
続いて、ハイブリッドモードを説明する。イメージング装置100は、第1モードと第2モードの組み合わせであるハイブリッドモードをサポートできる。
図15(a)~(c)は、ハイブリッドモードを説明する図である。図15(a)は、ハイブリッドモードが適用される走行シーンの一例を示す。この例では、中央に濃い霧が発生しており部分的に視界が悪くなっており、その他の部分の視界は良好である。イメージング装置100は、視界が悪い範囲について、第1モードで動作し、視界が良好な範囲について第2モードで動作する。
ハイブリッドモードにおいて照明装置110は、参照光S1の第1部分Xの強度分布をランダムに変化させ、参照光S1の第2部分Yの強度分布を固定して均一照射する。
図15(b)には、二次元イメージセンサ120が撮影する画像IMG0rを示す図である。一枚の画像IMG0rにおいて、第1部分Xに対応する領域Rxには、ランダムな強度分布を有する参照光S1を、物体OBJ3が反射した光が写っている。
一方で、画像IMG0rの第2部分Yに対応する領域Ryに注目すると、イメージング装置100の前方に存在する物体OBJ1,OBJ2が、均一な参照光S0を反射した光が写る。つまり領域Ryは通常の暗視カメラである。
演算処理装置130は、画像IMG0rの参照光S1の第1部分Xの照射範囲Rxについて、複数の画像IMG01~IMGMについて、第1モードで説明した相関計算を行い、第1出力画像IMG1=G(x,y)を復元する。すなわち、各画像IMG0rについて、照射範囲Rxの画素値を積算し、光検出強度brを計算する。そして式(1)にもとづく相関計算により第1出力画像G(x,y)を復元する。
図15(c)には、ハイブリッドモードにおいて最終的にえられる画像IMG4が示される。この画像IMG4は、中央部分に、第1出力画像G(x,y)を含み、周囲に第2出力画像IMG2を含む。第1出力画像G(x,y)には、霧の向こう側に存在する物体OBJ3の形状が写っている。
このようにハイブリッドモードによれば、前方の一部分の視界が悪いような状況において、視界が悪い領域のみ、量子レーダとして動作させ、視界が良好な部分は、暗視カメラとして動作させることができる。
なおハイブリッドモードは、第1モードと第3モードの組み合わせでも動作しうる。この場合、第2部分Yについては、参照光S1の強度はゼロとなる。
続いて実施形態2に関連する変形例を説明する。
(変形例2.1)
実施形態2では、照明装置110を、光源112とパターニングデバイス114の組み合わせで構成したがその限りでない。たとえば照明装置110は、マトリクス状に配置される複数の半導体光源(LED(発光ダイオード)やLD(レーザダイオード))のアレイで構成し、個々の半導体光源のオン、オフ(あるいは輝度)を制御可能に構成してもよい。
実施形態2では、照明装置110を、光源112とパターニングデバイス114の組み合わせで構成したがその限りでない。たとえば照明装置110は、マトリクス状に配置される複数の半導体光源(LED(発光ダイオード)やLD(レーザダイオード))のアレイで構成し、個々の半導体光源のオン、オフ(あるいは輝度)を制御可能に構成してもよい。
(変形例2.2)
実施形態では、第1~第3モードをサポートしたが、イメージング装置100は、第1モードと第2モードのみ、あるいは第1モードと第3モードのみをサポートしてもよい。
実施形態では、第1~第3モードをサポートしたが、イメージング装置100は、第1モードと第2モードのみ、あるいは第1モードと第3モードのみをサポートしてもよい。
(変形例2.3)
イメージング装置100が第1モード(あるいはハイブリッドモード)で動作する際に、二次元イメージセンサ120が撮影した画像IMG0の一部分の画素値が飽和した場合、飽和した画素を除外して相関計算を行うようにしてもよい。従来のシングルピクセルの光検出器を用いたゴーストイメージングでは、光検出器の出力が飽和すると、画像を復元できなくなる。これに対して二次元イメージセンサ120を用いた量子レーダでは、飽和した画素を除外することにより、その他の部分については、画像を復元することが可能となる。
イメージング装置100が第1モード(あるいはハイブリッドモード)で動作する際に、二次元イメージセンサ120が撮影した画像IMG0の一部分の画素値が飽和した場合、飽和した画素を除外して相関計算を行うようにしてもよい。従来のシングルピクセルの光検出器を用いたゴーストイメージングでは、光検出器の出力が飽和すると、画像を復元できなくなる。これに対して二次元イメージセンサ120を用いた量子レーダでは、飽和した画素を除外することにより、その他の部分については、画像を復元することが可能となる。
(変形例2.4)
実施形態では、第3モードにおいて、二次元イメージセンサ120によって可視光画像を撮影したがその限りでなく、二次元イメージセンサ120は赤外線画像を撮影してもよい。すなわちイメージング装置100を、赤外線のパッシブセンサとして動作させてもよい。
実施形態では、第3モードにおいて、二次元イメージセンサ120によって可視光画像を撮影したがその限りでなく、二次元イメージセンサ120は赤外線画像を撮影してもよい。すなわちイメージング装置100を、赤外線のパッシブセンサとして動作させてもよい。
(変形例2.5)
複数のモードの切りかえは、運転者がマニュアルで操作するようにしてもよい。
複数のモードの切りかえは、運転者がマニュアルで操作するようにしてもよい。
(変形例6)
あるいは、周囲の明るさや霧の有無等にかかわらず、複数のモード(第1モード~第3モード)を周期的に自動で切り替えてもよい。
あるいは、周囲の明るさや霧の有無等にかかわらず、複数のモード(第1モード~第3モード)を周期的に自動で切り替えてもよい。
(用途)
続いてイメージング装置100の用途を説明する。図16は、物体識別システム10のブロック図である。この物体識別システム10は、自動車やバイクなどの車両に搭載され、車両の周囲に存在する物体OBJの種類(カテゴリ)を判定する。
続いてイメージング装置100の用途を説明する。図16は、物体識別システム10のブロック図である。この物体識別システム10は、自動車やバイクなどの車両に搭載され、車両の周囲に存在する物体OBJの種類(カテゴリ)を判定する。
物体識別システム10は、イメージング装置100と、演算処理装置40を備える。イメージング装置100は、上述のように、物体OBJに参照光S1を照射し、反射光S2を測定することにより、物体OBJの復元画像Gを生成する。
演算処理装置40は、イメージング装置100の出力画像Gを処理し、物体OBJの位置および種類(カテゴリ)を判定する。
演算処理装置40の分類器42は、画像Gを入力として受け、それに含まれる物体OBJの位置および種類を判定する。分類器42は、機械学習によって生成されたモデルにもとづいて実装される。分類器42のアルゴリズムは特に限定されないが、YOLO(You Only Look Once)、SSD(Single Shot MultiBox Detector)、R-CNN(Region-based Convolutional Neural Network)、SPPnet(Spatial Pyramid Pooling)、Faster R-CNN、DSSD(Deconvolution -SSD)、Mask R-CNNなどを採用することができ、あるいは、将来開発されるアルゴリズムを採用できる。
以上が物体識別システム10の構成である。物体識別システム10のセンサとして、イメージング装置100を用いることで、以下の利点を得ることができる。
イメージング装置100すなわち量子レーダカメラを用いることで、ノイズ耐性が格段に高まる。たとえば、降雨時、降雪時、あるいは霧の中を走行する場合、肉眼では物体OBJを認識しにくいが、イメージング装置100を用いることで、雨、雪、霧の影響を受けずに、物体OBJの復元画像Gを得ることができる。
図17は、物体識別システム10を備える自動車を示す図である。自動車300は、前照灯302L,302Rを備える。イメージング装置100は、前照灯302L,302Rの少なくとも一方に内蔵される。前照灯302は、車体の最も先端に位置しており、周囲の物体を検出する上で、イメージング装置100の設置箇所として最も有利である。
図18は、物体検出システム210を備える車両用灯具200を示すブロック図である。車両用灯具200は、車両側ECU304とともに灯具システム310を構成する。車両用灯具200は、光源202、点灯回路204、光学系206を備える。さらに車両用灯具200には、物体検出システム210が設けられる。物体検出システム210は、上述の物体識別システム10に対応しており、イメージング装置100および演算処理装置40を含む。
演算処理装置40が検出した物体OBJに関する情報は、車両用灯具200の配光制御に利用してもよい。具体的には、灯具側ECU208は、演算処理装置40が生成する物体OBJの種類とその位置に関する情報にもとづいて、適切な配光パターンを生成する。点灯回路204および光学系206は、灯具側ECU208が生成した配光パターンが得られるように動作する。
また演算処理装置40が検出した物体OBJに関する情報は、車両側ECU304に送信してもよい。車両側ECUは、この情報にもとづいて、自動運転を行ってもよい。
なおイメージング装置100の用途は車載に限定されず、その他の用途にも適用できる。
実施形態にもとづき、具体的な語句を用いて本発明を説明したが、実施形態は、本発明の原理、応用の一側面を示しているにすぎず、実施形態には、請求の範囲に規定された本発明の思想を逸脱しない範囲において、多くの変形例や配置の変更が認められる。
本発明は、イメージング装置に関する。
OBJ 物体
10 物体識別システム
40 演算処理装置
42 分類器
100 イメージング装置
110 照明装置
112 光源
114 パターニングデバイス
116 コントローラ
120 光検出器
130 演算処理装置
134 再構成処理部
200 車両用灯具
202 光源
204 点灯回路
206 光学系
300 自動車
302 前照灯
310 灯具システム
304 車両側ECU
IMG1 第1画像データ
IMG2 第2画像データ
10 物体識別システム
40 演算処理装置
42 分類器
100 イメージング装置
110 照明装置
112 光源
114 パターニングデバイス
116 コントローラ
120 光検出器
130 演算処理装置
134 再構成処理部
200 車両用灯具
202 光源
204 点灯回路
206 光学系
300 自動車
302 前照灯
310 灯具システム
304 車両側ECU
IMG1 第1画像データ
IMG2 第2画像データ
Claims (22)
- 相関計算を利用したイメージング装置であって、
均一な強度分布を有する光ビームを生成する光源と、
二階調の第1画像データに応じて、前記光ビームの強度分布を変調するパターニングデバイスと、
物体からの反射光を測定する光検出器と、
前記光検出器の出力にもとづく検出強度と、m階調(m≧2)の第2画像データとの相関計算を行い、前記物体の復元画像を再構成する演算処理装置と、
を備え、
前記第1画像データの画素数は前記第2画像データの画素数より多く、
前記第2画像データの1画素は、前記第1画像データの複数L個の画素を含むピクセル群に対応付けられ、
前記第2画像データのある画素の正規化された階調値をk、それと対応する前記ピクセル群に含まれる値が1である画素の個数をlとするとき、l=L×kが成り立つことを特徴とするイメージング装置。 - 前記第2画像データを生成するコントローラをさらに備え、
前記コントローラは、前記第2画像データを変換して、前記第1画像データを生成することを特徴とする請求項1に記載のイメージング装置。 - 前記コントローラは、所定の配置規則にしたがって、前記ピクセル群に値1,0を割り当てることを特徴とする請求項2に記載のイメージング装置。
- 前記配置規則は、前記ピクセル群の中央の画素から優先的に値1が埋まるように定められることを特徴とする請求項3に記載のイメージング装置。
- 前記配置規則は、前記ピクセル群において、値1が均一に配置されるように定められることを特徴とする請求項3に記載のイメージング装置。
- 前記ピクセル群において、値1と0はランダムに配置されることを特徴とする請求項2に記載のイメージング装置。
- 前記第2画像データを構成する画素のサイズは、位置に応じて異なることを特徴とする請求項1から6のいずれかに記載のイメージング装置。
- 前記パターニングデバイスはDMD(Digital Micromirror Device)であることを特徴とする請求項1から7のいずれかに記載のイメージング装置。
- 請求項1から8のいずれかに記載のイメージング装置を備えることを特徴とする車両用灯具。
- 請求項1から8のいずれかに記載のイメージング装置を備えることを特徴とする車両。
- 相関計算を利用したイメージング装置に用いられる照明装置であって、
均一な強度分布を有する光ビームを生成する光源と、
第1画素数の画素のアレイを含み、前記第1画素数を有し、かつ二階調の第1画像データに応じて前記光ビームの強度分布を変調するパターニングデバイスと、
前記第1画素数より少ない第2画素数を有し、ランダムなm階調(m≧2)の第2画像データを生成して相関計算に提供するとともに、前記第2画像データを前記第1画像データに変換し、前記パターニングデバイスに供給するコントローラと、
を備えることを特徴とする照明装置。
- 強度分布を制御可能な赤外の参照光を物体に照射可能に構成される照明装置と、
赤外線領域に感度を有する二次元イメージセンサと、
前記二次元イメージセンサが撮影した画像を処理する演算処理装置と、
を備え、
(i)第1モードにおいて、前記照明装置が、複数のパターニングデータのシーケンスにもとづいて前記参照光の強度分布を変化させる間に、前記二次元イメージセンサは複数の画像を撮影し、前記演算処理装置が、複数の画像それぞれについて複数の画素の積算値に応じた光検出強度を計算し、前記複数の画像に対応する複数の光検出強度と前記複数のパターニングデータとの相関計算を行い、第1出力画像を出力するように構成され、(ii)第2モードにおいて、前記演算処理装置は、前記二次元イメージセンサが撮影した画像にもとづく第2出力画像を出力するように構成されることを特徴とするイメージング装置。 - 前記第2モードにおいて、前記照明装置は均一な強度分布を有する前記参照光を照射し、アクティブセンサとして動作することを特徴とする請求項12に記載のイメージング装置。
- 視界の良・不良を判定する判定部をさらに備え、
視界不良と判定されたとき、前記第1モードが選択され、視界良好と判定されたとき、前記第2モードが選択されることを特徴とする請求項12または13に記載のイメージング装置。 - 第3モードにおいて、前記イメージング装置はパッシブセンサとして動作し、
前記第3モードにおいて、前記照明装置は発光を停止し、前記演算処理装置は、前記二次元イメージセンサが撮影した画像にもとづく第3出力画像を出力することを特徴とする請求項13に記載のイメージング装置。 - 前記二次元イメージセンサは、前記赤外線領域に加えて可視光領域に感度を有し、
前記第3出力画像は可視光画像であることを特徴とする請求項15に記載のイメージング装置。 - 視界の良・不良および周囲の明るさを判定する判定部をさらに備え、
(i)視界不良と判定されたとき、前記第1モードが選択され、(ii)視界良好であり、かつ周囲が暗いと判定されたとき、前記第2モードが選択され、(iii)視界良好であり、かつ周囲が明るいと判定されたとき、前記第3モードが選択されることを特徴とする請求項16に記載のイメージング装置。 - 前記第3出力画像は赤外光画像であることを特徴とする請求項15に記載のイメージング装置。
- ハイブリッドモードにおいて、前記照明装置は、前記参照光の第1部分の強度分布を変化させ、前記参照光の第2部分の強度分布を均一とし、
前記演算処理装置は、前記参照光の前記第1部分の照射範囲について、相関計算により
演算処理装置は、参照光の第1部分の照射範囲について、相関計算により前記第1出力画像を生成し、参照光の第2部分の照射範囲については、二次元イメージセンサが撮影した画像にもとづく前記第2出力画像を生成することを特徴とする請求項12から18のいずれかに記載のイメージング装置。 - 前記第2モードにおいて、前記イメージング装置はパッシブセンサとして動作し、前記照明装置は発光を停止することを特徴とする請求項1に記載のイメージング装置。
- 請求項12から20のいずれかに記載のイメージング装置を備えることを特徴とする車両用灯具。
- 請求項12から20のいずれかに記載のイメージング装置を備えることを特徴とする車両。
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202080050563.5A CN114128245B (zh) | 2019-07-12 | 2020-07-10 | 成像装置及其照明装置、车辆、车辆用灯具 |
| EP20841270.0A EP3998767B1 (en) | 2019-07-12 | 2020-07-10 | Imaging device, lighting device for same, vehicle, and lamp fitting for vehicle |
| JP2021533048A JP7472136B2 (ja) | 2019-07-12 | 2020-07-10 | イメージング装置およびその照明装置、車両、車両用灯具 |
| US17/570,501 US12047667B2 (en) | 2019-07-12 | 2022-01-07 | Imaging device |
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019-130478 | 2019-07-12 | ||
| JP2019130478 | 2019-07-12 | ||
| JP2019-131347 | 2019-07-16 | ||
| JP2019131347 | 2019-07-16 |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| US17/570,501 Continuation US12047667B2 (en) | 2019-07-12 | 2022-01-07 | Imaging device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2021010339A1 true WO2021010339A1 (ja) | 2021-01-21 |
Family
ID=74210943
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2020/027092 Ceased WO2021010339A1 (ja) | 2019-07-12 | 2020-07-10 | イメージング装置およびその照明装置、車両、車両用灯具 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US12047667B2 (ja) |
| EP (1) | EP3998767B1 (ja) |
| JP (1) | JP7472136B2 (ja) |
| CN (1) | CN114128245B (ja) |
| WO (1) | WO2021010339A1 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2023085329A1 (ja) * | 2021-11-12 | 2023-05-19 | 株式会社小糸製作所 | イメージングシステム、センサユニット、車両用灯具、車両 |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020149140A1 (ja) * | 2019-01-17 | 2020-07-23 | 株式会社小糸製作所 | 車載用イメージング装置、車両用灯具、自動車 |
| JP7600129B2 (ja) * | 2019-09-24 | 2024-12-16 | ソニーセミコンダクタソリューションズ株式会社 | 撮像装置 |
| US12136249B2 (en) * | 2021-12-13 | 2024-11-05 | Nvidia Corporation | Glare mitigation using image contrast analysis for autonomous systems and applications |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN104570000A (zh) * | 2015-01-07 | 2015-04-29 | 太原理工大学 | 一种基于混沌压缩编码的光学综合孔径成像系统及方法 |
| JP2017525952A (ja) * | 2014-07-31 | 2017-09-07 | レイセオン カンパニー | 線形モード計算センシングレーザーレーダー |
| WO2017187484A1 (ja) * | 2016-04-25 | 2017-11-02 | 株式会社日立製作所 | 物体撮像装置 |
| CN108363069A (zh) * | 2018-01-18 | 2018-08-03 | 中国科学院理化技术研究所 | 基于分布式半导体激光阵列的关联成像装置及方法 |
| JP6412673B1 (ja) | 2017-07-21 | 2018-10-24 | 学校法人玉川学園 | 画像処理装置及び方法、並びに、プログラム |
Family Cites Families (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4198114B2 (ja) * | 2002-07-26 | 2008-12-17 | オリンパス株式会社 | 撮影装置、画像処理システム |
| US20050133879A1 (en) * | 2003-04-07 | 2005-06-23 | Takumi Yamaguti | Solid-state imaging device, signal processing device, camera, and spectral device |
| JP5092613B2 (ja) * | 2007-08-06 | 2012-12-05 | 日産自動車株式会社 | 距離計測方法および装置、ならびに距離計測装置を備えた車両 |
| JP2013117575A (ja) * | 2011-12-01 | 2013-06-13 | Nippon Hoso Kyokai <Nhk> | 立体画像表示装置 |
| JP6019621B2 (ja) * | 2012-03-01 | 2016-11-02 | 日産自動車株式会社 | 距離計測装置 |
| CN103363924B (zh) * | 2013-07-15 | 2016-02-03 | 中国科学院空间科学与应用研究中心 | 一种压缩的三维计算鬼成像系统及方法 |
| JP2015045587A (ja) * | 2013-08-28 | 2015-03-12 | 株式会社キーエンス | 三次元画像処理装置、三次元画像処理装置の状態変化判定方法、三次元画像処理装置の状態変化判定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
| CN106455974B (zh) * | 2014-06-20 | 2018-12-14 | 拉姆伯斯公司 | 用于有透镜和无透镜的光学感测的系统和方法 |
| JP6528264B2 (ja) * | 2015-01-27 | 2019-06-12 | 国立研究開発法人理化学研究所 | イメージング装置及び方法 |
| CN107229056A (zh) * | 2016-03-23 | 2017-10-03 | 松下知识产权经营株式会社 | 图像处理装置、图像处理方法以及记录介质 |
| JP6741467B2 (ja) * | 2016-05-12 | 2020-08-19 | 株式会社小糸製作所 | 車両用灯具 |
| JP6685887B2 (ja) * | 2016-12-13 | 2020-04-22 | 株式会社日立製作所 | 撮像装置 |
| WO2018124285A1 (ja) * | 2016-12-29 | 2018-07-05 | 国立大学法人東京大学 | イメージング装置及び方法 |
| CN110325402B (zh) * | 2017-03-28 | 2022-09-09 | 麦克赛尔株式会社 | 车载用前照灯以及光的投射方法 |
| JP6826972B2 (ja) * | 2017-11-16 | 2021-02-10 | 株式会社日立製作所 | 撮像装置 |
| CN109343078A (zh) * | 2018-11-27 | 2019-02-15 | 北京理工大学 | 一种具有目标导向性切片三维鬼成像实现方法 |
| CN114503172A (zh) * | 2019-08-09 | 2022-05-13 | 克利尔维尤人工智能股份有限公司 | 基于人脸识别来提供关于人的信息的方法 |
-
2020
- 2020-07-10 JP JP2021533048A patent/JP7472136B2/ja active Active
- 2020-07-10 WO PCT/JP2020/027092 patent/WO2021010339A1/ja not_active Ceased
- 2020-07-10 CN CN202080050563.5A patent/CN114128245B/zh active Active
- 2020-07-10 EP EP20841270.0A patent/EP3998767B1/en active Active
-
2022
- 2022-01-07 US US17/570,501 patent/US12047667B2/en active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017525952A (ja) * | 2014-07-31 | 2017-09-07 | レイセオン カンパニー | 線形モード計算センシングレーザーレーダー |
| CN104570000A (zh) * | 2015-01-07 | 2015-04-29 | 太原理工大学 | 一种基于混沌压缩编码的光学综合孔径成像系统及方法 |
| WO2017187484A1 (ja) * | 2016-04-25 | 2017-11-02 | 株式会社日立製作所 | 物体撮像装置 |
| JP6412673B1 (ja) | 2017-07-21 | 2018-10-24 | 学校法人玉川学園 | 画像処理装置及び方法、並びに、プログラム |
| CN108363069A (zh) * | 2018-01-18 | 2018-08-03 | 中国科学院理化技术研究所 | 基于分布式半导体激光阵列的关联成像装置及方法 |
Non-Patent Citations (2)
| Title |
|---|
| MEI, XIAODONG ET AL.: "Experimental demonstration of Vehicle-borne Near Infrared Three-Dimensional Ghost Imaging LiDAR", 2019 CONFERENCE ON LASERS AND ELECTRO-OPTICS (CLEO, 1 July 2019 (2019-07-01), XP055788155, Retrieved from the Internet <URL:https://ieeexplore.ieee.org/document/8749837> DOI: 10.1364/CLEO_ AT .2019.JW2A.7 * |
| OSAMU HIROTA; MASANORI SOMA: "ROMBUNNO.6.3.4 Quantum & Classic radar cameras, and Effect of Fog for Self Driving Car", INFORMATION THEORY AND ITS APPLICATIONS SYMPOSIUM PROCEEDINGS (CD-ROM) (SITA); NOVEMBER 28 - DECEMBER 1, 2017, vol. 40th, November 2017 (2017-11-01), JP, pages 353 - 358, XP009532825 * |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2023085329A1 (ja) * | 2021-11-12 | 2023-05-19 | 株式会社小糸製作所 | イメージングシステム、センサユニット、車両用灯具、車両 |
Also Published As
| Publication number | Publication date |
|---|---|
| US12047667B2 (en) | 2024-07-23 |
| JPWO2021010339A1 (ja) | 2021-01-21 |
| EP3998767A1 (en) | 2022-05-18 |
| EP3998767B1 (en) | 2023-10-11 |
| CN114128245A (zh) | 2022-03-01 |
| CN114128245B (zh) | 2024-08-20 |
| EP3998767A4 (en) | 2022-08-31 |
| JP7472136B2 (ja) | 2024-04-22 |
| US20220132022A1 (en) | 2022-04-28 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12047667B2 (en) | Imaging device | |
| JP7408572B2 (ja) | 車両用灯具および車両 | |
| CN105253058B (zh) | 一种车灯控制系统及方法 | |
| US20220400240A1 (en) | Imaging system, control method of imaging system, and program | |
| CN113557172B (zh) | 选通照相机、汽车、车辆用灯具、物体识别系统、运算处理装置、物体识别方法、图像显示系统、检查方法、摄像装置、图像处理装置 | |
| JP7463297B2 (ja) | 車載用イメージング装置、車両用灯具、自動車 | |
| JPWO2019194256A1 (ja) | 演算処理装置、オブジェクト識別システム、学習方法、自動車、車両用灯具 | |
| CN113767304B (zh) | 成像装置、车辆用灯具、汽车、成像方法 | |
| US12108164B2 (en) | Imaging apparatus | |
| JP2021512817A (ja) | 自動車投光器用のライトモジュール | |
| CN115428431A (zh) | 门控照相机、车辆用感测系统、车辆用灯具 | |
| WO2022270476A1 (ja) | イメージング装置および車両用灯具、車両 | |
| JP7298562B2 (ja) | 車両の周辺検知装置 | |
| WO2021015208A1 (ja) | アクティブセンサ、ゲーティングカメラ、自動車、車両用灯具 | |
| WO2021079810A1 (ja) | イメージング装置、車両用灯具、車両、イメージング方法 | |
| JP7395511B2 (ja) | イメージング装置、その演算処理装置、車両用灯具、車両、センシング方法 | |
| WO2022091972A1 (ja) | イメージング装置および車両用灯具、車両 | |
| CN111965664B (zh) | 光发射装置、成像系统和发射光调制方法 | |
| JP7524207B2 (ja) | イメージング装置、車両用灯具、車両、イメージング方法 | |
| RU2746614C1 (ru) | Способ подавления встречной засветки при формировании изображений дорожного окружения перед транспортным средством и устройство для осуществления способа | |
| WO2023074759A1 (ja) | イメージング装置、車両用灯具、車両 | |
| WO2023085329A1 (ja) | イメージングシステム、センサユニット、車両用灯具、車両 | |
| CN117795377A (zh) | 门控照相机、车辆用传感系统、车辆用灯具 | |
| WO2022044961A1 (ja) | イメージング装置、イメージング方法および車両用灯具、車両 | |
| WO2022102775A1 (ja) | センシング装置、車両用灯具、車両 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20841270 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2021533048 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| ENP | Entry into the national phase |
Ref document number: 2020841270 Country of ref document: EP Effective date: 20220214 |