WO2018088016A1 - 画像処理装置、画像処理方法、撮像システム、及び、画像処理プログラム - Google Patents
画像処理装置、画像処理方法、撮像システム、及び、画像処理プログラム Download PDFInfo
- Publication number
- WO2018088016A1 WO2018088016A1 PCT/JP2017/032496 JP2017032496W WO2018088016A1 WO 2018088016 A1 WO2018088016 A1 WO 2018088016A1 JP 2017032496 W JP2017032496 W JP 2017032496W WO 2018088016 A1 WO2018088016 A1 WO 2018088016A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- unit
- images
- generated
- alignment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
Definitions
- the present disclosure relates to an image processing device, an image processing method, an imaging system, and an image processing program.
- a shift between a plurality of captured images is only a translational shift in a one-dimensional direction.
- the image is distorted due to factors of an optical system such as a lens. Therefore, it is difficult to make the shift between images only translational shift.
- a process such as a lens distortion correction process or a parallelization process (Rectification) is performed to correct the image, and a shift between the images is corrected only to a translational shift. If the image has only one-dimensional translational displacement, only one-dimensional alignment is required, so that high-speed alignment can be performed.
- Lens distortion correction processing and parallelization processing involve processing such as pixel interpolation. Therefore, the resolution of the image corrected by the lens distortion correction process and the parallelization process is lowered, and as a result, the resolution of the image obtained by image synthesis is also lowered.
- the calculation amount of the two-dimensional block matching is an order of O (n 4 ) when expressed in the Landau notation, and the calculation cost required for alignment becomes excessive. It is difficult to perform two-dimensional block matching within a time that does not hinder the operation in a situation where resolution enhancement of an image sensor or the like is progressing.
- the present disclosure provides an image processing apparatus and an image processing method capable of reducing a decrease in resolution in processing such as image synthesis using a plurality of images and performing processing within a time that does not hinder operation. It is an object to provide an imaging system and an image processing program.
- an image processing apparatus includes: One of a plurality of images obtained by capturing the same subject is used as a reference image, and an image that can be one-dimensionally aligned is generated based on each of the plurality of images.
- an image processing method includes: One of a plurality of images obtained by capturing the same subject is used as a reference image, and an image that can be one-dimensionally aligned is generated based on each of the plurality of images. Image deformation processing to generate Image synthesis is performed using information based on the reference image and information based on the image generated by the image transformation process. This is an image processing method.
- an imaging system includes: An imaging unit that captures a plurality of images of the same subject; One of the plurality of images captured by the imaging unit is used as a reference image, an image that can be one-dimensionally aligned is generated based on each of the plurality of images, and then deformed, and alignment with respect to the reference image is performed.
- An image processing program for achieving the above object is as follows: One of a plurality of images obtained by capturing the same subject is used as a reference image, and an image that can be one-dimensionally aligned is generated based on each of the plurality of images.
- An image deformation processing step for generating a processed image, and Performing image synthesis using information based on a reference image and information based on an image generated by image deformation processing;
- image synthesis is performed using information based on the reference image and information based on the image generated by the image deformation process. Since the reference image has not undergone the resolution degradation accompanying the alignment, the resolution degradation of the image obtained by image synthesis is reduced. In addition, since an image that can be one-dimensionally aligned is generated and then deformed to generate an image that is aligned with the reference image, it can be processed within a time that does not hinder operation.
- FIG. 1 is a schematic diagram for describing a configuration of an imaging system including an image processing device according to the first embodiment of the present disclosure.
- FIG. 2 is a schematic diagram for explaining a configuration of an imaging system including an image processing apparatus according to a reference example.
- FIG. 3 is a schematic diagram for explaining image processing in the image processing apparatus of the reference example.
- FIG. 4 is a block diagram for explaining the operation of the image processing apparatus of the reference example.
- FIG. 5 is a block diagram for explaining the operation of the image processing apparatus according to the first embodiment.
- 6A, 6B, and 6C are drawing-substituting photographs for explaining an example of the alignment execution result in the image processing apparatus according to the first embodiment.
- FIG. 7 is a schematic diagram for explaining image processing in the image processing apparatus according to the first embodiment.
- FIG. 8 is a block diagram for explaining an operation in the image processing apparatus according to the second embodiment of the present disclosure.
- FIG. 9 is a diagram for explaining details of a portion related to alignment in FIG.
- FIG. 10 is a diagram for explaining the details of the part related to the synthesis process in FIG.
- FIG. 11 is a schematic diagram for explaining image processing in the image processing apparatus according to the second embodiment.
- FIG. 12 is a block diagram for explaining an operation in the image processing apparatus according to the third embodiment of the present disclosure.
- FIG. 13 is a diagram in which a part related to the alignment in FIG. 12 is extracted and described.
- FIG. 14 is a diagram for explaining details of a portion related to the synthesis process in FIG.
- FIG. 15 is a schematic diagram for explaining image processing in the image processing apparatus according to the third embodiment.
- FIG. 9 is a diagram for explaining details of a portion related to alignment in FIG.
- FIG. 10 is a diagram for explaining the details of the part related to the synthesis process in FIG.
- FIG. 16 is a block diagram for explaining an operation in the image processing apparatus according to the fourth embodiment of the present disclosure.
- FIG. 17 is a diagram for explaining details of a portion related to the synthesis process in FIG. 16.
- FIG. 18 is a schematic diagram for explaining image processing in the image processing apparatus according to the fourth embodiment.
- FIG. 19 is a block diagram illustrating an example of a schematic configuration of the vehicle control system.
- FIG. 20 is an explanatory diagram illustrating an example of the installation positions of the vehicle exterior information detection unit and the imaging unit.
- the image deformation processing unit is A first image correction unit that generates an image capable of one-dimensional alignment based on each of a plurality of images obtained by imaging the same subject; An alignment unit that generates an image that is one-dimensionally aligned with respect to an image generated based on the reference image for the image generated by the first image correction unit; and Of the images generated by the alignment unit, the image excluding the image generated based on the reference image is subjected to a calculation process opposite to the calculation process in the first image correction unit, thereby aligning the reference image.
- a second image correction unit for generating a processed image including, It can be configured.
- Image transformation processing A first image correction step for generating an image capable of one-dimensional alignment based on each of a plurality of images obtained by imaging the same subject; An alignment process for generating an image that is one-dimensionally aligned based on an image generated based on the reference image for the image generated by the first image correction process; and Of the images generated by the alignment process, the image except the image generated based on the reference image is subjected to a calculation process opposite to the calculation process in the first image correction process, thereby aligning the reference image.
- a second image correction step for generating a processed image including, It can be configured.
- the image transformation process step A first image correction step for generating an image capable of one-dimensional alignment based on each of a plurality of images obtained by imaging the same subject; An alignment step for generating an image that is one-dimensionally aligned with respect to an image generated based on the reference image for the image generated by the first image correction step; and Of the images generated by the alignment step, the image excluding the image generated based on the reference image is subjected to a calculation process opposite to the calculation process in the first image correction step, thereby aligning the reference image.
- a second image correction step for generating a processed image including, It can be configured.
- the first image correction step includes Including a lens distortion correction process and a parallelization process
- the second image correction step Including an anti-parallelization process and an inverse lens distortion correction process, It can be configured.
- the lens distortion correction process consists of a calculation process using a predetermined lens coefficient
- the reverse lens distortion correction step includes a calculation process using a coefficient different from the predetermined lens coefficient. It can be configured.
- the parallelization process consists of a calculation process using a predetermined matrix
- the anti-parallel processing step includes an arithmetic process using a matrix different from the predetermined matrix. It can be configured.
- the matrix used in the parallelization processing step and the matrix used in the antiparallelization processing step can be configured such that one is in the relationship of the other inverse matrix.
- the reference image is a monochrome image
- the other images are color images. It can be configured.
- image synthesis is performed. It can be configured.
- the image transformation process Generating a disparity map storing disparity information based on the image generated based on the reference image based on the image generated in the alignment step; and A step of generating a parallax map that is aligned with respect to the reference image by performing a calculation process opposite to the calculation process in the first image correction step on the generated parallax map; including, It can be configured.
- Controlling the depth of field in the image composition based on the parallax map aligned with the reference image can be configured.
- the reference image is a monochrome image
- the other images are color images. Based on the luminance information of the reference image and the color information of the image generated by the second image correction step, image synthesis is performed. It can be configured.
- the image deformation processing unit and the synthesis unit may be configured to operate based on physical connection by hardware, or configured to operate based on a program. It may be.
- the program may be provided by being stored in a computer-readable storage medium, or may be provided by distribution via wired or wireless communication means.
- An imaging unit used in an imaging system includes, for example, a plurality of imaging elements such as a CMOS sensor and a CCD sensor in which pixels including photoelectric conversion elements and various pixel transistors are arranged in a two-dimensional matrix in a row direction and a column direction. , Can be configured by being spaced apart. Although it depends on the electronic device on which the imaging unit is mounted, basically, it is preferable that the separation interval be as narrow as possible.
- the number of cameras constituted by the image sensor is not limited to two, but may be three or more. This disclosure even if each camera has multiple colors, each camera has different colors, each camera has a different number of pixels, or each camera has a different angle of view Is applicable.
- an image with the highest resolution among a plurality of images obtained by capturing the same subject as the reference image it is preferable to select an image with the highest resolution among a plurality of images obtained by capturing the same subject as the reference image.
- an image pickup device for color photographing since a single pixel is usually composed of a plurality of pixel groups, the resolution is lower than that of an image pickup device for monochrome image pickup. Therefore, when a color image and a monochrome image are mixed, it is preferable to select the monochrome image as the reference image.
- the present disclosure can be applied within a range where the same subject is captured. Furthermore, even when the number of pixels differs between images, the present disclosure can be applied by, for example, aligning the number of pixels by image resizing processing or the like.
- the configuration of the combining unit that combines the images is not particularly limited as long as the operation of the present disclosure is not hindered.
- a configuration in which a plurality of images are combined to improve S / N a configuration in which color information is combined by adding color information to a monochrome image, and the depth of field is adjusted using disparity information between images.
- a configuration in which another image is sandwiched so as to correspond to a predetermined depth location can be exemplified.
- the first embodiment relates to an image processing apparatus, an image processing method, an imaging system, and an image processing program according to the present disclosure.
- FIG. 1 is a schematic diagram for explaining a configuration of an imaging system according to the first embodiment of the present disclosure.
- the imaging system 1 An imaging unit 10 that captures a plurality of images of the same subject; One of a plurality of images captured by the imaging unit 10 is used as a reference image, an image that can be one-dimensionally aligned is generated based on each of the plurality of images, deformed, and aligned with the reference image.
- the imaging unit 10 includes a camera A and a camera B arranged at a predetermined interval. These are constituted by an optical system such as a lens and a CMOS sensor. For convenience of explanation, it is assumed in the first embodiment that both are for monochrome imaging.
- An image captured by the camera A is denoted by reference numeral 10A
- an image captured by the camera B is denoted by reference numeral 10B.
- the image deformation processing unit 110 and the synthesis unit 120 are formed on a semiconductor substrate made of silicon, for example.
- the image deformation processing unit 110 and the composition unit 120 constitute an image processing apparatus 100.
- the operation of the entire imaging system 1 is controlled by a control circuit (not shown).
- the imaging system 1 may be configured as an integral unit, for example, so as to be suitable for device incorporation, or may be configured as a separate body.
- a configuration in which the image deformation processing unit 110 and the combining unit 120 are provided on a control board of a portable electronic device may be employed.
- the image deformation processing unit 110 A first image correction unit 111 that generates an image capable of one-dimensional alignment based on each of a plurality of images obtained by imaging the same subject; An alignment unit 112 that generates an image that is one-dimensionally aligned based on an image generated based on the reference image for the image generated by the first image correction unit 111; and Of the images generated by the alignment unit 112, the image excluding the image generated based on the reference image is subjected to a calculation process opposite to the calculation process in the first image correction unit 111, whereby the position relative to the reference image is determined.
- One of a plurality of images obtained by capturing the same subject is used as a reference image, and an image that can be one-dimensionally aligned based on each of the plurality of images is generated and then transformed.
- Perform image deformation processing to generate an image that is aligned with the reference image Image synthesis is performed using information based on the reference image and information based on the image generated by the image transformation process.
- a first image correction step for generating an image capable of one-dimensional alignment based on each of a plurality of images obtained by imaging the same subject;
- An alignment process for generating an image that is one-dimensionally aligned based on an image generated based on the reference image for the image generated by the first image correction process; and
- the image except the image generated based on the reference image is subjected to a calculation process opposite to the calculation process in the first image correction process, thereby aligning the reference image.
- a second image correction step for generating a processed image including.
- An image processing apparatus 100 shown in FIG. 1 is configured to operate by executing an image processing program stored in a storage device (not shown).
- the image processing program One of a plurality of images obtained by capturing the same subject is used as a reference image, and an image that can be one-dimensionally aligned is generated based on each of the plurality of images.
- An image deformation processing step for generating a processed image, and Performing image synthesis using information based on a reference image and information based on an image generated by image deformation processing; Processing including
- a first image correction step for generating an image capable of one-dimensional alignment based on each of a plurality of images obtained by imaging the same subject;
- An alignment step for generating an image that is one-dimensionally aligned with respect to an image generated based on the reference image for the image generated by the first image correction step; and
- the image excluding the image generated based on the reference image is subjected to a calculation process opposite to the calculation process in the first image correction step, thereby aligning the reference image.
- a second image correction step for generating a processed image including.
- the basic configuration of the imaging system 1 has been described above. Next, in order to help understanding of the present disclosure, a reference example of a configuration in which the second image correction unit is omitted and problems thereof will be described.
- FIG. 2 is a schematic diagram for explaining a configuration of an imaging system including an image processing apparatus of a reference example.
- the image processing apparatus 900 used in the imaging system 9 of the reference example has a configuration in which the second image correction unit 113 is omitted from the image processing apparatus 100 illustrated in FIG.
- An image deformation processing unit in the image processing apparatus 900 is denoted by reference numeral 910.
- the image deformation processing unit 910 includes a first image correction unit 111 and an alignment unit 112.
- FIG. 3 is a schematic diagram for explaining image processing in the image processing apparatus of the reference example.
- FIG. 4 is a block diagram for explaining the operation of the image processing apparatus of the reference example.
- the image of the camera A and the image of the camera B are only one-dimensional translational deviations, high-speed alignment can be performed. However, the image is distorted due to factors of an optical system such as a lens.
- a process such as a lens distortion correction process or a parallelization process (Rectification) is performed to correct the image, and the shift between the images is corrected only to the translational shift.
- the image processing methods of camera A and camera B are basically the same except that the lens distortion correction coefficient and the parallelization matrix are different.
- the image processing of the camera A will be described with reference to FIG.
- the first image correction unit 111 generates an image capable of one-dimensional alignment based on each of a plurality of images obtained by capturing the same subject. Specifically, steps including a lens distortion correction process and a parallelization process are executed.
- the lens distortion correction step includes arithmetic processing using a predetermined lens coefficient
- the parallelization processing step includes arithmetic processing using a predetermined matrix.
- lens distortion correction (step S11A) is performed on the image 10A of the camera A.
- a predetermined calculation process is performed with reference to the lens distortion correction coefficient 11A for the camera A.
- a parallelization process (step S12A) is performed on the image that has undergone step S11A.
- a predetermined calculation process is performed with reference to the parallelization matrix 12A for the camera A.
- the arithmetic processing performed in the above-described steps includes, for example, sign (u, v) after image distortion correction and parallelization processing, and sign (c x ', cy ') after lens distortion correction and parallelization processing.
- sign (x ′ ′′, y ′ ′′) is image coordinates before lens distortion correction and parallelization
- sign (c x , cy ) is lens distortion correction and parallelization.
- the previous image center and the sign (f x , f y ) are the f values before the lens distortion correction and the parallelization processing, they are expressed as the following equations (1-1) to (1-6). .
- This process takes into account the change in the number of pixels before and after the deformation of the image, calculates the decimal coordinate position of the image before deformation from the integer coordinate position of the image after deformation based on the image after deformation, and the decimal coordinate position This is an example of Backward Mapping in which the pixel value at is obtained by interpolation.
- step S11B the image 10B of the camera B is subjected to lens distortion correction (step S11B) and parallelization processing (step S12A).
- step S11B lens distortion correction
- step S12A parallelization processing
- the calculation amount associated with the correction processing described above is an order of O (n 2 ) when expressed in Landau notation.
- the alignment unit 112 executes a step including an alignment step of generating an image that is one-dimensionally aligned with respect to the image generated by the first image correction unit 111 using the image generated based on the reference image as a reference. To do.
- step S13B alignment processing is performed using the image 10A md1 and the image 10B md1 .
- description will be made assuming that the alignment is performed with the image 10Amd1 as a reference.
- step S13B the corrected image 10B md2 of the camera B corrected to the camera A viewpoint is obtained.
- the calculation amount associated with the alignment process described above is an order of O (n 3 ).
- the calculation amount for the system 9 of the reference example is dominant in the order of O (n 3 ) in the alignment. If two-dimensional alignment is performed by omitting lens distortion correction and parallelization processing, the calculation amount associated with the alignment processing is on the order of O (n 4 ), and calculation required for alignment is required. Cost is excessive.
- the image 10A md1 of the camera A and the image 10B md2 of the camera B are in a relationship in which the images substantially match by alignment.
- the synthesizing unit 120 performs the synthesizing process using the image 10A md1 of the camera A and the image 10B md2 of the camera B.
- the resolution of the image 10Amd1 of the camera A is deteriorated by the lens distortion correction, and further, the resolution is deteriorated in the parallelization process.
- the imaging system 1 After performing correction processing that causes resolution degradation of both the camera A image and the camera B image, high-speed alignment is executed by one-dimensional alignment. Then, the corrected image of the camera B is deformed according to the original image of the camera A.
- the image of camera A which is one of the images of camera A and camera B that have captured the same subject, is the reference image. The same applies to other embodiments.
- FIG. 5 is a block diagram for explaining the operation of the image processing apparatus according to the first embodiment.
- the image deformation processing unit 110 in the image processing apparatus 100 according to the first embodiment has a configuration in which a second image correction unit 113 is added after the image deformation processing unit 910 described in the reference example. 5 are the same as those in FIG. For the convenience of illustration, in FIG. 5, a part of the processing process in the portion denoted by reference numeral 910 is omitted.
- the second image correction unit 113 performs an arithmetic process opposite to the arithmetic process in the first image correction process on an image generated based on the reference image among the images generated in the alignment process. Steps including a second image correction step of generating an image aligned with the reference image are executed. Specifically, steps including an anti-parallelization process and an inverse lens distortion correction process are executed.
- the deparallelization process includes an arithmetic process using a matrix different from the matrix used for the parallelization process, and the inverse lens distortion correction process is different from the lens coefficient used for the lens distortion correction. Comprising arithmetic processing using coefficients.
- the second image correction unit 113 generates an image that is aligned with the original image 10A of the camera A.
- the anti-parallelization process (step S21B) is performed on the image 10B md2 of the camera B described in the reference example.
- a predetermined calculation process is performed with reference to the parallelization matrix 21A for the camera A.
- one of the matrices used for the calculation is in the relationship of the inverse matrix of the other.
- step S22B reverse lens distortion correction
- a predetermined calculation process is performed with reference to the reverse lens distortion correction coefficient 22A for the camera A.
- a post- correction image 10B md3 of the camera B obtained by performing the anti-parallel processing and the reverse lens distortion correction on the image 10B md2 of the camera B is obtained.
- the reverse lens distortion correction coefficient a coefficient that causes the lens distortion generated by the camera A is selected in advance.
- the inverse lens distortion correction coefficient will be described in detail in the description of Expression (2-3) described later.
- the calculation amount associated with the above-described processing is an order of O (n 2 ) when expressed in Landau notation. Therefore, the calculation amount in the imaging system 1 is also dominant in the order of O (n 3 ) in the alignment. In other words, the calculation amount of the imaging system 1 is approximately the same as that of the imaging system 9 of the reference example.
- Equation (2-3) has a shape similar to Equation (1-5) described above, and expresses radial distortion and circumferential distortion, which are the main factors of lens distortion.
- This type of formula is generally used for lens distortion correction processing. However, it is possible to correct (deform) an image with lens distortion so that there is no lens distortion, or to correct (deform) an image without lens distortion so as to have lens distortion. It can be explained by deformation. Therefore, this type of formula can be used for any application.
- the coefficients (k 1 , k 2 ..., K 6 , p 1 , p 2 ) used in the equation (1-5) can be calculated using a general lens calibration method.
- the coefficient calculated in this way is used as the camera A lens distortion correction coefficient 11A.
- Equation (3-1) is the third-order polynomial in the radial direction
- Equation (3-2) is the fifth-order polynomial in the radial direction
- Equation (3-3) is the seventh-order polynomial in the radial direction
- Equation (3-4) is the third-order polynomial in the radial direction.
- equation (3-5) is tangential distortion (Conrady, 1919)
- equation (3-6) is tangential distortion (Brown, 1966)
- equation (3-7) is a radial seventh-order polynomial Tangential distortion (Brown, 1971)
- equation (3-8) is a radial seventh-order polynomial and tangential distortion (Murai, 1971).
- FIG. 6A, FIG. 6B, and FIG. 6C are drawing-substituting photographs for explaining an example of the alignment execution result in the image processing apparatus according to the first embodiment.
- FIG. 6A is an example of an image 10A captured by the camera A
- FIG. 6B is an example of an image 10B captured by the camera B. Since the camera A and the camera B are at different positions, there is also a deviation in the position of the captured image.
- 6C is an example of the image of the camera B transformed to the viewpoint of the camera A and corresponding to the image 10B md3 shown in FIG.
- FIG. 7 is a schematic diagram for explaining image processing in the image processing apparatus according to the first embodiment.
- the combining unit 120 performs a combining process using the original image 10A of the camera A and the image 10B md3 of the camera B.
- the imaging system 1 after performing correction processing that causes resolution degradation of both the camera A image and the camera B image, high-speed alignment is executed by one-dimensional alignment. Then, the corrected image of the camera B is deformed according to the original image of the camera A.
- the calculation cost required to transform the image of the camera B in accordance with the original image of the camera A can be kept in the order of O (n 3 ).
- O O
- an original image can be used for the image of camera A. Therefore, a decrease in resolution can be reduced as compared with the reference example in which the synthesis is performed in a state where both the camera A and the camera B have reduced resolution.
- the imaging system 1 it is possible to reduce a decrease in the resolution of the composite image and to perform processing within a time that does not hinder the operation.
- the imaging unit 10 further includes a camera C, a camera D, and the like
- the same processing as that for the image of the camera B may be performed on the images of the camera C and the camera D. Therefore, the first embodiment can be applied even when the imaging unit 10 includes three or more cameras. The same applies to other embodiments described later.
- the second embodiment also relates to an image processing device, an image processing method, an imaging system, and an image processing program according to the present disclosure.
- the second embodiment is mainly different from the first embodiment in that the camera B captures a Bayer array color image and that the operation of the image processing apparatus is partially different due to this. Is different.
- the reference image is a monochrome image, and the other images are color images.
- the Bayer array camera performs color imaging using a group of photoelectric conversion elements corresponding to [R, G, G, B]. Therefore, the resolution is lower in principle than monochrome imaging.
- luminance information is obtained from the black-and-white image of camera A
- color information is obtained from the image of camera B
- the images are synthesized to synthesize a high-resolution color image.
- the imaging system includes an imaging system 1 as an imaging system 2, an image processing device 100 as an image processing device 200, a first image correction unit 111 as a first image correction unit 211, and the like.
- the alignment unit 112 may be read as the alignment unit 212, the second image correction unit 113 as the second image correction unit 213, and the synthesis unit 120 as the synthesis unit 220.
- An image captured by the camera A is denoted by reference numeral 10A_BW, and an image captured by the camera B is denoted by reference numeral 10B_Bayer.
- FIG. 8 is a block diagram for explaining the operation of the image processing apparatus according to the second embodiment of the present disclosure.
- FIG. 9 is a diagram for explaining details of a portion related to alignment in FIG.
- the portion composed of the first image correction unit 211 and the alignment unit 212 is represented by reference numeral 910A in consideration of the relationship with FIG. 2, FIG. 4, and FIG.
- step S11A, step S12A the same processing as the processing described for the image 10A in the first embodiment is performed to obtain a parallelized image 10A_BW md1 .
- the image 10B_bayer is first subjected to a complementing process (step S201B) and converted to an RGB image in which all RGB colors are aligned in one pixel.
- the converted image is denoted by reference numeral 10B_RGB.
- step S11B, step S12B the image 10B_RGB is subjected to the same processing (step S11B, step S12B) as the processing described for the image 10B in the first embodiment to obtain a parallelized image 10B_RGB md1 .
- luminance information is generated based on the color image 10B_RGB md1 (step S202B).
- step S213B alignment processing is performed using the luminance information generated based on the image 10A_BW md1 and the image 10B_RGB md1 , and further based on the image 10B_RGB md1 .
- the alignment is performed with the image 10Amd1 as a reference.
- step S213B the corrected image 10B_RGB md2 of the camera B corrected to the camera A viewpoint is obtained.
- FIG. 10 is a diagram for explaining the details of the part related to the synthesis process in FIG.
- the second image correction unit 213 generates an image that is aligned with the original image 10A_BW of the camera A. Specifically, an antiparallelization process (step S21B) is performed on the image 10B_RGB md2 . Next, reverse lens distortion correction (step S22B) is performed on the image that has undergone step S21B. As a result, a post- correction image 10B_RGB md3 of the camera B obtained by performing the anti-parallel processing and the reverse lens distortion correction on the image 10B_RGB md2 of the camera B is obtained. Since this process is the same as the process described in the first embodiment, a description thereof will be omitted.
- FIG. 11 is a schematic diagram for explaining image processing in the image processing apparatus according to the second embodiment.
- image composition is performed based on the luminance information of the reference image and the color information of the image generated by the second image correction step.
- the combining unit 220 performs combining processing by using the image 10B_RGB md3 the original image 10A_BW the camera B of the camera A (step shown in FIG. 10 S241A). Specifically, a color image of the image 10A_BW is generated using the luminance information of the original image 10A_BW of the camera A and the color information of the corrected image 10B_RGB md3 of the camera B.
- This process is a process of superimposing the color information of the camera B on the luminance information of the original image 10A_BW of the camera A.
- the human eye is highly sensitive to changes in luminance, but has low sensitivity to changes in color. Therefore, the synthesized image is a color image with excellent resolution.
- the case of the Bayer array has been described.
- one-dimensional alignment can be performed by generating luminance information. Therefore, the present disclosure can be applied regardless of what color information the camera constituting the imaging unit has.
- the third embodiment also relates to an image processing device, an image processing method, an imaging system, and an image processing program according to the present disclosure.
- a disparity map storing disparity information based on an image generated based on a reference image is generated based on the image generated in the alignment step, and then the generated disparity map is generated.
- a parallax map that is aligned with respect to the reference image is generated by performing a calculation process opposite to the calculation process in the first image correction step. Then, based on the parallax map aligned with the reference image, the depth of field is controlled in image synthesis.
- the imaging system includes an imaging system 1 as an imaging system 3, an image processing device 100 as an image processing device 300, an alignment unit 112 as an alignment unit 312, and a second image correction.
- the unit 113 may be read as the second image correction unit 313, and the combining unit 120 may be read as the combining unit 320.
- an image captured by the camera A is denoted by reference numeral 10A
- an image captured by the camera B is denoted by reference numeral 10B.
- FIG. 12 is a block diagram for explaining the operation of the image processing apparatus according to the third embodiment of the present disclosure.
- FIG. 13 is a diagram for explaining details of a portion related to alignment in FIG.
- the portion composed of the first image correction unit 111 and the alignment unit 312 is represented by reference numeral 910B in consideration of the relationship with FIG. 2, FIG. 4, and FIG.
- a parallax map DP_MAP storing a parallax amount for each pixel is also generated. Since the amount of parallax after one-dimensional alignment is performed, the parallax map DP_MAP is a map (disparity map) in which the amount of horizontal pixel displacement is stored.
- FIG. 14 is a diagram for explaining the details of the part related to the synthesis process in FIG.
- the second image correction unit 313 generates a parallax map that is aligned with the original image 10A of the camera A. Specifically, an anti-parallel process (step S331B) is performed on the parallax map DP_MAP. Next, reverse lens distortion correction (step S332B) is performed on the image that has undergone step S331B. As a result, the post-correction parallax map DP_MAP md1 of the camera B obtained by performing the anti-parallelization process and the reverse lens distortion correction on the parallax map DP_MAP of the camera B is obtained. This process is the same as that applied to the parallax map DP_MAP in the first embodiment, since the process of changing the image 10B md2 of the camera B to the image 10B md3 is not described.
- FIG. 15 is a schematic diagram for explaining image processing in the image processing apparatus according to the third embodiment.
- the composition unit 320 performs composition processing using the original image 10A of the camera A and the corrected parallax map DP_MAP md1 of the camera B (step S341A illustrated in FIG. 14). Specifically, an image in which the depth of field of the image 10A is controlled using the luminance information of the original image 10A of the camera A and the information of the corrected parallax map DP_MAP md1 of the camera B (image 10A_fmd shown in FIG. 14). Is generated.
- This process is a process of adjusting the focus of the original image 10A of the camera A based on the value of the parallax map. Since the parallax map DP_MAP md1 is the depth information of the image 10A, for example, when finishing in a portrait style, a process of blurring the background may be performed.
- a disparity map can be calculated without deforming an image of a camera that is desired to avoid resolution degradation.
- a resolution restoration process such as a cross bilateral filter is applied using a camera image that avoids resolution degradation, thereby reducing the resolution of the disparity map. You may compensate.
- the fourth embodiment also relates to an image processing device, an image processing method, an imaging system, and an image processing program according to the present disclosure.
- the fourth embodiment has a configuration in which the third embodiment is further applied to the second embodiment.
- the imaging system includes an imaging system 1 as an imaging system 4, an image processing device 100 as an image processing device 400, a first image correction unit 111 as a first image correction unit 411, and the like.
- the alignment unit 112 may be read as the alignment unit 412, the second image correction unit 113 as the second image correction unit 413, and the synthesis unit 120 as the synthesis unit 420.
- Camera A and camera B constituting the imaging unit 10 are the same as those in the second embodiment. Camera A captures a monochrome image, and camera B captures a Bayer color image.
- An image captured by the camera A is denoted by reference numeral 10A_BW, and an image captured by the camera B is denoted by reference numeral 10B_Bayer.
- FIG. 16 is a block diagram for explaining the operation of the image processing apparatus according to the fourth embodiment of the present disclosure.
- the portion including the first image correction unit 411 and the alignment unit 412 is represented by reference numeral 910C in consideration of the relationship with FIG. 2, FIG. 4, and FIG.
- the image 10B_RGB md2 is generated in step S213B shown in FIG.
- a parallax map DP_MAP is also generated.
- the generation process of the image 10B_RGB md2 is the same as the process described in the second embodiment.
- the process of generating the parallax map DP_MAP is the same as the process described in the third embodiment. Therefore, detailed description is omitted.
- FIG. 17 is a diagram for explaining details of a portion related to the synthesis process in FIG. 16.
- FIG. 18 is a schematic diagram for explaining image processing in the image processing apparatus according to the fourth embodiment.
- the depth of field is controlled in the image composition based on the parallax map that is aligned with the reference image. Further, image composition is performed based on the luminance information of the reference image and the color information of the image generated by the second image correction process.
- the combining unit 420 performs combining processing using the corrected parallax map DP_MAP md1 in addition to the original image 10A_BW of the camera A and the corrected image 10B_RGB md2 of the camera B. This is performed (step S441A shown in FIG. 14). Specifically, the image 10A_RGB is obtained by colorizing the image 10A_BW and controlling the depth of field by using the luminance information of the original image 10A_BW of the camera A, the color information of the image 10B_RGB md2 , and the information of the parallax map DP_MAP md1. Generate fmd .
- the technology according to the present disclosure can be applied to various products.
- the technology according to the present disclosure may be any kind of movement such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, personal mobility, an airplane, a drone, a ship, a robot, a construction machine, and an agricultural machine (tractor).
- FIG. 19 is a block diagram illustrating a schematic configuration example of a vehicle control system 7000 that is an example of a mobile control system to which the technology according to the present disclosure can be applied.
- the vehicle control system 7000 includes a plurality of electronic control units connected via a communication network 7010.
- the vehicle control system 7000 includes a drive system control unit 7100, a body system control unit 7200, a battery control unit 7300, an outside information detection unit 7400, an in-vehicle information detection unit 7500, and an integrated control unit 7600. .
- the communication network 7010 for connecting the plurality of control units conforms to an arbitrary standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or FlexRay (registered trademark). It may be an in-vehicle communication network.
- Each control unit includes a microcomputer that performs arithmetic processing according to various programs, a storage unit that stores programs executed by the microcomputer or parameters used for various calculations, and a drive circuit that drives various devices to be controlled. Is provided.
- Each control unit includes a network I / F for communicating with other control units via a communication network 7010, and is connected to devices or sensors inside and outside the vehicle by wired communication or wireless communication. A communication I / F for performing communication is provided. In FIG.
- a microcomputer 7610 As a functional configuration of the integrated control unit 7600, a microcomputer 7610, a general-purpose communication I / F 7620, a dedicated communication I / F 7630, a positioning unit 7640, a beacon receiving unit 7650, an in-vehicle device I / F 7660, an audio image output unit 7670, An in-vehicle network I / F 7680 and a storage unit 7690 are illustrated.
- other control units include a microcomputer, a communication I / F, a storage unit, and the like.
- the drive system control unit 7100 controls the operation of the device related to the drive system of the vehicle according to various programs.
- the drive system control unit 7100 includes a driving force generator for generating a driving force of a vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism that adjusts and a braking device that generates a braking force of the vehicle.
- the drive system control unit 7100 may have a function as a control device such as ABS (Antilock Brake System) or ESC (Electronic Stability Control).
- a vehicle state detection unit 7110 is connected to the drive system control unit 7100.
- the vehicle state detection unit 7110 includes, for example, a gyro sensor that detects the angular velocity of the rotational movement of the vehicle body, an acceleration sensor that detects the acceleration of the vehicle, an operation amount of an accelerator pedal, an operation amount of a brake pedal, and steering of a steering wheel. At least one of sensors for detecting an angle, an engine speed, a rotational speed of a wheel, or the like is included.
- the drive system control unit 7100 performs arithmetic processing using a signal input from the vehicle state detection unit 7110, and controls an internal combustion engine, a drive motor, an electric power steering device, a brake device, or the like.
- the body system control unit 7200 controls the operation of various devices mounted on the vehicle body according to various programs.
- the body system control unit 7200 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a blinker, or a fog lamp.
- the body control unit 7200 can be input with radio waves or various switch signals transmitted from a portable device that substitutes for a key.
- the body system control unit 7200 receives input of these radio waves or signals, and controls a door lock device, a power window device, a lamp, and the like of the vehicle.
- the battery control unit 7300 controls the secondary battery 7310 that is a power supply source of the drive motor according to various programs. For example, information such as battery temperature, battery output voltage, or remaining battery capacity is input to the battery control unit 7300 from a battery device including the secondary battery 7310. The battery control unit 7300 performs arithmetic processing using these signals, and controls the temperature adjustment of the secondary battery 7310 or the cooling device provided in the battery device.
- the outside information detection unit 7400 detects information outside the vehicle on which the vehicle control system 7000 is mounted.
- the outside information detection unit 7400 is connected to at least one of the imaging unit 7410 and the outside information detection unit 7420.
- the imaging unit 7410 includes at least one of a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
- the outside information detection unit 7420 detects, for example, current weather or an environmental sensor for detecting weather, or other vehicles, obstacles, pedestrians, etc. around the vehicle equipped with the vehicle control system 7000. At least one of the surrounding information detection sensors.
- the environmental sensor may be, for example, at least one of a raindrop sensor that detects rainy weather, a fog sensor that detects fog, a sunshine sensor that detects sunlight intensity, and a snow sensor that detects snowfall.
- the ambient information detection sensor may be at least one of an ultrasonic sensor, a radar device, and a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) device.
- the imaging unit 7410 and the outside information detection unit 7420 may be provided as independent sensors or devices, or may be provided as a device in which a plurality of sensors or devices are integrated.
- FIG. 20 shows an example of installation positions of the imaging unit 7410 and the vehicle outside information detection unit 7420.
- the imaging units 7910, 7912, 7914, 7916, and 7918 are provided at, for example, at least one of the front nose, the side mirror, the rear bumper, the back door, and the upper part of the windshield in the vehicle interior of the vehicle 7900.
- An imaging unit 7910 provided in the front nose and an imaging unit 7918 provided in the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 7900.
- Imaging units 7912 and 7914 provided in the side mirror mainly acquire an image of the side of the vehicle 7900.
- An imaging unit 7916 provided in the rear bumper or the back door mainly acquires an image behind the vehicle 7900.
- the imaging unit 7918 provided on the upper part of the windshield in the passenger compartment is mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or
- FIG. 20 shows an example of shooting ranges of the respective imaging units 7910, 7912, 7914, and 7916.
- the imaging range a indicates the imaging range of the imaging unit 7910 provided in the front nose
- the imaging ranges b and c indicate the imaging ranges of the imaging units 7912 and 7914 provided in the side mirrors, respectively
- the imaging range d The imaging range of the imaging part 7916 provided in the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 7910, 7912, 7914, and 7916, an overhead image when the vehicle 7900 is viewed from above is obtained.
- the vehicle outside information detection units 7920, 7922, 7924, 7926, 7928, and 7930 provided on the front, rear, sides, corners of the vehicle 7900 and the upper part of the windshield in the vehicle interior may be, for example, an ultrasonic sensor or a radar device.
- the vehicle outside information detection units 7920, 7926, and 7930 provided on the front nose, the rear bumper, the back door, and the windshield in the vehicle interior of the vehicle 7900 may be, for example, LIDAR devices.
- These outside information detection units 7920 to 7930 are mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, and the like.
- the vehicle exterior information detection unit 7400 causes the imaging unit 7410 to capture an image outside the vehicle and receives the captured image data. Further, the vehicle exterior information detection unit 7400 receives detection information from the vehicle exterior information detection unit 7420 connected thereto. When the vehicle exterior information detection unit 7420 is an ultrasonic sensor, a radar device, or a LIDAR device, the vehicle exterior information detection unit 7400 transmits ultrasonic waves, electromagnetic waves, or the like, and receives received reflected wave information.
- the outside information detection unit 7400 may perform an object detection process or a distance detection process such as a person, a car, an obstacle, a sign, or a character on a road surface based on the received information.
- the vehicle exterior information detection unit 7400 may perform environment recognition processing for recognizing rainfall, fog, road surface conditions, or the like based on the received information.
- the vehicle outside information detection unit 7400 may calculate a distance to an object outside the vehicle based on the received information.
- the outside information detection unit 7400 may perform image recognition processing or distance detection processing for recognizing a person, a car, an obstacle, a sign, a character on a road surface, or the like based on the received image data.
- the vehicle exterior information detection unit 7400 performs processing such as distortion correction or alignment on the received image data, and combines the image data captured by the different imaging units 7410 to generate an overhead image or a panoramic image. Also good.
- the vehicle exterior information detection unit 7400 may perform viewpoint conversion processing using image data captured by different imaging units 7410.
- the vehicle interior information detection unit 7500 detects vehicle interior information.
- a driver state detection unit 7510 that detects the driver's state is connected to the in-vehicle information detection unit 7500.
- Driver state detection unit 7510 may include a camera that captures an image of the driver, a biosensor that detects biometric information of the driver, a microphone that collects sound in the passenger compartment, and the like.
- the biometric sensor is provided, for example, on a seat surface or a steering wheel, and detects biometric information of an occupant sitting on the seat or a driver holding the steering wheel.
- the vehicle interior information detection unit 7500 may calculate the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 7510, and determines whether the driver is asleep. May be.
- the vehicle interior information detection unit 7500 may perform a process such as a noise canceling process on the collected audio signal.
- the integrated control unit 7600 controls the overall operation in the vehicle control system 7000 according to various programs.
- An input unit 7800 is connected to the integrated control unit 7600.
- the input unit 7800 is realized by a device that can be input by a passenger, such as a touch panel, a button, a microphone, a switch, or a lever.
- the integrated control unit 7600 may be input with data obtained by recognizing voice input through a microphone.
- the input unit 7800 may be, for example, a remote control device using infrared rays or other radio waves, or may be an external connection device such as a mobile phone or a PDA (Personal Digital Assistant) that supports the operation of the vehicle control system 7000. May be.
- the input unit 7800 may be, for example, a camera.
- the passenger can input information using a gesture.
- data obtained by detecting the movement of the wearable device worn by the passenger may be input.
- the input unit 7800 may include, for example, an input control circuit that generates an input signal based on information input by a passenger or the like using the input unit 7800 and outputs the input signal to the integrated control unit 7600.
- a passenger or the like operates the input unit 7800 to input various data or instruct a processing operation to the vehicle control system 7000.
- the storage unit 7690 may include a ROM (Read Only Memory) that stores various programs executed by the microcomputer, and a RAM (Random Access Memory) that stores various parameters, calculation results, sensor values, and the like.
- the storage unit 7690 may be realized by a magnetic storage device such as an HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
- General-purpose communication I / F 7620 is a general-purpose communication I / F that mediates communication with various devices existing in the external environment 7750.
- General-purpose communication I / F7620 is a cellular communication protocol such as GSM (registered trademark) (Global System of Mobile communications), WiMAX, LTE (Long Term Evolution) or LTE-A (LTE-Advanced), or a wireless LAN (Wi-Fi). (Also referred to as (registered trademark)) and other wireless communication protocols such as Bluetooth (registered trademark) may be implemented.
- GSM Global System of Mobile communications
- WiMAX Wireless LAN
- LTE Long Term Evolution
- LTE-A Long Term Evolution-A
- Wi-Fi wireless LAN
- Bluetooth registered trademark
- the general-purpose communication I / F 7620 is connected to a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network, or an operator-specific network) via, for example, a base station or an access point. May be.
- the general-purpose communication I / F 7620 is a terminal (for example, a driver, a pedestrian or a store terminal, or an MTC (Machine Type Communication) terminal) that exists in the vicinity of the vehicle using, for example, P2P (Peer To Peer) technology. You may connect with.
- the dedicated communication I / F 7630 is a communication I / F that supports a communication protocol formulated for use in vehicles.
- the dedicated communication I / F 7630 is a standard protocol such as WAVE (Wireless Access in Vehicle Environment), DSRC (Dedicated Short Range Communications), or cellular communication protocol, which is a combination of the lower layer IEEE 802.11p and the upper layer IEEE 1609. May be implemented.
- the dedicated communication I / F 7630 typically includes vehicle-to-vehicle communication, vehicle-to-infrastructure communication, vehicle-to-home communication, and vehicle-to-pedestrian communication. ) Perform V2X communication, which is a concept that includes one or more of the communications.
- the positioning unit 7640 receives, for example, a GNSS signal from a GNSS (Global Navigation Satellite System) satellite (for example, a GPS signal from a GPS (Global Positioning System) satellite), performs positioning, and performs latitude, longitude, and altitude of the vehicle.
- the position information including is generated.
- the positioning unit 7640 may specify the current position by exchanging signals with the wireless access point, or may acquire position information from a terminal such as a mobile phone, PHS, or smartphone having a positioning function.
- the beacon receiving unit 7650 receives, for example, radio waves or electromagnetic waves transmitted from a radio station installed on the road, and acquires information such as the current position, traffic jam, closed road, or required time. Note that the function of the beacon receiving unit 7650 may be included in the dedicated communication I / F 7630 described above.
- the in-vehicle device I / F 7660 is a communication interface that mediates the connection between the microcomputer 7610 and various in-vehicle devices 7760 present in the vehicle.
- the in-vehicle device I / F 7660 may establish a wireless connection using a wireless communication protocol such as a wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), or WUSB (Wireless USB).
- the in-vehicle device I / F 7660 is connected to a USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), or MHL (Mobile) via a connection terminal (and a cable if necessary). Wired connection such as High-definition Link) may be established.
- the in-vehicle device 7760 may include, for example, at least one of a mobile device or a wearable device that a passenger has, or an information device that is carried into or attached to the vehicle.
- In-vehicle device 7760 may include a navigation device that searches for a route to an arbitrary destination.
- In-vehicle device I / F 7660 exchanges control signals or data signals with these in-vehicle devices 7760.
- the in-vehicle network I / F 7680 is an interface that mediates communication between the microcomputer 7610 and the communication network 7010.
- the in-vehicle network I / F 7680 transmits and receives signals and the like in accordance with a predetermined protocol supported by the communication network 7010.
- the microcomputer 7610 of the integrated control unit 7600 is connected via at least one of a general-purpose communication I / F 7620, a dedicated communication I / F 7630, a positioning unit 7640, a beacon receiving unit 7650, an in-vehicle device I / F 7660, and an in-vehicle network I / F 7680.
- the vehicle control system 7000 is controlled according to various programs based on the acquired information. For example, the microcomputer 7610 calculates a control target value of the driving force generation device, the steering mechanism, or the braking device based on the acquired information inside and outside the vehicle, and outputs a control command to the drive system control unit 7100. Also good.
- the microcomputer 7610 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, following traveling based on inter-vehicle distance, vehicle speed maintaining traveling, vehicle collision warning, or vehicle lane departure warning. You may perform the cooperative control for the purpose. Further, the microcomputer 7610 controls the driving force generator, the steering mechanism, the braking device, or the like based on the acquired information on the surroundings of the vehicle, so that the microcomputer 7610 automatically travels independently of the driver's operation. You may perform the cooperative control for the purpose of driving.
- ADAS Advanced Driver Assistance System
- the microcomputer 7610 is information acquired via at least one of the general-purpose communication I / F 7620, the dedicated communication I / F 7630, the positioning unit 7640, the beacon receiving unit 7650, the in-vehicle device I / F 7660, and the in-vehicle network I / F 7680.
- the three-dimensional distance information between the vehicle and the surrounding structure or an object such as a person may be generated based on the above and local map information including the peripheral information of the current position of the vehicle may be created.
- the microcomputer 7610 may generate a warning signal by predicting a danger such as a collision of a vehicle, approach of a pedestrian or the like or an approach to a closed road based on the acquired information.
- the warning signal may be, for example, a signal for generating a warning sound or lighting a warning lamp.
- the audio image output unit 7670 transmits an output signal of at least one of audio and image to an output device capable of visually or audibly notifying information to a vehicle occupant or the outside of the vehicle.
- an audio speaker 7710, a display unit 7720, and an instrument panel 7730 are illustrated as output devices.
- Display unit 7720 may include at least one of an on-board display and a head-up display, for example.
- the display portion 7720 may have an AR (Augmented Reality) display function.
- the output device may be other devices such as headphones, wearable devices such as glasses-type displays worn by passengers, projectors, and lamps.
- the display device can display the results obtained by various processes performed by the microcomputer 7610 or information received from other control units in various formats such as text, images, tables, and graphs. Display visually. Further, when the output device is an audio output device, the audio output device converts an audio signal made up of reproduced audio data or acoustic data into an analog signal and outputs it aurally.
- At least two control units connected via the communication network 7010 may be integrated as one control unit.
- each control unit may be configured by a plurality of control units.
- the vehicle control system 7000 may include another control unit not shown.
- some or all of the functions of any of the control units may be given to other control units. That is, as long as information is transmitted and received via the communication network 7010, the predetermined arithmetic processing may be performed by any one of the control units.
- a sensor or device connected to one of the control units may be connected to another control unit, and a plurality of control units may transmit / receive detection information to / from each other via the communication network 7010. .
- the technology according to the present disclosure can be applied to, for example, the imaging unit of the outside information detection unit among the configurations described above. That is, a high-resolution image can be acquired, and parallax information using a parallax map can be obtained, so that more detailed information can be obtained.
- A1 One of a plurality of images obtained by capturing the same subject is used as a reference image, and an image that can be one-dimensionally aligned is generated based on each of the plurality of images.
- An image processing apparatus An image processing apparatus.
- the image transformation processing unit A first image correction unit that generates an image capable of one-dimensional alignment based on each of a plurality of images obtained by imaging the same subject; An alignment unit that generates an image that is one-dimensionally aligned with respect to an image generated based on the reference image for the image generated by the first image correction unit; and Of the images generated by the alignment unit, the image excluding the image generated based on the reference image is subjected to a calculation process opposite to the calculation process in the first image correction unit, thereby aligning the reference image.
- a second image correction unit for generating a processed image including, The image processing apparatus according to [A1].
- the first image correction unit Perform processing including a lens distortion correction step and a parallelization processing step, The second image correction step Performing a process including an anti-parallelization process and an inverse lens distortion correction process;
- the image processing apparatus according to [A2].
- the lens distortion correction process consists of a calculation process using a predetermined lens coefficient,
- the reverse lens distortion correction step includes a calculation process using a coefficient different from the predetermined lens coefficient.
- the parallelization process consists of a calculation process using a predetermined matrix,
- the anti-parallel processing step includes an arithmetic process using a matrix different from the predetermined matrix.
- the image processing apparatus according to [A3] or [A4].
- [A6] One of the matrix used in the parallelization process and the matrix used in the antiparallel process is in the relationship of the other inverse matrix.
- the image processing apparatus according to [A5].
- [A7] Of the multiple images of the same subject the reference image is a monochrome image, and the other images are color images.
- the image processing device according to any one of [A1] to [A6].
- the image processing apparatus according to [A7].
- the image transformation processing unit further includes Generating a disparity map storing disparity information based on an image generated based on the reference image based on the image generated by the alignment unit; and A step of generating a parallax map that is aligned with respect to the reference image by performing a calculation process opposite to the calculation process in the first image correction unit on the generated parallax map; I do, The image processing apparatus according to any one of [A2] to [A8]. [A10] Controlling the depth of field in the image composition based on the parallax map aligned with the reference image; The image processing apparatus according to [A9]. [A11] Among multiple images of the same subject, the reference image is a monochrome image, and the other images are color images. Based on the luminance information of the reference image and the color information of the image generated by the second image correction step, image synthesis is performed. The image processing apparatus according to [A10].
- One of a plurality of images obtained by capturing the same subject is used as a reference image, and an image that can be one-dimensionally aligned is generated based on each of the plurality of images.
- Image deformation processing to generate Image synthesis is performed using information based on the reference image and information based on the image generated by the image transformation process.
- Image processing method is performed using information based on the reference image and information based on the image generated by the image transformation process.
- [B2] Image transformation processing A first image correction step for generating an image capable of one-dimensional alignment based on each of a plurality of images obtained by imaging the same subject; An alignment process for generating an image that is one-dimensionally aligned based on an image generated based on the reference image for the image generated by the first image correction process; and Of the images generated by the alignment process, the image except the image generated based on the reference image is subjected to a calculation process opposite to the calculation process in the first image correction process, thereby aligning the reference image.
- a second image correction step for generating a processed image including, The image processing method according to [B1] above.
- the first image correction step includes Including a lens distortion correction process and a parallelization process
- the second image correction step Including an anti-parallelization process and an inverse lens distortion correction process
- the lens distortion correction process consists of a calculation process using a predetermined lens coefficient
- the reverse lens distortion correction step includes a calculation process using a coefficient different from the predetermined lens coefficient.
- the parallelization process consists of a calculation process using a predetermined matrix
- the anti-parallel processing step includes an arithmetic process using a matrix different from the predetermined matrix.
- [B6] One of the matrix used in the parallelization process and the matrix used in the antiparallel process is in the relationship of the other inverse matrix.
- the reference image is a monochrome image, and the other images are color images.
- image synthesis is performed.
- the image transformation process Generating a disparity map storing disparity information based on the image generated based on the reference image based on the image generated in the alignment step; and A step of generating a parallax map that is aligned with respect to the reference image by performing a calculation process opposite to the calculation process in the first image correction step on the generated parallax map; including, The image processing method according to any one of [B2] to [B8].
- [B10] Controlling the depth of field in the image composition based on the parallax map aligned with the reference image; The image processing method according to [B9] above.
- the reference image is a monochrome image, and the other images are color images. Based on the luminance information of the reference image and the color information of the image generated by the second image correction step, image synthesis is performed. The image processing method according to [B10].
- An imaging system comprising: [C2] The image transformation processing unit A first image correction unit that generates an image capable of one-dimensional alignment based on each of a plurality of images obtained by imaging the same subject; An alignment unit that generates an image that is one-dimensionally aligned with respect to an image generated based on the reference image for the image generated by the first image correction unit; and Of the images generated by the alignment unit, the image excluding the image generated based on the reference image is subjected to a calculation process opposite to the calculation process in the first image correction unit, thereby aligning the reference image.
- a second image correction unit for generating a processed image including, The imaging system according to [C1] above.
- the first image correction unit Perform processing including a lens distortion correction step and a parallelization processing step, The second image correction step Performing a process including an anti-parallelization process and an inverse lens distortion correction process;
- the lens distortion correction process consists of a calculation process using a predetermined lens coefficient,
- the reverse lens distortion correction step includes a calculation process using a coefficient different from the predetermined lens coefficient.
- the parallelization process consists of a calculation process using a predetermined matrix
- the anti-parallel processing step includes an arithmetic process using a matrix different from the predetermined matrix.
- One of the matrix used in the parallelization process and the matrix used in the antiparallel process is in the relationship of the other inverse matrix.
- the reference image is a monochrome image, and the other images are color images.
- the image transformation processing unit further includes Generating a disparity map storing disparity information based on an image generated based on the reference image based on the image generated by the alignment unit; and A step of generating a parallax map that is aligned with respect to the reference image by performing a calculation process opposite to the calculation process in the first image correction unit on the generated parallax map; I do, The imaging system according to any one of [C2] to [C8].
- [C10] Controlling the depth of field in the image composition based on the parallax map aligned with the reference image;
- the reference image is a monochrome image, and the other images are color images. Based on the luminance information of the reference image and the color information of the image generated by the second image correction step, image synthesis is performed.
- image synthesis is performed.
- [D1] One of a plurality of images obtained by capturing the same subject is used as a reference image, and an image that can be one-dimensionally aligned is generated based on each of the plurality of images.
- An image deformation processing step for generating a processed image, and Performing image synthesis using information based on a reference image and information based on an image generated by image deformation processing;
- An image processing program for causing a computer to execute processing including [D2]
- the image transformation process step A first image correction step for generating an image capable of one-dimensional alignment based on each of a plurality of images obtained by imaging the same subject;
- An alignment step for generating an image that is one-dimensionally aligned with respect to an image generated based on the reference image for the image generated by the first image correction step; and Of the images generated by the alignment step, the image excluding the image generated based on the reference image is subjected to a calculation process opposite to the calculation process in the first image correction step, thereby aligning the reference image.
- a second image correction step for generating a processed image including, The image processing program according to [D1].
- the first image correction step includes A lens distortion correction step and a parallelization processing step
- the second image correction step includes Including an anti-parallelization processing step and an inverse lens distortion correction step,
- the lens distortion correction step consists of a calculation process using a predetermined lens coefficient
- the reverse lens distortion correction step includes a calculation process using a coefficient different from the predetermined lens coefficient.
- the parallelization processing step includes an arithmetic processing using a predetermined matrix
- the anti-parallel processing step includes an arithmetic process using a matrix different from the predetermined matrix.
- One of the matrix used for the parallelization processing step and the matrix used for the antiparallelization processing step is in the relationship of the inverse matrix of the other, The image processing program according to [D5] above.
- the reference image is a monochrome image, and the other images are color images.
- [D8] Based on the luminance information of the reference image and the color information of the image generated by the second image correction step, image synthesis is performed.
- the image processing program according to any one of [D7].
- [D9] The image transformation process Generating a disparity map storing disparity information based on the image generated based on the reference image based on the image generated in the alignment step; and Generating a parallax map that is aligned with respect to the reference image by performing a calculation process opposite to the calculation process in the first image correction step on the generated parallax map; including, The image processing program according to any one of [D2] to [D8].
- [D10] Controlling the depth of field in the image composition based on the parallax map aligned with the reference image;
- [D11] Among multiple images of the same subject, the reference image is a monochrome image, and the other images are color images. Based on the luminance information of the reference image and the color information of the image generated by the second image correction step, image synthesis is performed.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
画像処理装置は、同じ被写体を撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、基準画像に対して位置合わせがされた画像を生成する画像変形処理部、及び、基準画像に基づく情報と画像変形処理部によって生成された画像に基づく情報とを用いて画像合成を行う合成部を備える。
Description
本開示は、画像処理装置、画像処理方法、撮像システム、及び、画像処理プログラムに関する。
近年、多眼カメラ等によって得られる複数の画像を用いて画像を合成するといったことが提案されている。複数の画像を用いて画像合成などの処理を行うといった場合、画像間での位置合わせが重要になる。画像の位置合わせについては、通常、画像間でのブロックマッチングが用いられることが多い(例えば、特許文献1参照)。
画像の位置合わせの容易性からは、撮像される複数の画像間のずれが1次元方向の並進ずれのみとなることが好ましい。しかしながら、カメラを完全に平行に配置したとしても、レンズ等の光学系の要因よって画像は歪む。従って、画像間のずれを並進ずれのみにすることは困難である。このため、位置合わせの処理を行う前に、レンズ歪補正処理や平行化処理(Rectification)といった処理を施して画像を補正し、画像間のずれを並進ずれのみに補正するといったことが行われる。画像が1次元方向の並進ずれのみになっていれば、1次元の位置合わせを行うだけで済むので、高速な位置合わせを行うことができる。
レンズ歪補正処理や平行化処理においては、画素の補間といった処理を伴う。従って、レンズ歪補正処理や平行化処理が施され補正された画像の解像度は低下し、結果として、画像合成によって得られる画像の解像度も低下する。解像度の低下を避けるため、レンズ歪補正処理や平行化処理を行わず、2次元のブロックマッチングを行い位置合わせを行うといったことも考えられる。しかしながら、2次元のブロックマッチングの計算量は、ランダウ記法で表せばO(n4)といったオーダーであり、位置合わせに必要となる計算コストが過大となる。撮像素子などの高解像度化が進んでいる状況において、動作上支障のない時間内で2次元のブロックマッチングを行うといったことは難しい。
そこで、本開示は、複数の画像を用いた画像合成などの処理において、解像度の低下を軽減することができ、動作上支障のない時間内で処理することができる、画像処理装置、画像処理方法、撮像システム、及び、画像処理プログラムを提供することを目的とする。
上記の目的を達成するための本開示に係る画像処理装置は、
同じ被写体を撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、基準画像に対して位置合わせがされた画像を生成する画像変形処理部、及び、
基準画像に基づく情報と画像変形処理部によって生成された画像に基づく情報とを用いて画像合成を行う合成部、
を備えている画像処理装置である。
同じ被写体を撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、基準画像に対して位置合わせがされた画像を生成する画像変形処理部、及び、
基準画像に基づく情報と画像変形処理部によって生成された画像に基づく情報とを用いて画像合成を行う合成部、
を備えている画像処理装置である。
上記の目的を達成するための本開示に係る画像処理方法は、
同じ被写体を撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、基準画像に対して位置合わせがされた画像を生成する画像変形処理を行い、
基準画像に基づく情報と画像変形処理によって生成された画像に基づく情報とを用いて画像合成を行う、
画像処理方法である。
同じ被写体を撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、基準画像に対して位置合わせがされた画像を生成する画像変形処理を行い、
基準画像に基づく情報と画像変形処理によって生成された画像に基づく情報とを用いて画像合成を行う、
画像処理方法である。
上記の目的を達成するための本開示に係る撮像システムは、
同じ被写体について複数の画像を撮像する撮像部、
撮像部が撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、基準画像に対して位置合わせがされた画像を生成する画像変形処理部、及び、
基準画像に基づく情報と画像変形処理部によって生成された画像に基づく情報とを用いて画像合成を行う合成部、
を備えている撮像システムである。
同じ被写体について複数の画像を撮像する撮像部、
撮像部が撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、基準画像に対して位置合わせがされた画像を生成する画像変形処理部、及び、
基準画像に基づく情報と画像変形処理部によって生成された画像に基づく情報とを用いて画像合成を行う合成部、
を備えている撮像システムである。
上記の目的を達成するための本開示に係る画像処理プログラムは、
同じ被写体を撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、基準画像に対して位置合わせがされた画像を生成する画像変形処理ステップ、及び、
基準画像に基づく情報と画像変形処理によって生成された画像に基づく情報とを用いて画像合成を行うステップ、
を含む処理をコンピュータに実行させるための画像処理プログラムである。
同じ被写体を撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、基準画像に対して位置合わせがされた画像を生成する画像変形処理ステップ、及び、
基準画像に基づく情報と画像変形処理によって生成された画像に基づく情報とを用いて画像合成を行うステップ、
を含む処理をコンピュータに実行させるための画像処理プログラムである。
本開示によれば、基準画像に基づく情報と画像変形処理によって生成された画像に基づく情報とを用いて画像合成を行う。基準画像は位置合わせに伴う解像度劣化を受けていないので、画像合成によって得られる画像の解像度劣化は軽減される。また、1次元位置合わせが可能な画像を生成したのちに変形させて基準画像に対して位置合わせがされた画像を生成するので、動作上支障のない時間内で処理することができる。
尚、ここに記載された効果に必ずしも限定されるものではなく、本明細書中に記載されたいずれかの効果であってもよい。また、本明細書に記載された効果はあくまで例示であって、これに限定されるものではなく、また付加的な効果があってもよい。
以下、図面を参照して、実施形態に基づいて本開示を説明する。本開示は実施形態に限定されるものではなく、実施形態における種々の数値や材料などは例示である。以下の説明において、同一要素または同一機能を有する要素には同一符号を用いることとし、重複する説明は省略する。尚、説明は、以下の順序で行う。
1.本開示に係る、画像処理装置、画像処理方法、撮像システム、及び、画像処理プログラム、全般に関する説明
2.第1の実施形態
3.第2の実施形態
4.第3の実施形態
5.第4の実施形態
6.第1の応用例
7.本開示の構成
1.本開示に係る、画像処理装置、画像処理方法、撮像システム、及び、画像処理プログラム、全般に関する説明
2.第1の実施形態
3.第2の実施形態
4.第3の実施形態
5.第4の実施形態
6.第1の応用例
7.本開示の構成
[本開示に係る、画像処理装置、画像処理方法、撮像システム、及び、画像処理プログラム、全般に関する説明]
本開示の画像処理装置や撮像システムにおいて、画像変形処理部は、
同じ被写体を撮像した複数の画像のそれぞれに基づいて、1次元位置合わせが可能な画像を生成する第1画像補正部、
第1画像補正部によって生成された画像について、基準画像に基づいて生成された画像を基準として1次元位置合わせがされた画像を生成する位置合わせ部、及び、
位置合わせ部によって生成された画像のうち、基準画像に基づいて生成された画像を除く画像について第1画像補正部における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた画像を生成する第2画像補正部、
を含む、
構成とすることができる。
本開示の画像処理装置や撮像システムにおいて、画像変形処理部は、
同じ被写体を撮像した複数の画像のそれぞれに基づいて、1次元位置合わせが可能な画像を生成する第1画像補正部、
第1画像補正部によって生成された画像について、基準画像に基づいて生成された画像を基準として1次元位置合わせがされた画像を生成する位置合わせ部、及び、
位置合わせ部によって生成された画像のうち、基準画像に基づいて生成された画像を除く画像について第1画像補正部における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた画像を生成する第2画像補正部、
を含む、
構成とすることができる。
また、本開示の画像処理方法において、
画像変形処理は、
同じ被写体を撮像した複数の画像のそれぞれに基づいて、1次元位置合わせが可能な画像を生成する第1画像補正工程、
第1画像補正工程によって生成された画像について、基準画像に基づいて生成された画像を基準として1次元位置合わせがされた画像を生成する位置合わせ工程、及び、
位置合わせ工程によって生成された画像のうち、基準画像に基づいて生成された画像を除く画像について第1画像補正工程における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた画像を生成する第2画像補正工程、
を含む、
構成とすることができる。
画像変形処理は、
同じ被写体を撮像した複数の画像のそれぞれに基づいて、1次元位置合わせが可能な画像を生成する第1画像補正工程、
第1画像補正工程によって生成された画像について、基準画像に基づいて生成された画像を基準として1次元位置合わせがされた画像を生成する位置合わせ工程、及び、
位置合わせ工程によって生成された画像のうち、基準画像に基づいて生成された画像を除く画像について第1画像補正工程における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた画像を生成する第2画像補正工程、
を含む、
構成とすることができる。
また、本開示の画像処理方法プログラムにおいて、
画像変形処理ステップは、
同じ被写体を撮像した複数の画像のそれぞれに基づいて、1次元位置合わせが可能な画像を生成する第1画像補正ステップ、
第1画像補正ステップによって生成された画像について、基準画像に基づいて生成された画像を基準として1次元位置合わせがされた画像を生成する位置合わせステップ、及び、
位置合わせステップによって生成された画像のうち、基準画像に基づいて生成された画像を除く画像について第1画像補正ステップにおける演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた画像を生成する第2画像補正ステップ、
を含む、
構成とすることができる。
画像変形処理ステップは、
同じ被写体を撮像した複数の画像のそれぞれに基づいて、1次元位置合わせが可能な画像を生成する第1画像補正ステップ、
第1画像補正ステップによって生成された画像について、基準画像に基づいて生成された画像を基準として1次元位置合わせがされた画像を生成する位置合わせステップ、及び、
位置合わせステップによって生成された画像のうち、基準画像に基づいて生成された画像を除く画像について第1画像補正ステップにおける演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた画像を生成する第2画像補正ステップ、
を含む、
構成とすることができる。
上述した好ましい構成を含む本開示の画像処理装置、画像処理方法、撮像システム、及び、画像処理プログラム(以下、これらを単に、本開示と呼ぶ場合がある)において、
第1画像補正工程は、
レンズ歪補正工程と平行化処理工程とを含み、
第2画像補正工程は、
逆平行化処理工程と逆レンズ歪補正工程とを含む、
構成とすることができる。
第1画像補正工程は、
レンズ歪補正工程と平行化処理工程とを含み、
第2画像補正工程は、
逆平行化処理工程と逆レンズ歪補正工程とを含む、
構成とすることができる。
この場合において、
レンズ歪補正工程は、所定のレンズ係数を用いた演算処理から成り、
逆レンズ歪補正工程は、前記所定のレンズ係数とは異なる係数を用いた演算処理から成る、
構成とすることができる。
レンズ歪補正工程は、所定のレンズ係数を用いた演算処理から成り、
逆レンズ歪補正工程は、前記所定のレンズ係数とは異なる係数を用いた演算処理から成る、
構成とすることができる。
あるいは又、この場合において、
平行化処理工程は、所定の行列を用いた演算処理から成り、
逆平行化処理工程は、前記所定の行列とは異なる行列を用いた演算処理から成る、
構成とすることができる。そして、平行化処理工程に用いられる行列と逆平行化処理工程に用いられる行列とは、一方が他方の逆行列の関係にある構成とすることができる。
平行化処理工程は、所定の行列を用いた演算処理から成り、
逆平行化処理工程は、前記所定の行列とは異なる行列を用いた演算処理から成る、
構成とすることができる。そして、平行化処理工程に用いられる行列と逆平行化処理工程に用いられる行列とは、一方が他方の逆行列の関係にある構成とすることができる。
上述した好ましい構成を含む本開示において、
同じ被写体を撮像した複数の画像のうち、基準画像はモノクロ画像、他の画像はカラー画像である、
構成とすることができる。この場合において、
基準画像の輝度情報と、第2画像補正工程によって生成された画像のカラー情報に基づいて、画像合成を行う、
構成とすることができる。
同じ被写体を撮像した複数の画像のうち、基準画像はモノクロ画像、他の画像はカラー画像である、
構成とすることができる。この場合において、
基準画像の輝度情報と、第2画像補正工程によって生成された画像のカラー情報に基づいて、画像合成を行う、
構成とすることができる。
あるいは又、
画像変形処理は、更に、
位置合わせ工程で生成された画像に基づいて、基準画像に基づいて生成された画像を基準とする視差情報を格納した視差マップを生成する工程、及び、
生成された視差マップについて第1画像補正工程における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた視差マップを生成する工程、
を含む、
構成とすることができる。
画像変形処理は、更に、
位置合わせ工程で生成された画像に基づいて、基準画像に基づいて生成された画像を基準とする視差情報を格納した視差マップを生成する工程、及び、
生成された視差マップについて第1画像補正工程における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた視差マップを生成する工程、
を含む、
構成とすることができる。
この場合において、
基準画像に対して位置合わせがされた視差マップに基づいて、画像合成において被写界深度を制御する、
構成とすることができる。更には、
同じ被写体を撮像した複数の画像のうち、基準画像はモノクロ画像、他の画像はカラー画像であり、
基準画像の輝度情報と、第2画像補正工程によって生成された画像のカラー情報に基づいて、画像合成を行う、
構成とすることができる。
基準画像に対して位置合わせがされた視差マップに基づいて、画像合成において被写界深度を制御する、
構成とすることができる。更には、
同じ被写体を撮像した複数の画像のうち、基準画像はモノクロ画像、他の画像はカラー画像であり、
基準画像の輝度情報と、第2画像補正工程によって生成された画像のカラー情報に基づいて、画像合成を行う、
構成とすることができる。
上述した各種の好ましい構成を含む本開示において、画像変形処理部や合成部は、ハードウェアによる物理的な結線に基づいて動作するといった構成であってもよいし、プログラムに基づいて動作するといった構成であってもよい。プログラムは、コンピュータ読取り可能な記憶媒体に格納されて提供されてもよいし、有線あるいは無線による通信手段を介した配信により提供されてもよい。
撮像システムに用いられる撮像部は、例えば、光電変換素子や種々の画素トランジスタを含む画素が、行方向及び列方向に2次元マトリクス状に配列されて成るCMOSセンサやCCDセンサといった撮像素子を、複数、離間して配置することによって構成することができる。撮像部の搭載対象となる電子機器にもよるが、基本的には、離間の間隔はできるだけ狭くすることが好ましい。
撮像素子によって構成されるカメラの数は、2台に限定されるものでなはく、3台以上であってもよい。各カメラが複数の色を持っている場合でも、各カメラが持つ色が異なっている場合でも、各カメラが異なる画素数を持つ場合でも、各カメラのレンズの画角が異なる場合でも、本開示は適用可能である。
基準画像として、同じ被写体を撮像した複数の画像のうち最も解像度の高い画像を選択することが好ましい。カラー撮影用の撮像素子は、通常、複数の画素群で1つの画素が構成されるので、白黒撮像用の撮像素子よりも解像度が低くなる。従って、カラー画像と白黒画像とが混在する場合、白黒画像を基準画像として選択することが好ましい。
また、画像間で画角が異なっていても、同じ被写体が写っている範囲内においては本開示を適用することができる。更には、画像間で画素数が異なっている場合にも、例えば、画像のリサイズ処理などによって画素数を揃えることによって、本開示を適用することができる。
画像を合成する合成部の構成は、本開示の動作に支障が生じない限り、特に限定するものではない。例えば、複数の画像を合成してS/Nを向上させるといった構成、白黒画像に色情報を加えてカラー画像を合成するといった構成、画像間の視差情報を利用して被写界深度を調整するといった構成、更には、所定の奥行き箇所に対応するように別画像を挟むといった構成、を挙げることができる。
[第1の実施形態]
第1の実施形態は、本開示に係る、画像処理装置、画像処理方法、撮像システム、及び、画像処理プログラムに関する。
第1の実施形態は、本開示に係る、画像処理装置、画像処理方法、撮像システム、及び、画像処理プログラムに関する。
図1は、本開示の第1の実施形態に係る撮像システムの構成を説明するための模式図である。
撮像システム1は、
同じ被写体について複数の画像を撮像する撮像部10、
撮像部10が撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、基準画像に対して位置合わせがされた画像を生成する画像変形処理部110、及び、
基準画像に基づく情報と画像変形処理部110によって生成された画像に基づく情報とを用いて画像合成を行う合成部120、
を備えている。
同じ被写体について複数の画像を撮像する撮像部10、
撮像部10が撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、基準画像に対して位置合わせがされた画像を生成する画像変形処理部110、及び、
基準画像に基づく情報と画像変形処理部110によって生成された画像に基づく情報とを用いて画像合成を行う合成部120、
を備えている。
撮像部10は、所定の間隔を空けて配されたカメラAとカメラBを備えている。これらは、レンズ等の光学系とCMOSセンサなどによって構成されている。説明の都合上、第1の実施形態において、これらは共に白黒撮像用であるとする。カメラAが撮像した画像を符号10A、カメラBが撮像した画像を符号10Bで表す。
画像変形処理部110と合成部120とは、例えば、シリコンから成る半導体基板上に形成されている。画像変形処理部110と合成部120によって、画像処理装置100が構成される。
撮像システム1全体の動作は、図示せぬ制御回路などによって制御される。撮像システム1は、例えば機器組込用途に向くように一体のユニットとして構成されていてもよいし、別体として構成されていてもよい。例えば、携帯用の電子機器の制御基板に画像変形処理部110と合成部120が設けられている構成とすることもできる。
画像変形処理部110は、
同じ被写体を撮像した複数の画像のそれぞれに基づいて、1次元位置合わせが可能な画像を生成する第1画像補正部111、
第1画像補正部111によって生成された画像について、基準画像に基づいて生成された画像を基準として1次元位置合わせがされた画像を生成する位置合わせ部112、及び、
位置合わせ部112によって生成された画像のうち、基準画像に基づいて生成された画像を除く画像について第1画像補正部111における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた画像を生成する第2画像補正部113、
を含む。
同じ被写体を撮像した複数の画像のそれぞれに基づいて、1次元位置合わせが可能な画像を生成する第1画像補正部111、
第1画像補正部111によって生成された画像について、基準画像に基づいて生成された画像を基準として1次元位置合わせがされた画像を生成する位置合わせ部112、及び、
位置合わせ部112によって生成された画像のうち、基準画像に基づいて生成された画像を除く画像について第1画像補正部111における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた画像を生成する第2画像補正部113、
を含む。
そして、撮像システム1にあっては、
同じ被写体を撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、
基準画像に対して位置合わせがされた画像を生成する画像変形処理を行い、
基準画像に基づく情報と画像変形処理によって生成された画像に基づく情報とを用いて画像合成を行う。
同じ被写体を撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、
基準画像に対して位置合わせがされた画像を生成する画像変形処理を行い、
基準画像に基づく情報と画像変形処理によって生成された画像に基づく情報とを用いて画像合成を行う。
画像変形処理は、
同じ被写体を撮像した複数の画像のそれぞれに基づいて、1次元位置合わせが可能な画像を生成する第1画像補正工程、
第1画像補正工程によって生成された画像について、基準画像に基づいて生成された画像を基準として1次元位置合わせがされた画像を生成する位置合わせ工程、及び、
位置合わせ工程によって生成された画像のうち、基準画像に基づいて生成された画像を除く画像について第1画像補正工程における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた画像を生成する第2画像補正工程、
を含む。
同じ被写体を撮像した複数の画像のそれぞれに基づいて、1次元位置合わせが可能な画像を生成する第1画像補正工程、
第1画像補正工程によって生成された画像について、基準画像に基づいて生成された画像を基準として1次元位置合わせがされた画像を生成する位置合わせ工程、及び、
位置合わせ工程によって生成された画像のうち、基準画像に基づいて生成された画像を除く画像について第1画像補正工程における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた画像を生成する第2画像補正工程、
を含む。
図1に示す画像処理装置100は、図示せぬ記憶装置に格納された画像処理プログラムを実行することによって動作するように構成されている。画像処理プログラムは、
同じ被写体を撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、基準画像に対して位置合わせがされた画像を生成する画像変形処理ステップ、及び、
基準画像に基づく情報と画像変形処理によって生成された画像に基づく情報とを用いて画像合成を行うステップ、
を含む処理を行う。
同じ被写体を撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、基準画像に対して位置合わせがされた画像を生成する画像変形処理ステップ、及び、
基準画像に基づく情報と画像変形処理によって生成された画像に基づく情報とを用いて画像合成を行うステップ、
を含む処理を行う。
そして、画像変形処理ステップは、
同じ被写体を撮像した複数の画像のそれぞれに基づいて、1次元位置合わせが可能な画像を生成する第1画像補正ステップ、
第1画像補正ステップによって生成された画像について、基準画像に基づいて生成された画像を基準として1次元位置合わせがされた画像を生成する位置合わせステップ、及び、
位置合わせステップによって生成された画像のうち、基準画像に基づいて生成された画像を除く画像について第1画像補正ステップにおける演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた画像を生成する第2画像補正ステップ、
を含む。
同じ被写体を撮像した複数の画像のそれぞれに基づいて、1次元位置合わせが可能な画像を生成する第1画像補正ステップ、
第1画像補正ステップによって生成された画像について、基準画像に基づいて生成された画像を基準として1次元位置合わせがされた画像を生成する位置合わせステップ、及び、
位置合わせステップによって生成された画像のうち、基準画像に基づいて生成された画像を除く画像について第1画像補正ステップにおける演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた画像を生成する第2画像補正ステップ、
を含む。
上述した撮像システム1の動作については、後述する図5ないし図7を参照して、後で詳しく説明する。
以上、撮像システム1の基本的な構成について説明した。次いで、本開示の理解を助けるため、第2画像補正部を省略した構成の参考例とその問題点について説明する。
図2は、参考例の画像処理装置を備えた撮像システムの構成を説明するための模式図である。
参考例の撮像システム9に用いられる画像処理装置900は、図1に示す画像処理装置100から第2画像補正部113を省略した構成である。画像処理装置900における画像変形処理部を符号910で表す。画像変形処理部910は、第1画像補正部111と位置合わせ部112から構成されている。
図3は、参考例の画像処理装置における画像処理を説明するための模式図である。図4は、参考例の画像処理装置における動作を説明するためのブロック図である。
カメラAの画像とカメラBの画像とが1次元方向の並進ずれのみとなっていれば、高速な位置合わせを行うことができる。しかしながら、レンズ等の光学系の要因よって画像は歪む。
このため、位置合わせの処理を行う前に、レンズ歪補正処理や平行化処理(Rectification)といった処理を施して画像を補正し、画像間のずれを並進ずれのみに補正する。カメラAとカメラBの画像の処理方法は、レンズ歪補正係数や平行化行列が異なる以外は基本的に同様である。以下、カメラAの画像処理について、図4を参照して説明する。
第1画像補正部111は、同じ被写体を撮像した複数の画像のそれぞれに基づいて、1次元位置合わせが可能な画像を生成する。具体的には、レンズ歪補正工程と平行化処理工程とを含むステップを実行する。レンズ歪補正工程は、所定のレンズ係数を用いた演算処理から成り、平行化処理工程は、所定の行列を用いた演算処理から成る。
先ず、カメラAの画像10Aについて、レンズ歪補正(ステップS11A)を施す。レンズ歪補正の際には、カメラAについてのレンズ歪補正係数11Aを参照して所定の演算処理を行う。次いで、ステップS11Aを経た画像について、平行化処理(ステップS12A)を施す。平行化処理の際には、カメラAについての平行化行列12Aを参照して所定の演算処理を行う。これによって、レンズ歪補正と平行化処理がされたカメラAの補正後画像10Amd1を得る。
上述のステップで行う演算処理は、例えば、符号(u,v)をレンズ歪補正と平行化処理後の画像座標、符号(cx’,cy’)をレンズ歪補正と平行化処理後の画像中心、符号(fx’,fy’)をレンズ歪補正と平行化処理後のf値、符号Rを平行化行列、符号(k1,k2・・・,k6、p1,p2)をレンズ歪補正係数、符号(x''',y''')をレンズ歪補正と平行化処理前の画像座標、符号(cx,cy)をレンズ歪補正と平行化処理前の画像中心、符号(fx,fy)をレンズ歪補正と平行化処理前のf値、とすれば、以下の式(1-1)ないし(1-6)のように表される。この処理は、画像の変形前後での画素数変化を考慮して、変形後の画像を基準として変形後の画像の整数座標位置から変形前の画像の小数座標位置を計算し、その小数座標位置における画素値を補間によって求めるというBackward Mappingによる例である。
カメラBの画像10Bについても、同様に、レンズ歪補正(ステップS11B)、平行化処理(ステップS12A)を施す。これによって、レンズ歪補正と平行化処理がされたカメラBの補正後画像10Bmd1を得る。
上述した補正処理に伴う計算量は、ランダウ記法で表せば、O(n2)といったオーダーである。
位置合わせ部112は、第1画像補正部111によって生成された画像について、基準画像に基づいて生成された画像を基準として1次元位置合わせがされた画像を生成する位置合わせ工程を含むステップを実行する。
即ち、画像10Amd1と画像10Bmd1とを用いて、位置合わせ処理(ステップS13B)を行う。ここでは、画像10Amd1を基準として位置合わせをするとして説明する。ステップS13Bを経ることで、カメラA視点に補正されたカメラBの補正後画像10Bmd2が得られる。
上述した位置合わせ処理に伴う計算量は、O(n3)といったオーダーである。参考例のシステム9についての計算量は、位置合わせにおけるO(n3)といったオーダーが支配的である。尚、仮に、レンズ歪補正と平行化処理とを省略して2次元位置合わせをするとすれば、位置合わせ処理に伴う計算量は、O(n4)といったオーダーとなり、位置合わせに必要となる計算コストが過大となる。
図4に示すように、カメラAの画像10Amd1とカメラBの画像10Bmd2は、位置合わせによって画像が略一致する関係にある。
参考例の撮像システム9に用いられる画像処理装置900において、合成部120は、カメラAの画像10Amd1とカメラBの画像10Bmd2とを用いて合成処理を行う。
上述の動作において、カメラAの画像10Amd1はレンズ歪補正によって解像度が劣化し、更に、平行化処理において解像度が劣化している。カメラBの画像10Bmd1においても同様である。即ち、合成処理の材料となる画像自体が共にオリジナルな画像よりも解像度の劣化した画像であり、合成される画像においても解像度の劣化を免れないといった問題がある。
以上、参考例とその問題点について説明した。
次いで、図を参照して、第1の実施形態に撮像システム1の構成と動作について詳しく説明する。
撮像システム1にあっては、カメラA画像とカメラB画像の共に解像度劣化を生じる補正処理を行った後、1次元位置合わせにより高速な位置合わせを実行する。そして、補正処理されたカメラBの画像を、カメラAのオリジナル画像に合わせて変形させる。同じ被写体を撮像したカメラAとカメラBの画像のうちの1つであるカメラAの画像が基準画像である。他の実施形態においても同様である。
図5は、第1の実施形態に係る画像処理装置における動作を説明するためのブロック図である。
第1の実施形態における画像処理装置100における画像変形処理部110は、参考例において説明した画像変形処理部910の後段に第2画像補正部113を加えたといった構成である。図5において符号910を付した部分は、図4と同様である。尚、図示の都合上、図5においては、符号910の部分における処理過程を一部省略して記載した。
第2画像補正部113は、位置合わせ工程によって生成された画像のうち、基準画像に基づいて生成された画像を除く画像について第1画像補正工程における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた画像を生成する第2画像補正工程を含むステップを実行する。具体的には、逆平行化処理工程と逆レンズ歪補正工程とを含むステップを実行する。以下説明するように、逆平行化処理工程は、平行化処理に用いた行列とは異なる行列を用いた演算処理から成り、逆レンズ歪補正工程は、レンズ歪補正に用いたレンズ係数とは異なる係数を用いた演算処理から成る。
第2画像補正部113は、カメラAのオリジナル画像10Aに対して位置合わせがされた画像を生成する。具体的には、参考例で説明したカメラBの画像10Bmd2について、逆平行化処理(ステップS21B)を施す。逆平行化処理の際には、カメラAについての平行化行列21Aを参照して所定の演算処理を行う。尚、上述した(ステップS11A)と(ステップS21B)とでは、演算に用いられる行列は、一方が他方の逆行列の関係にある。
次いで、ステップS21Bを経た画像について、逆レンズ歪補正(ステップS22B)を施す。逆レンズ歪補正の際には、カメラAについての逆レンズ歪補正係数22Aを参照して所定の演算処理を行う。これによって、カメラBの画像10Bmd2について逆平行化処理と逆レンズ歪補正とがされたカメラBの補正後画像10Bmd3を得る。
逆レンズ歪補正係数は、カメラAで生ずるレンズ歪を発生させるような係数が予め選定されている。逆レンズ歪補正係数については後述する式(2-3)の説明において詳しく説明する。
上述のステップで行う演算処理は、例えば、符号(k1’,k2’・・・,k6’、p1’,p2’)を逆レンズ歪補正係数とすれば、以下の式(2-1)ないし(2-6)のように表される。
上述した処理に伴う計算量は、ランダウ記法で表せば、O(n2)といったオーダーである。従って、撮像システム1における計算量も、位置合わせにおけるO(n3)といったオーダーが支配的となる。換言すれば、撮像システム1の計算量は、参考例の撮像システム9と略同程度に収まる。
式(2-3)は上述した式(1-5)と似た形をしており、レンズ歪の主要因である半径方向歪と円周方向歪を表現している。この形式の式は、一般的にはレンズ歪補正処理のために用いられる式である。しかしながら、レンズ歪のある画像をレンズ歪がないように補正(変形)することも、レンズ歪がない画像をレンズ歪があるように補正(変形)するのも、半径方向と円周方向の画像変形で説明ができる。従って、いずれの用途であっても、この形式の式を用いることができる。
式(1-5)で用いられる係数(k1,k2・・・,k6、p1,p2)は、一般的なレンズキャリブレーション手法を用いて算出することができる。カメラAレンズ歪補正係数11Aとして、このように算出された係数が用いられる。
そして、式(1-5)において係数が与えられると、レンズ補正処理前後の座標位置を計算することができる。従って、レンズ補正処理前後の座標位置のペアを充分用意しておき、非線形最小二乗法を用いることによって、式(2-3)で用いられる係数(k1’,k2’・・・,k6’、p1’,p2’)を求めることができる。カメラA逆レンズ歪補正係数22Aとして、このようにして求められた係数が用いられる。
尚、レンズ歪に関する式は、上記の式(1-5)や式(2-3)に限るものではなく、他の同種の式を用いることができる。例えば、下記の式(3-1)ないし式(3-8)を挙げることができる。式(3-1)は放射方向3次多項式、式(3-2)は放射方向5次多項式、式(3-3)は放射方向7次多項式、式(3-4)は放射方向3次多項式・接線方向歪み、式(3-5)は接線方向歪み(Conrady,1919)、式(3-6)は接線方向歪み(Brown,1966)、式(3-7)は放射方向7次多項式・接線方向歪み(Brown,1971)、式(3-8)は放射方向7次多項式・接線方向歪み(Murai,1971)である。
上述した一連の処理における位置合わせの実行結果例を、図面代用写真を参照して説明する。
図6A、図6B、図6Cは、第1の実施形態に係る画像処理装置における位置合わせの実行結果例を説明するための図面代用写真である。
図6Aは、カメラAで撮像された画像10Aの例であり、図6Bは、カメラBで撮像された画像10Bの例である。カメラAとカメラBとは異なる位置にあるため、撮像された画像の位置にもズレがある。図6Cは、カメラAの視点に変形されたカメラBの画像であって、図5に示す画像10Bmd3に対応する例である。
図6Aと図6Cとを比べると、ほぼ完全に位置が合っていることが分かる。画像が一致しない部分は、主に、視差によってカメラBからは見えない領域である。
次いで、画像合成について説明する。図7は、第1の実施形態に係る画像処理装置における画像処理を説明するための模式図である。
撮像システム1に用いられる画像処理装置100において、合成部120は、カメラAのオリジナル画像10AとカメラBの画像10Bmd3とを用いて合成処理を行う。
撮像システム1にあっては、カメラA画像とカメラB画像の共に解像度劣化を生じる補正処理を行った後、1次元位置合わせにより高速な位置合わせを実行する。そして、補正処理されたカメラBの画像を、カメラAのオリジナル画像に合わせて変形させる。
これによって、カメラAのオリジナル画像に合わせてカメラBの画像を変形させるために必要な計算コストを、O(n3)といったオーダーに収めることができる。そして、画像合成については、カメラAの画像についてオリジナル画像を用いることができる。従って、カメラA、カメラBともに解像度が低下した状態で合成を行う参考例に比べて、解像度の低下を軽減することができる。
以上説明したように、撮像システム1にあっては、合成画像の解像度の低下を軽減することができ、また、動作上支障のない時間内で処理することができる。
また、撮像部10が、更にカメラC,カメラDなどを備えている場合には、カメラCやカメラDの画像にカメラBの画像と同様の処理を行えばよい。従って、撮像部10が備えるカメラが3台以上であっても、第1の実施形態が適用できる。後述する他の実施形態においても同様である。
[第2の実施形態]
第2の実施形態も、本開示に係る、画像処理装置、画像処理方法、撮像システム、及び、画像処理プログラムに関する。
第2の実施形態も、本開示に係る、画像処理装置、画像処理方法、撮像システム、及び、画像処理プログラムに関する。
第2の実施形態は、第1の実施形態に対して、カメラBはBayer配列のカラー画像を撮像すること、及び、これに起因して画像処理装置の動作が一部相違することが主に相違する。同じ被写体を撮像した複数の画像のうち、基準画像はモノクロ画像、他の画像はカラー画像である。
Bayer配列のカメラは、[R,G,G,B]に対応する光電変換素子の群を用いてカラー撮像を行う。従って、白黒撮像に比べて、原理的に解像度は低くなる。
人の目は、輝度変化に対する感度は高いが、色の変化への感度は低いといった特性を持つ。そこで、第2の実施形態では、カメラAの白黒画像から輝度情報を得、カメラBの画像から色情報を得、画像を合成して高解像度のカラー画像を合成する。
第2の実施形態に係る撮像システムは、図1において、撮像システム1を撮像システム2と、画像処理装置100を画像処理装置200と、第1画像補正部111を第1画像補正部211と、位置合わせ部112を位置合わせ部212と、第2画像補正部113を第2画像補正部213と、合成部120を合成部220と、読み替えればよい。
カメラAが撮像した画像を符号10A_BW、カメラBが撮像した画像を符号10B_Bayerで表す。
図8は、本開示の第2の実施形態に係る画像処理装置における動作を説明するためのブロック図である。図9は、図8において位置合わせに関与する部分の詳細を説明するための図である。
尚、説明の都合上、図2、図4、図5との関係を考慮して、第1画像補正部211と位置合わせ部212から成る部分を、符号910Aとして表した。
図8を参照して、位置合わせまでの動作について説明する。画像10A_BWについて、第1の実施形態において画像10Aについて説明した処理と同様の処理(ステップS11A、ステップS12A)を行い、平行化された画像10A_BWmd1を得る。
画像10B_bayerについては、先ず、補完処理を行い(ステップS201B)、1画素にRGB全色が揃っているRGB画像に変換する。変換された画像を符号10B_RGBと現す。
そして、画像10B_RGBについて、第1の実施形態において画像10Bについて説明した処理と同様の処理(ステップS11B、ステップS12B)を行い、平行化された画像10B_RGBmd1を得る。
白黒画像と対比して画像の位置合わせを行う関係上、カラー画像10B_RGBmd1から輝度情報(換言すれば、白黒画像)を生成する必要がある。そこで、カラー画像10B_RGBmd1に基づいて輝度情報を生成する(ステップS202B)。
次いで、画像10A_BWmd1と画像10B_RGBmd1、更には、画像10B_RGBmd1に基づいて生成された輝度情報を用いて、位置合わせ処理(ステップS213B)を行う。ここでは、画像10Amd1を基準として位置合わせをするとして説明する。ステップS213Bを経ることで、カメラA視点に補正されたカメラBの補正後画像10B_RGBmd2が得られる。
図10は、図8において合成処理に関与する部分の詳細を説明するための図である。
図10を参照して、合成処理に至る動作について説明する。第2画像補正部213は、カメラAのオリジナル画像10A_BWに対して位置合わせがされた画像を生成する。具体的には、画像10B_RGBmd2について、逆平行化処理(ステップS21B)を施す。次いで、ステップS21Bを経た画像について、逆レンズ歪補正(ステップS22B)を施す。これによって、カメラBの画像10B_RGBmd2について逆平行化処理と逆レンズ歪補正とがされたカメラBの補正後画像10B_RGBmd3を得る。この処理は、第1の実施形態において説明した処理と同様であるので、説明を省略する。
次いで、画像合成について説明する。図11は、第2の実施形態に係る画像処理装置における画像処理を説明するための模式図である。
第2の実施形態においては、基準画像の輝度情報と、第2画像補正工程によって生成された画像のカラー情報に基づいて、画像合成を行う。
撮像システム2に用いられる画像処理装置200において、合成部220は、カメラAのオリジナル画像10A_BWとカメラBの画像10B_RGBmd3とを用いて合成処理を行う(図10に示すステップS241A)。具体的には、カメラAのオリジナル画像10A_BWの輝度情報と、カメラBの補正後画像10B_RGBmd3の色情報を用いて、画像10A_BWをカラー化した画像を生成する。
この処理は、カメラAのオリジナル画像10A_BWの輝度情報に、カメラBの色情報を重畳するといった処理となる。上述したように、人の目は、輝度変化に対する感度は高いが、色の変化への感度は低い。従って、合成画像される画像は、解像度に優れたカラー画像となる。
以上、第2の実施形態について説明した。
第2の実施形態ではBayer配列の場合について説明したが、他の配列についても、輝度情報を生成するなどして1次元位置合わせをすることができる。従って、撮像部を構成するカメラがどのような色情報を持つものであっても、本開示を適用することができる。
[第3の実施形態]
第3の実施形態も、本開示に係る、画像処理装置、画像処理方法、撮像システム、及び、画像処理プログラムに関する。
第3の実施形態も、本開示に係る、画像処理装置、画像処理方法、撮像システム、及び、画像処理プログラムに関する。
第3の実施形態では、位置合わせ工程で生成された画像に基づいて、基準画像に基づいて生成された画像を基準とする視差情報を格納した視差マップを生成し、次いで、生成された視差マップについて第1画像補正工程における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた視差マップを生成する。そして、基準画像に対して位置合わせがされた視差マップに基づいて、画像合成において被写界深度を制御する。以上の点が、第1の実施形態に対して主に相違する。
第3の実施形態に係る撮像システムは、図1において、撮像システム1を撮像システム3と、画像処理装置100を画像処理装置300と、位置合わせ部112を位置合わせ部312と、第2画像補正部113を第2画像補正部313と、合成部120を合成部320と、読み替えればよい。
撮像部10を構成するカメラAとカメラBとは、第1の実施形態と同様に、共に白黒撮像用であるとする。カメラAが撮像した画像を符号10A、カメラBが撮像した画像を符号10Bで表す。
図12は、本開示の第3の実施形態に係る画像処理装置における動作を説明するためのブロック図である。図13は、図12において位置合わせに関与する部分の詳細を説明するための図である。
尚、説明の都合上、図2、図4、図5との関係を考慮して、第1画像補正部111と位置合わせ部312から成る部分を、符号910Bとして表した。
図13を参照して、位置合わせまでの動作について説明する。位置合わせ直前までの動作、換言すれば、画像10Aから画像10Amd1を生成するまでの処理と、画像10Bから画像10Bmd1を生成するまでの処理とは、第1の実施形態において説明した処理と同様であるので、説明を省略する。
引き続き、位置合わせについて説明する。第1の実施形態と同様に、10Amd1を基準として画像10Bmd1に位置合わせ処理を行う(ステップSB313)。但し、第3の実施形態にあっては、併せて、画素毎の視差量を格納した視差マップDP_MAPを生成する。1次元位置合わせを行った上での視差量であるので、視差マップDP_MAPは、水平方向の画素のズレ量を格納したマップ(ディスパリティマップ)である。
図14は、図12において合成処理に関与する部分の詳細を説明するための図である。
図14を参照して、合成処理に至る動作について説明する。第2画像補正部313は、カメラAのオリジナル画像10Aに対して位置合わせがされた視差マップを生成する。具体的には、視差マップDP_MAPについて、逆平行化処理(ステップS331B)を施す。次いで、ステップS331Bを経た画像について、逆レンズ歪補正(ステップS332B)を施す。これによって、カメラBの視差マップDP_MAPについて逆平行化処理と逆レンズ歪補正とがされたカメラBの補正後視差マップDP_MAPmd1を得る。この処理は、第1の実施形態において、カメラBの画像10Bmd2から画像10Bmd3にする処理を、視差マップDP_MAPについて適用したのと同様の処理であるので、説明を省略する。
次いで、画像合成について説明する。図15は、第3の実施形態に係る画像処理装置における画像処理を説明するための模式図である。
撮像システム3に用いられる画像処理装置300において、合成部320は、カメラAのオリジナル画像10AとカメラBの補正後視差マップDP_MAPmd1とを用いて合成処理を行う(図14に示すステップS341A)。具体的には、カメラAのオリジナル画像10Aの輝度情報と、カメラBの補正後視差マップDP_MAPmd1の情報を用いて、画像10Aの被写界深度を制御した画像(図14に示す画像10A_fmd)を生成する。
この処理は、カメラAのオリジナル画像10Aにおけるフォーカスを、視差マップの値に基づいて調整するといった処理となる。視差マップDP_MAPmd1は、画像10Aの奥行き情報であるので、例えばポートレート風に仕上げる場合には、背景をぼかすといった処理を行えばよい。
尚、画像に奥行きに応じたボケを付加するアプリケーションや、前景と背景を切り分けるアプリケーションなどにも用いることができる。このようなアプリケーションにおいて、解像度劣化を避けたいカメラの画像については画像を変形させず、ディスパリティマップを算出できる点が本開示の利点である。
尚、ディスパリティマップ自体には画像変形による解像度劣化が生じるが、例えば、解像度劣化を避けたカメラの画像を用いてクロスバイラテラルフィルタなどの解像度復元処理を適用し、ディスパリティマップの解像度劣化を補償してもよい。
[第4の実施形態]
第4の実施形態も、本開示に係る、画像処理装置、画像処理方法、撮像システム、及び、画像処理プログラムに関する。
第4の実施形態も、本開示に係る、画像処理装置、画像処理方法、撮像システム、及び、画像処理プログラムに関する。
第4の実施形態は、第2の実施形態に更に第3の実施形態を適用したといった構成である。
第4の実施形態に係る撮像システムは、図1において、撮像システム1を撮像システム4と、画像処理装置100を画像処理装置400と、第1画像補正部111を第1画像補正部411と、位置合わせ部112を位置合わせ部412と、第2画像補正部113を第2画像補正部413と、合成部120を合成部420と、読み替えればよい。
撮像部10を構成するカメラAとカメラBは、第2の実施形態と同様である。カメラAは白黒画像を撮像し、カメラBはBayer配列のカラー画像を撮像する。
カメラAが撮像した画像を符号10A_BW、カメラBが撮像した画像を符号10B_Bayerで表す。
図16は、本開示の第4の実施形態に係る画像処理装置における動作を説明するためのブロック図である。
尚、説明の都合上、図2、図4、図5との関係を考慮して、第1画像補正部411と位置合わせ部412から成る部分を、符号910Cとして表した。
第2の実施形態では、図9に示すステップS213Bにおいて、画像10B_RGBmd2を生成した。第4の実施形態では、併せて、視差マップDP_MAPを生成する。
画像10B_RGBmd2の生成処理は第2の実施形態において説明した処理と同様である。また、視差マップDP_MAPの生成処理は第3の実施形態において説明した処理と同様である。よって、詳しい説明は省略する。
画像10B_RGBmd2の生成処理は第2の実施形態において説明した処理と同様である。また、視差マップDP_MAPの生成処理は第3の実施形態において説明した処理と同様である。よって、詳しい説明は省略する。
次いで、画像合成について説明する。図17は、図16において合成処理に関与する部分の詳細を説明するための図である。図18は、第4の実施形態に係る画像処理装置における画像処理を説明するための模式図である。
第4の実施形態にあっては、基準画像に対して位置合わせがされた視差マップに基づいて、画像合成において被写界深度を制御する。更に、基準画像の輝度情報と、第2画像補正工程によって生成された画像のカラー情報に基づいて、画像合成を行う。
撮像システム4に用いられる画像処理装置400において、合成部420は、カメラAのオリジナル画像10A_BWとカメラBの補正後画像10B_RGBmd2に加え、更に、補正後視差マップDP_MAPmd1とを用いて合成処理を行う(図14に示すステップS441A)。具体的には、カメラAのオリジナル画像10A_BWの輝度情報と、画像10B_RGBmd2の色情報と、視差マップDP_MAPmd1との情報を用いて、画像10A_BWをカラー化し更に被写界深度を制御した画像10A_RGBfmdを生成する。
[第1の応用例]
本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
図19は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図19に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図19では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
ここで、図20は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図20には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920~7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
図19に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX、LTE(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi-Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図19の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
なお、図19に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
本開示に係る技術は、以上説明した構成のうち、例えば、車外情報検出ユニットの撮像部に適用され得る。即ち、解像度の高い画像が取得でき、また、視差マップによる視差情報も得ることができるため、より詳細な情報を得ることが可能になる。
[本開示の構成]
尚、本開示は、以下のような構成をとることもできる。
尚、本開示は、以下のような構成をとることもできる。
[A1]
同じ被写体を撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、基準画像に対して位置合わせがされた画像を生成する画像変形処理部、及び、
基準画像に基づく情報と画像変形処理部によって生成された画像に基づく情報とを用いて画像合成を行う合成部、
を備えている画像処理装置。
[A2]
画像変形処理部は、
同じ被写体を撮像した複数の画像のそれぞれに基づいて、1次元位置合わせが可能な画像を生成する第1画像補正部、
第1画像補正部によって生成された画像について、基準画像に基づいて生成された画像を基準として1次元位置合わせがされた画像を生成する位置合わせ部、及び、
位置合わせ部によって生成された画像のうち、基準画像に基づいて生成された画像を除く画像について第1画像補正部における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた画像を生成する第2画像補正部、
を含む、
上記[A1]に記載の画像処理装置。
[A3]
第1画像補正部は、
レンズ歪補正工程と平行化処理工程とを含む処理を行い、
第2画像補正工程は、
逆平行化処理工程と逆レンズ歪補正工程とを含む処理を行う、
上記[A2]に記載の画像処理装置。
[A4]
レンズ歪補正工程は、所定のレンズ係数を用いた演算処理から成り、
逆レンズ歪補正工程は、前記所定のレンズ係数とは異なる係数を用いた演算処理から成る、
上記[A3]に記載の画像処理装置。
[A5]
平行化処理工程は、所定の行列を用いた演算処理から成り、
逆平行化処理工程は、前記所定の行列とは異なる行列を用いた演算処理から成る、
上記[A3]または[A4]に記載の画像処理装置。
[A6]
平行化処理工程に用いられる行列と逆平行化処理工程に用いられる行列とは、一方が他方の逆行列の関係にある、
上記[A5]に記載の画像処理装置。
[A7]
同じ被写体を撮像した複数の画像のうち、基準画像はモノクロ画像、他の画像はカラー画像である、
上記[A1]ないし[A6]のいずれかに記載の画像処理装置。
[A8]
基準画像の輝度情報と、第2画像補正工程によって生成された画像のカラー情報に基づいて、画像合成を行う、
上記[A7]に記載の画像処理装置。
[A9]
画像変形処理部は、更に、
位置合わせ部で生成された画像に基づいて、基準画像に基づいて生成された画像を基準とする視差情報を格納した視差マップを生成する工程、及び、
生成された視差マップについて第1画像補正部における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた視差マップを生成する工程、
を行う、
上記[A2]ないし[A8]のいずれかに記載の画像処理装置。
[A10]
基準画像に対して位置合わせがされた視差マップに基づいて、画像合成において被写界深度を制御する、
上記[A9]に記載の画像処理装置。
[A11]
同じ被写体を撮像した複数の画像のうち、基準画像はモノクロ画像、他の画像はカラー画像であり、
基準画像の輝度情報と、第2画像補正工程によって生成された画像のカラー情報に基づいて、画像合成を行う、
上記[A10]に記載の画像処理装置。
同じ被写体を撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、基準画像に対して位置合わせがされた画像を生成する画像変形処理部、及び、
基準画像に基づく情報と画像変形処理部によって生成された画像に基づく情報とを用いて画像合成を行う合成部、
を備えている画像処理装置。
[A2]
画像変形処理部は、
同じ被写体を撮像した複数の画像のそれぞれに基づいて、1次元位置合わせが可能な画像を生成する第1画像補正部、
第1画像補正部によって生成された画像について、基準画像に基づいて生成された画像を基準として1次元位置合わせがされた画像を生成する位置合わせ部、及び、
位置合わせ部によって生成された画像のうち、基準画像に基づいて生成された画像を除く画像について第1画像補正部における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた画像を生成する第2画像補正部、
を含む、
上記[A1]に記載の画像処理装置。
[A3]
第1画像補正部は、
レンズ歪補正工程と平行化処理工程とを含む処理を行い、
第2画像補正工程は、
逆平行化処理工程と逆レンズ歪補正工程とを含む処理を行う、
上記[A2]に記載の画像処理装置。
[A4]
レンズ歪補正工程は、所定のレンズ係数を用いた演算処理から成り、
逆レンズ歪補正工程は、前記所定のレンズ係数とは異なる係数を用いた演算処理から成る、
上記[A3]に記載の画像処理装置。
[A5]
平行化処理工程は、所定の行列を用いた演算処理から成り、
逆平行化処理工程は、前記所定の行列とは異なる行列を用いた演算処理から成る、
上記[A3]または[A4]に記載の画像処理装置。
[A6]
平行化処理工程に用いられる行列と逆平行化処理工程に用いられる行列とは、一方が他方の逆行列の関係にある、
上記[A5]に記載の画像処理装置。
[A7]
同じ被写体を撮像した複数の画像のうち、基準画像はモノクロ画像、他の画像はカラー画像である、
上記[A1]ないし[A6]のいずれかに記載の画像処理装置。
[A8]
基準画像の輝度情報と、第2画像補正工程によって生成された画像のカラー情報に基づいて、画像合成を行う、
上記[A7]に記載の画像処理装置。
[A9]
画像変形処理部は、更に、
位置合わせ部で生成された画像に基づいて、基準画像に基づいて生成された画像を基準とする視差情報を格納した視差マップを生成する工程、及び、
生成された視差マップについて第1画像補正部における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた視差マップを生成する工程、
を行う、
上記[A2]ないし[A8]のいずれかに記載の画像処理装置。
[A10]
基準画像に対して位置合わせがされた視差マップに基づいて、画像合成において被写界深度を制御する、
上記[A9]に記載の画像処理装置。
[A11]
同じ被写体を撮像した複数の画像のうち、基準画像はモノクロ画像、他の画像はカラー画像であり、
基準画像の輝度情報と、第2画像補正工程によって生成された画像のカラー情報に基づいて、画像合成を行う、
上記[A10]に記載の画像処理装置。
[B1]
同じ被写体を撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、基準画像に対して位置合わせがされた画像を生成する画像変形処理を行い、
基準画像に基づく情報と画像変形処理によって生成された画像に基づく情報とを用いて画像合成を行う、
画像処理方法。
[B2]
画像変形処理は、
同じ被写体を撮像した複数の画像のそれぞれに基づいて、1次元位置合わせが可能な画像を生成する第1画像補正工程、
第1画像補正工程によって生成された画像について、基準画像に基づいて生成された画像を基準として1次元位置合わせがされた画像を生成する位置合わせ工程、及び、
位置合わせ工程によって生成された画像のうち、基準画像に基づいて生成された画像を除く画像について第1画像補正工程における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた画像を生成する第2画像補正工程、
を含む、
上記[B1]に記載の画像処理方法。
[B3]
第1画像補正工程は、
レンズ歪補正工程と平行化処理工程とを含み、
第2画像補正工程は、
逆平行化処理工程と逆レンズ歪補正工程とを含む、
上記[B2]に記載の画像処理方法。
[B4]
レンズ歪補正工程は、所定のレンズ係数を用いた演算処理から成り、
逆レンズ歪補正工程は、前記所定のレンズ係数とは異なる係数を用いた演算処理から成る、
上記[B3]に記載の画像処理方法。
[B5]
平行化処理工程は、所定の行列を用いた演算処理から成り、
逆平行化処理工程は、前記所定の行列とは異なる行列を用いた演算処理から成る、
上記[B3]または[B4]に記載の画像処理方法。
[B6]
平行化処理工程に用いられる行列と逆平行化処理工程に用いられる行列とは、一方が他方の逆行列の関係にある、
上記[B5]に記載の画像処理方法。
[B7]
同じ被写体を撮像した複数の画像のうち、基準画像はモノクロ画像、他の画像はカラー画像である、
上記[B1]ないし[B6]のいずれかに記載の画像処理方法。
[B8]
基準画像の輝度情報と、第2画像補正工程によって生成された画像のカラー情報に基づいて、画像合成を行う、
上記[B7]のいずれかに記載の画像処理方法。
[B9]
画像変形処理は、更に、
位置合わせ工程で生成された画像に基づいて、基準画像に基づいて生成された画像を基準とする視差情報を格納した視差マップを生成する工程、及び、
生成された視差マップについて第1画像補正工程における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた視差マップを生成する工程、
を含む、
上記[B2]ないし[B8]のいずれかに記載の画像処理方法。
[B10]
基準画像に対して位置合わせがされた視差マップに基づいて、画像合成において被写界深度を制御する、
上記[B9]に記載の画像処理方法。
[B11]
同じ被写体を撮像した複数の画像のうち、基準画像はモノクロ画像、他の画像はカラー画像であり、
基準画像の輝度情報と、第2画像補正工程によって生成された画像のカラー情報に基づいて、画像合成を行う、
上記[B10]に記載の画像処理方法。
同じ被写体を撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、基準画像に対して位置合わせがされた画像を生成する画像変形処理を行い、
基準画像に基づく情報と画像変形処理によって生成された画像に基づく情報とを用いて画像合成を行う、
画像処理方法。
[B2]
画像変形処理は、
同じ被写体を撮像した複数の画像のそれぞれに基づいて、1次元位置合わせが可能な画像を生成する第1画像補正工程、
第1画像補正工程によって生成された画像について、基準画像に基づいて生成された画像を基準として1次元位置合わせがされた画像を生成する位置合わせ工程、及び、
位置合わせ工程によって生成された画像のうち、基準画像に基づいて生成された画像を除く画像について第1画像補正工程における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた画像を生成する第2画像補正工程、
を含む、
上記[B1]に記載の画像処理方法。
[B3]
第1画像補正工程は、
レンズ歪補正工程と平行化処理工程とを含み、
第2画像補正工程は、
逆平行化処理工程と逆レンズ歪補正工程とを含む、
上記[B2]に記載の画像処理方法。
[B4]
レンズ歪補正工程は、所定のレンズ係数を用いた演算処理から成り、
逆レンズ歪補正工程は、前記所定のレンズ係数とは異なる係数を用いた演算処理から成る、
上記[B3]に記載の画像処理方法。
[B5]
平行化処理工程は、所定の行列を用いた演算処理から成り、
逆平行化処理工程は、前記所定の行列とは異なる行列を用いた演算処理から成る、
上記[B3]または[B4]に記載の画像処理方法。
[B6]
平行化処理工程に用いられる行列と逆平行化処理工程に用いられる行列とは、一方が他方の逆行列の関係にある、
上記[B5]に記載の画像処理方法。
[B7]
同じ被写体を撮像した複数の画像のうち、基準画像はモノクロ画像、他の画像はカラー画像である、
上記[B1]ないし[B6]のいずれかに記載の画像処理方法。
[B8]
基準画像の輝度情報と、第2画像補正工程によって生成された画像のカラー情報に基づいて、画像合成を行う、
上記[B7]のいずれかに記載の画像処理方法。
[B9]
画像変形処理は、更に、
位置合わせ工程で生成された画像に基づいて、基準画像に基づいて生成された画像を基準とする視差情報を格納した視差マップを生成する工程、及び、
生成された視差マップについて第1画像補正工程における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた視差マップを生成する工程、
を含む、
上記[B2]ないし[B8]のいずれかに記載の画像処理方法。
[B10]
基準画像に対して位置合わせがされた視差マップに基づいて、画像合成において被写界深度を制御する、
上記[B9]に記載の画像処理方法。
[B11]
同じ被写体を撮像した複数の画像のうち、基準画像はモノクロ画像、他の画像はカラー画像であり、
基準画像の輝度情報と、第2画像補正工程によって生成された画像のカラー情報に基づいて、画像合成を行う、
上記[B10]に記載の画像処理方法。
[C1]
同じ被写体について複数の画像を撮像する撮像部、
撮像部が撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、基準画像に対して位置合わせがされた画像を生成する画像変形処理部、及び、
基準画像に基づく情報と画像変形処理部によって生成された画像に基づく情報とを用いて画像合成を行う合成部、
を備えている撮像システム。
[C2]
画像変形処理部は、
同じ被写体を撮像した複数の画像のそれぞれに基づいて、1次元位置合わせが可能な画像を生成する第1画像補正部、
第1画像補正部によって生成された画像について、基準画像に基づいて生成された画像を基準として1次元位置合わせがされた画像を生成する位置合わせ部、及び、
位置合わせ部によって生成された画像のうち、基準画像に基づいて生成された画像を除く画像について第1画像補正部における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた画像を生成する第2画像補正部、
を含む、
上記[C1]に記載の撮像システム。
[C3]
第1画像補正部は、
レンズ歪補正工程と平行化処理工程とを含む処理を行い、
第2画像補正工程は、
逆平行化処理工程と逆レンズ歪補正工程とを含む処理を行う、
上記[C2]に記載の撮像システム。
[C4]
レンズ歪補正工程は、所定のレンズ係数を用いた演算処理から成り、
逆レンズ歪補正工程は、前記所定のレンズ係数とは異なる係数を用いた演算処理から成る、
上記[C3]に記載の撮像システム。
[C5]
平行化処理工程は、所定の行列を用いた演算処理から成り、
逆平行化処理工程は、前記所定の行列とは異なる行列を用いた演算処理から成る、
上記[C3]または[C4]に記載の撮像システム。
[C6]
平行化処理工程に用いられる行列と逆平行化処理工程に用いられる行列とは、一方が他方の逆行列の関係にある、
上記[C5]に記載の撮像システム。
[C7]
同じ被写体を撮像した複数の画像のうち、基準画像はモノクロ画像、他の画像はカラー画像である、
上記[C1]ないし[C6]のいずれかに記載の撮像システム。
[C8]
基準画像の輝度情報と、第2画像補正工程によって生成された画像のカラー情報に基づいて、画像合成を行う、
上記[C7]に記載の撮像システム。
[C9]
画像変形処理部は、更に、
位置合わせ部で生成された画像に基づいて、基準画像に基づいて生成された画像を基準とする視差情報を格納した視差マップを生成する工程、及び、
生成された視差マップについて第1画像補正部における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた視差マップを生成する工程、
を行う、
上記[C2]ないし[C8]のいずれかに記載の撮像システム。
[C10]
基準画像に対して位置合わせがされた視差マップに基づいて、画像合成において被写界深度を制御する、
上記[C9]に記載の撮像システム。
[C11]
同じ被写体を撮像した複数の画像のうち、基準画像はモノクロ画像、他の画像はカラー画像であり、
基準画像の輝度情報と、第2画像補正工程によって生成された画像のカラー情報に基づいて、画像合成を行う、
上記[C10]に記載の撮像システム。
同じ被写体について複数の画像を撮像する撮像部、
撮像部が撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、基準画像に対して位置合わせがされた画像を生成する画像変形処理部、及び、
基準画像に基づく情報と画像変形処理部によって生成された画像に基づく情報とを用いて画像合成を行う合成部、
を備えている撮像システム。
[C2]
画像変形処理部は、
同じ被写体を撮像した複数の画像のそれぞれに基づいて、1次元位置合わせが可能な画像を生成する第1画像補正部、
第1画像補正部によって生成された画像について、基準画像に基づいて生成された画像を基準として1次元位置合わせがされた画像を生成する位置合わせ部、及び、
位置合わせ部によって生成された画像のうち、基準画像に基づいて生成された画像を除く画像について第1画像補正部における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた画像を生成する第2画像補正部、
を含む、
上記[C1]に記載の撮像システム。
[C3]
第1画像補正部は、
レンズ歪補正工程と平行化処理工程とを含む処理を行い、
第2画像補正工程は、
逆平行化処理工程と逆レンズ歪補正工程とを含む処理を行う、
上記[C2]に記載の撮像システム。
[C4]
レンズ歪補正工程は、所定のレンズ係数を用いた演算処理から成り、
逆レンズ歪補正工程は、前記所定のレンズ係数とは異なる係数を用いた演算処理から成る、
上記[C3]に記載の撮像システム。
[C5]
平行化処理工程は、所定の行列を用いた演算処理から成り、
逆平行化処理工程は、前記所定の行列とは異なる行列を用いた演算処理から成る、
上記[C3]または[C4]に記載の撮像システム。
[C6]
平行化処理工程に用いられる行列と逆平行化処理工程に用いられる行列とは、一方が他方の逆行列の関係にある、
上記[C5]に記載の撮像システム。
[C7]
同じ被写体を撮像した複数の画像のうち、基準画像はモノクロ画像、他の画像はカラー画像である、
上記[C1]ないし[C6]のいずれかに記載の撮像システム。
[C8]
基準画像の輝度情報と、第2画像補正工程によって生成された画像のカラー情報に基づいて、画像合成を行う、
上記[C7]に記載の撮像システム。
[C9]
画像変形処理部は、更に、
位置合わせ部で生成された画像に基づいて、基準画像に基づいて生成された画像を基準とする視差情報を格納した視差マップを生成する工程、及び、
生成された視差マップについて第1画像補正部における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた視差マップを生成する工程、
を行う、
上記[C2]ないし[C8]のいずれかに記載の撮像システム。
[C10]
基準画像に対して位置合わせがされた視差マップに基づいて、画像合成において被写界深度を制御する、
上記[C9]に記載の撮像システム。
[C11]
同じ被写体を撮像した複数の画像のうち、基準画像はモノクロ画像、他の画像はカラー画像であり、
基準画像の輝度情報と、第2画像補正工程によって生成された画像のカラー情報に基づいて、画像合成を行う、
上記[C10]に記載の撮像システム。
[D1]
同じ被写体を撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、基準画像に対して位置合わせがされた画像を生成する画像変形処理ステップ、及び、
基準画像に基づく情報と画像変形処理によって生成された画像に基づく情報とを用いて画像合成を行うステップ、
を含む処理をコンピュータに実行させるための画像処理プログラム。
[D2]
画像変形処理ステップは、
同じ被写体を撮像した複数の画像のそれぞれに基づいて、1次元位置合わせが可能な画像を生成する第1画像補正ステップ、
第1画像補正ステップによって生成された画像について、基準画像に基づいて生成された画像を基準として1次元位置合わせがされた画像を生成する位置合わせステップ、及び、
位置合わせステップによって生成された画像のうち、基準画像に基づいて生成された画像を除く画像について第1画像補正ステップにおける演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた画像を生成する第2画像補正ステップ、
を含む、
上記[D1]に記載の画像処理プログラム。
[D3]
第1画像補正ステップは、
レンズ歪補正ステップと平行化処理ステップとを含み、
第2画像補正ステップは、
逆平行化処理ステップと逆レンズ歪補正ステップとを含む、
上記[D2]に記載の画像処理プログラム。
[D4]
レンズ歪補正ステップは、所定のレンズ係数を用いた演算処理から成り、
逆レンズ歪補正ステップは、前記所定のレンズ係数とは異なる係数を用いた演算処理から成る、
上記[D3]に記載の画像処理プログラム。
[D5]
平行化処理ステップは、所定の行列を用いた演算処理から成り、
逆平行化処理ステップは、前記所定の行列とは異なる行列を用いた演算処理から成る、
上記[D3]または[D4]に記載の画像処理プログラム。
[D6]
平行化処理ステップに用いられる行列と逆平行化処理ステップに用いられる行列とは、一方が他方の逆行列の関係にある、
上記[D5]に記載の画像処理プログラム。
[D7]
同じ被写体を撮像した複数の画像のうち、基準画像はモノクロ画像、他の画像はカラー画像である、
上記[D1]ないし[D6]のいずれかに記載の画像処理プログラム。
[D8]
基準画像の輝度情報と、第2画像補正ステップによって生成された画像のカラー情報に基づいて、画像合成を行う、
上記[D7]のいずれかに記載の画像処理プログラム。
[D9]
画像変形処理は、更に、
位置合わせステップで生成された画像に基づいて、基準画像に基づいて生成された画像を基準とする視差情報を格納した視差マップを生成するステップ、及び、
生成された視差マップについて第1画像補正ステップにおける演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた視差マップを生成するステップ、
を含む、
上記[D2]ないし[D8]のいずれかに記載の画像処理プログラム。
[D10]
基準画像に対して位置合わせがされた視差マップに基づいて、画像合成において被写界深度を制御する、
上記[D9]に記載の画像処理プログラム。
[D11]
同じ被写体を撮像した複数の画像のうち、基準画像はモノクロ画像、他の画像はカラー画像であり、
基準画像の輝度情報と、第2画像補正ステップによって生成された画像のカラー情報に基づいて、画像合成を行う、
上記[D10]に記載の画像処理プログラム。
同じ被写体を撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、基準画像に対して位置合わせがされた画像を生成する画像変形処理ステップ、及び、
基準画像に基づく情報と画像変形処理によって生成された画像に基づく情報とを用いて画像合成を行うステップ、
を含む処理をコンピュータに実行させるための画像処理プログラム。
[D2]
画像変形処理ステップは、
同じ被写体を撮像した複数の画像のそれぞれに基づいて、1次元位置合わせが可能な画像を生成する第1画像補正ステップ、
第1画像補正ステップによって生成された画像について、基準画像に基づいて生成された画像を基準として1次元位置合わせがされた画像を生成する位置合わせステップ、及び、
位置合わせステップによって生成された画像のうち、基準画像に基づいて生成された画像を除く画像について第1画像補正ステップにおける演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた画像を生成する第2画像補正ステップ、
を含む、
上記[D1]に記載の画像処理プログラム。
[D3]
第1画像補正ステップは、
レンズ歪補正ステップと平行化処理ステップとを含み、
第2画像補正ステップは、
逆平行化処理ステップと逆レンズ歪補正ステップとを含む、
上記[D2]に記載の画像処理プログラム。
[D4]
レンズ歪補正ステップは、所定のレンズ係数を用いた演算処理から成り、
逆レンズ歪補正ステップは、前記所定のレンズ係数とは異なる係数を用いた演算処理から成る、
上記[D3]に記載の画像処理プログラム。
[D5]
平行化処理ステップは、所定の行列を用いた演算処理から成り、
逆平行化処理ステップは、前記所定の行列とは異なる行列を用いた演算処理から成る、
上記[D3]または[D4]に記載の画像処理プログラム。
[D6]
平行化処理ステップに用いられる行列と逆平行化処理ステップに用いられる行列とは、一方が他方の逆行列の関係にある、
上記[D5]に記載の画像処理プログラム。
[D7]
同じ被写体を撮像した複数の画像のうち、基準画像はモノクロ画像、他の画像はカラー画像である、
上記[D1]ないし[D6]のいずれかに記載の画像処理プログラム。
[D8]
基準画像の輝度情報と、第2画像補正ステップによって生成された画像のカラー情報に基づいて、画像合成を行う、
上記[D7]のいずれかに記載の画像処理プログラム。
[D9]
画像変形処理は、更に、
位置合わせステップで生成された画像に基づいて、基準画像に基づいて生成された画像を基準とする視差情報を格納した視差マップを生成するステップ、及び、
生成された視差マップについて第1画像補正ステップにおける演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた視差マップを生成するステップ、
を含む、
上記[D2]ないし[D8]のいずれかに記載の画像処理プログラム。
[D10]
基準画像に対して位置合わせがされた視差マップに基づいて、画像合成において被写界深度を制御する、
上記[D9]に記載の画像処理プログラム。
[D11]
同じ被写体を撮像した複数の画像のうち、基準画像はモノクロ画像、他の画像はカラー画像であり、
基準画像の輝度情報と、第2画像補正ステップによって生成された画像のカラー情報に基づいて、画像合成を行う、
上記[D10]に記載の画像処理プログラム。
1,2,3,4,9・・・撮像システム、10・・・撮像部、10A・・・カメラA画像、10B・・・カメラB画像、11A・・・カメラAレンズ歪補正係数、11B・・・カメラBレンズ歪補正係数、12A・・・カメラA平行化行列(逆行列)、12B・・・カメラB平行化行列、21A・・・カメラA平行化行列、22A・・・カメラA逆レンズ歪補正係数、100,200,300,400,900・・・画像処理装置、110,910,910A,910B,910C・・・画像変形処理部、111,211,411・・・第1画像補正部、112,212,312,412・・・位置合わせ部、113,313,413・・・第2画像補正部、120,220,320,420・・・合成部
Claims (17)
- 同じ被写体を撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、基準画像に対して位置合わせがされた画像を生成する画像変形処理部、及び、
基準画像に基づく情報と画像変形処理部によって生成された画像に基づく情報とを用いて画像合成を行う合成部、
を備えている画像処理装置。 - 画像変形処理部は、
同じ被写体を撮像した複数の画像のそれぞれに基づいて、1次元位置合わせが可能な画像を生成する第1画像補正部、
第1画像補正部によって生成された画像について、基準画像に基づいて生成された画像を基準として1次元位置合わせがされた画像を生成する位置合わせ部、及び、
位置合わせ部によって生成された画像のうち、基準画像に基づいて生成された画像を除く画像について第1画像補正部における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた画像を生成する第2画像補正部、
を含む、
請求項1に記載の画像処理装置。 - 同じ被写体を撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、基準画像に対して位置合わせがされた画像を生成する画像変形処理を行い、
基準画像に基づく情報と画像変形処理によって生成された画像に基づく情報とを用いて画像合成を行う、
画像処理方法。 - 画像変形処理は、
同じ被写体を撮像した複数の画像のそれぞれに基づいて、1次元位置合わせが可能な画像を生成する第1画像補正工程、
第1画像補正工程によって生成された画像について、基準画像に基づいて生成された画像を基準として1次元位置合わせがされた画像を生成する位置合わせ工程、及び、
位置合わせ工程によって生成された画像のうち、基準画像に基づいて生成された画像を除く画像について第1画像補正工程における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた画像を生成する第2画像補正工程、
を含む、
請求項3に記載の画像処理方法。 - 第1画像補正工程は、
レンズ歪補正工程と平行化処理工程とを含み、
第2画像補正工程は、
逆平行化処理工程と逆レンズ歪補正工程とを含む、
請求項4に記載の画像処理方法。 - レンズ歪補正工程は、所定のレンズ係数を用いた演算処理から成り、
逆レンズ歪補正工程は、前記所定のレンズ係数とは異なる係数を用いた演算処理から成る、
請求項5に記載の画像処理方法。 - 平行化処理工程は、所定の行列を用いた演算処理から成り、
逆平行化処理工程は、前記所定の行列とは異なる行列を用いた演算処理から成る、
請求項5に記載の画像処理方法。 - 平行化処理工程に用いられる行列と逆平行化処理工程に用いられる行列とは、一方が他方の逆行列の関係にある、
請求項7に記載の画像処理方法。 - 同じ被写体を撮像した複数の画像のうち、基準画像はモノクロ画像、他の画像はカラー画像である、
請求項3に記載の画像処理方法。 - 基準画像の輝度情報と、第2画像補正工程によって生成された画像のカラー情報に基づいて、画像合成を行う、
請求項9に記載の画像処理方法。 - 画像変形処理は、更に、
位置合わせ工程で生成された画像に基づいて、基準画像に基づいて生成された画像を基準とする視差情報を格納した視差マップを生成する工程、及び、
生成された視差マップについて第1画像補正工程における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた視差マップを生成する工程、
を含む、
請求項4に記載の画像処理方法。 - 基準画像に対して位置合わせがされた視差マップに基づいて、画像合成において被写界深度を制御する、
請求項11に記載の画像処理方法。 - 同じ被写体を撮像した複数の画像のうち、基準画像はモノクロ画像、他の画像はカラー画像であり、
基準画像の輝度情報と、第2画像補正工程によって生成された画像のカラー情報に基づいて、画像合成を行う、
請求項12に記載の画像処理方法。 - 同じ被写体について複数の画像を撮像する撮像部、
撮像部が撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、基準画像に対して位置合わせがされた画像を生成する画像変形処理部、及び、
基準画像に基づく情報と画像変形処理部によって生成された画像に基づく情報とを用いて画像合成を行う合成部、
を備えている撮像システム。 - 画像変形処理部は、
同じ被写体を撮像した複数の画像のそれぞれに基づいて、1次元位置合わせが可能な画像を生成する第1画像補正部、
第1画像補正部によって生成された画像について、基準画像に基づいて生成された画像を基準として1次元位置合わせがされた画像を生成する位置合わせ部、及び、
位置合わせ部によって生成された画像のうち、基準画像に基づいて生成された画像を除く画像について第1画像補正部における演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた画像を生成する第2画像補正部、
を含む、
請求項14に記載の撮像システム。 - 同じ被写体を撮像した複数の画像のうちの1つを基準画像とし、複数の画像のそれぞれに基づいて1次元位置合わせが可能な画像を生成したのちに変形させ、基準画像に対して位置合わせがされた画像を生成する画像変形処理ステップ、及び、
基準画像に基づく情報と画像変形処理によって生成された画像に基づく情報とを用いて画像合成を行うステップ、
を含む処理をコンピュータに実行させるための画像処理プログラム。 - 画像変形処理ステップは、
同じ被写体を撮像した複数の画像のそれぞれに基づいて、1次元位置合わせが可能な画像を生成する第1画像補正ステップ、
第1画像補正ステップによって生成された画像について、基準画像に基づいて生成された画像を基準として1次元位置合わせがされた画像を生成する位置合わせステップ、及び、
位置合わせステップによって生成された画像のうち、基準画像に基づいて生成された画像を除く画像について第1画像補正ステップにおける演算処理と逆の演算処理を施すことによって、基準画像に対して位置合わせがされた画像を生成する第2画像補正ステップ、
を含む、
請求項16に記載の画像処理プログラム。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016217846A JP2018078404A (ja) | 2016-11-08 | 2016-11-08 | 画像処理装置、画像処理方法、撮像システム、及び、画像処理プログラム |
| JP2016-217846 | 2016-11-08 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2018088016A1 true WO2018088016A1 (ja) | 2018-05-17 |
Family
ID=62109643
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2017/032496 Ceased WO2018088016A1 (ja) | 2016-11-08 | 2017-09-08 | 画像処理装置、画像処理方法、撮像システム、及び、画像処理プログラム |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP2018078404A (ja) |
| WO (1) | WO2018088016A1 (ja) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10929982B2 (en) * | 2019-01-25 | 2021-02-23 | Google Llc | Face pose correction based on depth information |
| US12309500B2 (en) * | 2019-12-13 | 2025-05-20 | Sony Group Corporation | Trans-spectral feature detection for volumetric image alignment and colorization |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004072677A (ja) * | 2002-08-09 | 2004-03-04 | Sharp Corp | 画像合成装置、画像合成方法、画像合成プログラム、および画像合成プログラムを記録した記録媒体 |
| JP2013093836A (ja) * | 2011-10-03 | 2013-05-16 | Canon Inc | 撮像装置、画像処理装置およびその方法 |
| JP2016122947A (ja) * | 2014-12-25 | 2016-07-07 | キヤノン株式会社 | 画像処理装置 |
-
2016
- 2016-11-08 JP JP2016217846A patent/JP2018078404A/ja active Pending
-
2017
- 2017-09-08 WO PCT/JP2017/032496 patent/WO2018088016A1/ja not_active Ceased
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004072677A (ja) * | 2002-08-09 | 2004-03-04 | Sharp Corp | 画像合成装置、画像合成方法、画像合成プログラム、および画像合成プログラムを記録した記録媒体 |
| JP2013093836A (ja) * | 2011-10-03 | 2013-05-16 | Canon Inc | 撮像装置、画像処理装置およびその方法 |
| JP2016122947A (ja) * | 2014-12-25 | 2016-07-07 | キヤノン株式会社 | 画像処理装置 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2018078404A (ja) | 2018-05-17 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10957029B2 (en) | Image processing device and image processing method | |
| JP6977821B2 (ja) | 画像処理装置と画像処理方法 | |
| WO2018163725A1 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
| US10704957B2 (en) | Imaging device and imaging method | |
| WO2018074252A1 (ja) | 画像処理装置および画像処理方法 | |
| JP6977722B2 (ja) | 撮像装置、および画像処理システム | |
| WO2018179671A1 (ja) | 画像処理装置と画像処理方法および撮像装置 | |
| JP6981416B2 (ja) | 画像処理装置と画像処理方法 | |
| JP2022079483A (ja) | 固体撮像装置 | |
| WO2018150683A1 (ja) | 情報処理装置と情報処理方法とプログラムおよび撮像装置 | |
| WO2018016151A1 (ja) | 画像処理装置と画像処理方法 | |
| WO2018016150A1 (ja) | 画像処理装置と画像処理方法 | |
| JPWO2019142660A1 (ja) | 画像処理装置および画像処理方法、並びにプログラム | |
| WO2018088016A1 (ja) | 画像処理装置、画像処理方法、撮像システム、及び、画像処理プログラム | |
| US20230412923A1 (en) | Signal processing device, imaging device, and signal processing method | |
| WO2018034157A1 (ja) | 画像処理装置、画像処理方法、および撮像装置 | |
| WO2024150690A1 (ja) | 固体撮像装置 | |
| WO2019111651A1 (ja) | 撮像システム、画像処理装置、及び、画像処理方法 | |
| WO2024237021A1 (ja) | 情報処理装置および情報処理方法、並びにプログラム | |
| JP2018011246A (ja) | 固体撮像装置、補正方法、および電子装置 | |
| WO2022181265A1 (ja) | 画像処理装置、画像処理方法及び画像処理システム | |
| JP2021180459A (ja) | 撮像装置及びプログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17870451 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 17870451 Country of ref document: EP Kind code of ref document: A1 |