WO2017154293A1 - 画像処理装置、撮像装置、および画像処理方法、並びにプログラム - Google Patents
画像処理装置、撮像装置、および画像処理方法、並びにプログラム Download PDFInfo
- Publication number
- WO2017154293A1 WO2017154293A1 PCT/JP2016/086062 JP2016086062W WO2017154293A1 WO 2017154293 A1 WO2017154293 A1 WO 2017154293A1 JP 2016086062 W JP2016086062 W JP 2016086062W WO 2017154293 A1 WO2017154293 A1 WO 2017154293A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- white
- unit
- frequency
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/13—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
- H04N23/6812—Motion detection based on additional sensors, e.g. acceleration sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/84—Camera processing pipelines; Components thereof for processing colour signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/84—Camera processing pipelines; Components thereof for processing colour signals
- H04N23/88—Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/133—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing panchromatic light, e.g. filters passing white light
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/134—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/646—Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
- H04N23/6811—Motion detection based on the image signal
Definitions
- the present disclosure relates to an image processing device, an imaging device, an image processing method, and a program.
- the present invention relates to an image processing apparatus, an imaging apparatus, an image processing method, and a program that perform correction processing for false colors generated in an image.
- a color different from the actual color of the photographic subject that is, a so-called false color may occur in the captured image.
- the image sensor is provided with a color filter made of, for example, an RGB array, and incident light via the color filter reaches the image sensor and outputs an electrical signal corresponding to each incident light quantity.
- a false color is likely to occur in a so-called high-frequency signal region where the luminance per unit area or the amount of change in the color signal is large.
- false colors tend to be more likely to occur.
- Patent Document 1 Japanese Patent Laid-Open No. 2013-26672
- Patent Document 1 Japanese Patent Laid-Open No. 2013-26672
- an image sensor image sensor
- an image sensor having a W pixel array composed of only white (W) pixels.
- a configuration is disclosed in which color correction is performed using two captured images using an image sensor.
- the captured image by the image pickup device (image sensor) having the RGB pixel array includes a region where false colors are likely to occur and a region where the false color hardly occurs. These regions are discriminated and optimum processing is performed in units of regions. If this is not done, the correct subject color cannot be reproduced. Further, in order to use two images of the RGB image and the W image, it is necessary to shoot two image sensors side by side, and a positional shift based on parallax occurs between the two images. In order to correct the above-described region-by-region correction, it is necessary to detect the image characteristics of the region unit after performing the alignment for eliminating the misalignment between the two images and perform the optimum correction in the region unit. is there.
- Patent Document 1 described above describes false color correction using captured images of two image sensors, an RGB array image sensor (image sensor) and a white (W) pixel array image sensor (image sensor).
- RGB array image sensor image sensor
- W white pixel array image sensor
- the present disclosure has been made in view of the above-described problems, and 2 was captured using an image sensor for normal color image shooting, such as an RGB array image sensor, and an image sensor with a white (W) pixel array.
- Image processing that uses a single image, optimizes the correction mode according to the characteristics of each image area, and generates high-quality images with reduced false colors by optimal image correction according to the image characteristics of each image area It is an object to provide an apparatus, an imaging apparatus, an image processing method, and a program.
- the first aspect of the present disclosure is: Image processing for inputting a color image and a white (W) image photographed by a W array imaging device in which all pixels are white (W) pixel arrays and executing image processing for reducing false colors included in the color image Part
- the image processing unit A frequency-corresponding parameter calculating unit that inputs the white (W) image and calculates a frequency-corresponding parameter for each image area of the white (W) image;
- a positional deviation correspondence parameter calculating unit that inputs the white (W) image and the color image and calculates a positional deviation correspondence parameter in units of image areas of the two input images;
- An image correction unit that calculates a correction pixel value by executing a blend process in which a blend ratio of the white (W) image and the color image is controlled according to values of the frequency-corresponding parameter and the positional deviation-corresponding parameter.
- the second aspect of the present disclosure is: A first imaging unit having a W array imaging device in which all pixels are white (W) pixel arrays, and capturing a white (W) image; A second imaging unit having an RGB array imaging device having an RGB pixel array and capturing a color image; An image processing unit that inputs the white (W) image and the color image and executes image processing to reduce false colors included in the color image; The image processing unit A frequency-corresponding parameter calculating unit that inputs the white (W) image and calculates a frequency-corresponding parameter for each image area of the white (W) image; A positional deviation correspondence parameter calculating unit that inputs the white (W) image and the color image and calculates a positional deviation correspondence parameter in units of image areas of the two input images; An image correction unit that calculates a correction pixel value by executing a blend process in which a blend ratio of the white (W) image and the color image is controlled according to values of the frequency-corresponding parameter and the positional deviation-corresponding parameter.
- An imaging apparatus having a W array imaging
- the third aspect of the present disclosure is: An image processing method executed in an image processing apparatus,
- the image processing apparatus includes: Image processing for inputting a color image and a white (W) image photographed by a W array imaging device in which all pixels are white (W) pixel arrays and executing image processing for reducing false colors included in the color image Part
- the image processing unit A frequency corresponding parameter calculation process for inputting the white (W) image and calculating a frequency corresponding parameter for each image area of the white (W) image;
- a positional deviation corresponding parameter calculation process for inputting the white (W) image and the color image and calculating a positional deviation corresponding parameter for each input image area;
- the fourth aspect of the present disclosure is: An image processing method executed in the imaging apparatus,
- the imaging device A first imaging unit having a W array imaging device in which all pixels are white (W) pixel arrays, and capturing a white (W) image;
- a second imaging unit having an RGB array imaging device having an RGB pixel array and capturing a color image;
- An image processing unit that inputs the white (W) image and the color image and executes image processing to reduce false colors included in the color image;
- a white (W) image and a color image are captured,
- a frequency corresponding parameter calculation process for inputting the white (W) image and calculating a frequency corresponding parameter for each image area of the white (W) image;
- a positional deviation corresponding parameter calculation process for inputting the white (W) image and the color image and calculating a positional deviation corresponding parameter for each input image area;
- the fifth aspect of the present disclosure is: A program for executing image processing in an image processing apparatus;
- the image processing apparatus includes: Image processing for inputting a color image and a white (W) image photographed by a W array imaging device in which all pixels are white (W) pixel arrays and executing image processing for reducing false colors included in the color image Part
- the program is stored in the image processing unit.
- a process of calculating a correction pixel value is executed by executing a blend process in which a blend ratio of the white (W) image and the color image is controlled in accordance with values of the frequency-corresponding parameter and the positional deviation-corresponding parameter. It is in the program to let you.
- the sixth aspect of the present disclosure is: A program for executing image processing in an imaging apparatus;
- the imaging device A first imaging unit having a W array imaging device in which all pixels are white (W) pixel arrays, and capturing a white (W) image;
- a second imaging unit having an RGB array imaging device having an RGB pixel array and capturing a color image;
- An image processing unit that inputs the white (W) image and the color image and executes image processing to reduce false colors included in the color image;
- the program is In the first imaging unit and the second imaging unit, a white (W) image and a color image are captured, In the image processing unit, A frequency corresponding parameter calculation process for inputting the white (W) image and calculating a frequency corresponding parameter for each image area of the white (W) image; A positional deviation corresponding parameter calculation process for inputting the white (W) image and the color image and calculating a positional deviation corresponding parameter for each input image area;
- a process of calculating a correction pixel value is executed by executing
- the program of the present disclosure is a program that can be provided by, for example, a storage medium or a communication medium provided in a computer-readable format to an information processing apparatus or a computer system that can execute various program codes.
- a program in a computer-readable format, processing corresponding to the program is realized on the information processing apparatus or the computer system.
- system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.
- an apparatus and a method for performing false color correction according to image characteristics in units of image areas in a color image are realized.
- An image processing unit for executing The image processing unit inputs a white (W) image, inputs a frequency corresponding parameter calculation unit that calculates a frequency corresponding parameter for each image region, a white (W) image, and a color image, and inputs two input images.
- the blend ratio of the white (W) image and the color image is controlled according to the values of the misalignment correspondence parameter calculation unit, the frequency correspondence parameter, and the misalignment correspondence parameter that calculate the misalignment correspondence parameter for each image area.
- a blending process is executed to calculate a corrected pixel value.
- FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus that is an example of the image processing apparatus 100 of the present disclosure.
- the image processing apparatus of the present disclosure is not limited to the imaging apparatus, and includes, for example, an information processing apparatus such as a PC that inputs a captured image of the imaging apparatus and executes image processing.
- an information processing apparatus such as a PC that inputs a captured image of the imaging apparatus and executes image processing.
- a configuration and processing of an imaging apparatus will be described as an example of the image processing apparatus 100 of the present disclosure.
- Image processing other than the imaging processing described in the following embodiments is not limited to the imaging device, and can be executed by an information processing device such as a PC.
- the imaging unit 106 includes a first imaging unit 107 having a W (white) pixel array imaging element that outputs an electric signal based on the amount of incident light in the entire wavelength region of visible light, and an RGB color filter, for example, a color filter including a Bayer array And a second imaging unit 108 having an RGB pixel array imaging device that outputs a signal corresponding to input light of each color of RGB in each pixel unit.
- the first image capturing unit 107 and the second image capturing unit 108 are two image capturing units set at a predetermined distance from each other, and each captured image is an image from a different viewpoint. If these two images are still images, they are taken as still images at the same timing.
- the shooting frame of each imaging unit is a synchronized shooting frame, that is, a continuous image frame sequentially shot at the same timing. Note that the control of the photographing timing is performed by the control unit 101.
- these two image capturing units 107 and 108 are two image capturing units set at positions separated by a predetermined interval, and each captured image is an image from a different viewpoint. That is, the image has parallax. Therefore, the same subject image is not photographed in the corresponding pixels of the two images, that is, the pixels at the same position, and subject displacement corresponding to the parallax occurs.
- the image processing apparatus 100 performs image correction in the image processing unit 120 in consideration of the shift, specifically, image processing for reducing false colors. Details of this processing will be described later.
- the control unit 101 controls various processes executed in the imaging apparatus 100, such as image capturing, signal processing for captured images, image recording processing, and display processing.
- the control unit 101 includes, for example, a CPU that executes processing according to various processing programs stored in the storage unit 102, and functions as a data processing unit that executes the program.
- the storage unit 102 includes a captured image storage unit, a processing program executed by the control unit 101, a storage unit for various parameters, and a RAM, a ROM, and the like that function as a work area for data processing.
- the codec 103 performs encoding and decoding processing such as compression and decompression processing of a captured image.
- the input unit 104 is a user operation unit, for example, and inputs control information such as shooting start and end, various mode settings, and the like.
- the output unit 105 includes a display unit, a speaker, and the like, and is used for displaying captured images and through images, outputting sound, and the like.
- the image processing unit 120 inputs two images White-RAW (W-RAW) image 111 and RGB-RAW image 112 input from the imaging unit 106, and sensor noise characteristic ( ⁇ ) 113 as a processing parameter. Image processing for reducing colors is executed to generate and output an RGB image 150.
- W-RAW White-RAW
- RGB-RAW image 112 input from the imaging unit 106
- ⁇ sensor noise characteristic
- the imaging unit 106 includes the first imaging unit 107 having a W (white) pixel array imaging element that outputs an electric signal based on the amount of incident light in the entire wavelength region of visible light, and an RGB color filter such as a Bayer.
- the second image capturing unit 108 includes an RGB pixel array image sensor that includes a color filter having an array and outputs a signal corresponding to input light of each RGB color in units of pixels.
- the pixel array (filter array) of the two imaging units 107 and 108 will be described with reference to FIG.
- FIG. 2A shows a Bayer array used for photographing a general color image.
- the Bayer array is composed of RGB filters that selectively transmit RGB wavelength light.
- Two G pixels are set on the diagonal of the 2 ⁇ 2 four pixels, and the remaining R and B pixels are arranged by 1z.
- This Bayer array type RGB pixel array is a pixel array used in the second imaging unit 108 shown in FIG. By the image photographing process, one of RGB pixel values is set for each pixel.
- the image before this signal processing is the RGB-RAW image 112 shown in FIG.
- RGB-RAW image one pixel value of R, G, or B is set for each pixel.
- a process of setting three RGB signals to all pixels is performed by demosaic processing executed as signal processing thereafter.
- a color image is generated by such a process.
- the process of reducing the false color is performed by the image processing in the image processing unit 120 illustrated in FIG. This specific process will be described later.
- FIG. 2B is a diagram illustrating a pixel array (filter array) of the first imaging unit 107 in FIG. All the pixels are configured by W (white) pixels that output an electric signal based on the amount of incident light in the entire wavelength region of visible light.
- the first imaging unit 107 in FIG. 1 generates a W-RAW image 111 as an image captured by a W pixel array imaging element in which W pixels that receive all RGB wavelength light are arranged at all pixel positions for all pixels. Input to the image processing unit 120.
- the image processing unit 120 receives the W-RAW image 111 from the first imaging unit 107 and the RGB-RAW image 112 from the second imaging unit 108, and further sensor noise that is a parameter applied to correction processing for reducing false colors.
- the characteristic ( ⁇ ) 113 is input to perform image correction processing for reducing false colors.
- the sensor noise characteristic ( ⁇ ) 113 is a noise characteristic of the image sensor used in the first image capturing unit 107 and the second image capturing unit 108 of the image capturing unit 106, and is acquired in advance by the control unit 101, for example, and stored in the storage unit 102.
- the noise characteristics of the imaging elements used in the first imaging unit 107 and the second imaging unit 108 are shown as a common value ( ⁇ ). However, the characteristics of the imaging elements in each imaging unit, ⁇ 1, ⁇ 2 It is good also as a structure using.
- FIG. 3 is a block diagram illustrating a configuration of the image processing unit 120 of the image processing apparatus 100.
- the image processing unit 120 includes a development processing unit 121, a motion vector detection unit 122, a registration unit 123, a frequency correspondence parameter calculation unit 124, a positional deviation correspondence parameter 125, an image correction unit 126, and a signal conversion unit. 127.
- the image processing unit 120 executes a process of reducing false colors generated in the RGB image that is a captured image of the second imaging unit 108 illustrated in FIG. 1, and outputs an RGB image 150 with reduced false colors.
- Input signals to the image processing unit 120 are the following signals. (1) W image 111 input from first imaging unit 107, (2) RGB-RAW image 112 input from the second imaging unit 108, (3) Sensor noise characteristics ( ⁇ ) 113,
- the development processing unit 121 executes development processing on the RGB-RAW image 112 input from the second imaging unit 108. Specifically, for example, the following processing is executed.
- A a clamp process for removing an offset component based on a DC offset or a noise signal generated based on a circuit constituting the image sensor;
- B a demosaic process for setting three RGB signals for each pixel based on a single RGB signal value set for each pixel of the RGB-RAW image;
- C White balance processing for aligning RGB values for a white subject;
- D Conversion processing of RGB values to YUV values;
- the RGB-RAW image 112 is converted into a YUV image 130 by the development processing in the development processing unit 121.
- the YUV image 130 is an image in which three pixel values of Y (luminance), U (color difference), and V (color difference) are set for all pixels.
- the motion vector detection unit 122 receives the W image 111 from the first imaging unit 107, and the development processing unit 121 generates a YUV image based on the RGB-RAW image 112 that is a captured image of the second imaging unit 108.
- the Y signal (luminance signal) in 130 is input. Based on these two signals (W signal, Y signal), the motion vector detection unit 122 detects a motion vector (MV: Motion Vector) corresponding to the positional deviation between the two images.
- MV Motion Vector
- the first imaging unit 107 and the second imaging unit 108 that are configured in the imaging unit 106 of the image processing apparatus 100 illustrated in FIG. 1 are two imaging units that are set at positions separated by a predetermined interval.
- Each captured image is an image from a different viewpoint. That is, the image has parallax. Therefore, the same subject image is not photographed in the corresponding pixels of the two images, that is, the pixels at the same position, and subject displacement corresponding to the parallax occurs.
- the motion vector detection unit 122 Based on these two signals (W signal, Y signal), the motion vector detection unit 122 detects a motion vector (MV: Motion Vector) corresponding to the positional deviation between the two images. Specifically, corresponding points of two images (W image and Y image) are obtained, and a vector connecting the corresponding points is calculated as a motion vector (MV). The motion vector (MV) generated by the motion vector detection unit 122 is input to the alignment unit 123.
- MV Motion Vector
- the alignment unit 123 receives the motion vector (MV) generated by the motion vector detection unit 122 and the YUV image 130 generated by the development processing unit 121 based on the RGB-RAW image 112.
- the alignment unit 123 moves each pixel position of the YUV image 130 in accordance with the magnitude and direction of the motion vector (MV) to generate a W image, that is, a W-RAW image 111 that is a captured image of the first imaging unit 107.
- a YUV image similar to that taken from the same viewpoint position is generated.
- the YUV image 130 is converted into a YUV image that is considered to be taken from the same viewpoint as the first imaging unit 107.
- the YUV image after the alignment process generated by the alignment unit 123 is input to the positional deviation corresponding parameter calculation unit 125. Further, the color difference signal UV is input to the image correction unit 126.
- the frequency-corresponding parameter calculation unit 124 inputs the W-RAW image 111 that is a captured image of the first imaging unit 107 and the sensor noise characteristic ( ⁇ ) 113, and uses them for false color correction based on these input data.
- the frequency-corresponding blend rate setting parameter which is a correction parameter, is calculated and output to the image correction unit 126.
- the sensor noise characteristic ( ⁇ ) 113 is included in the noise characteristic information of the image sensor used in the first imaging unit 107 of the imaging unit 106, specifically, in the output signal of the image sensor used in the first imaging unit 107. It is the data which shows the noise intensity which is included.
- the sensor noise characteristic ( ⁇ ) 113 is acquired in advance by the control unit 101, stored in the storage unit 102, acquired from the storage unit 102 under the control of the control unit 101, and input to the frequency corresponding parameter calculation unit 124. .
- FIG. 4 is a diagram illustrating a specific configuration of the frequency correspondence parameter calculation unit 124.
- the frequency correspondence parameter calculation unit 124 inputs a W-RAW image 111 that is a captured image of the first imaging unit 107 and a sensor noise characteristic ( ⁇ ) 113, and based on these input data Then, a frequency-corresponding blend rate setting parameter, which is a correction parameter used for false color correction, is calculated and output to the image correction unit 126.
- the frequency correspondence parameter calculation unit 124 includes an adjacent pixel pixel value difference absolute value calculation unit 151, a dynamic range (DR) calculation unit 152, a frequency parameter calculation unit 153, an addition unit 154, and a blend rate calculation unit. 155.
- DR dynamic range
- FIG. 5A is a diagram for explaining an example of setting the calculation region of the frequency-corresponding blend rate setting parameter calculated by the frequency-corresponding parameter calculation unit 124.
- the frequency correspondence blend ratio setting parameter calculated by the frequency correspondence parameter calculation unit 124 is a parameter corresponding to each pixel.
- the parameter calculation process is executed using the W-RAW image 111 that is a captured image of the first imaging unit 107. If the parameter calculation target pixel is a pixel at the position (x, y), the parameter calculation processing is executed using the pixel values in the surrounding pixel area of the parameter calculation target pixel (x, y).
- a pixel region of 9 ⁇ 9 pixels with the parameter calculation target pixel (x, y) as a central pixel is used for parameter calculation as a surrounding pixel region of the parameter calculation target pixel (x, y).
- This is an example of a pixel region to be applied.
- Various sizes can be set for the size of the pixel region.
- FIG. 5B shows a specific procedure of parameter calculation processing by the frequency corresponding parameter calculation unit 124.
- the frequency-corresponding blend ratio setting parameter calculation process in the frequency-corresponding parameter calculation unit 124 is performed according to the following procedure (steps S01 to S03).
- Step S01 The processes in steps S01 and S02 are processes executed in the adjacent pixel pixel value difference absolute value calculation unit 151, the dynamic range (DR) calculation unit 152, and the frequency parameter calculation unit 153 shown in FIG.
- a horizontal frequency parameter (activity) [act HOR ] is calculated.
- This process is a process using the pixel value of the pixel in the horizontal direction included in the parameter calculation area centered on the parameter calculation target pixel (x, y).
- a total of 9 pixels that is, the parameter calculation target pixel (x, y), the left four pixels of the parameter calculation target pixel (x, y), and the right four pixels.
- a horizontal frequency parameter (activity) [act HOR ] is calculated using the pixel value.
- Equation 1 is a calculation formula for the horizontal frequency parameter (activity) [act HOR ] of the pixel position (x, y) of the W-RAW image 111 that is a captured image of the first imaging unit 107.
- W xi, y is the pixel value at the pixel position (xi, y) of the W-RAW image 111
- W x-i + 1, y is the value of the W-RAW image 111.
- This is the pixel value at the pixel position (x ⁇ i + 1, y).
- Step S02 the vertical frequency parameter (activity) [act VER ] is calculated.
- This process is a process using the pixel value of the pixel in the vertical direction included in the parameter calculation area centered on the parameter calculation target pixel (x, y).
- a total of 9 pixels that is, the parameter calculation target pixel (x, y), the upper four pixels of the parameter calculation target pixel (x, y), and the lower four pixels.
- the vertical frequency parameter (activity) [act VER ] is calculated using the pixel value of.
- the above (Formula 2) is a formula for calculating the vertical frequency parameter (activity) [act VER ] of the pixel position (x, y) of the W-RAW image 111 that is a captured image of the first imaging unit 107.
- W x, y ⁇ i is the pixel value at the pixel position (x, y ⁇ i) of the W-RAW image 111
- W x, y ⁇ i + 1 is the W-RAW image 111.
- This is the pixel value at the pixel position (x, y ⁇ i + 1).
- Step S03 The process of step S03 is a process executed by the adding unit 154 and the blend rate calculating unit 155 shown in FIG. In step S03, the following processing is executed.
- the maximum value of act calculated by the above formula is ⁇ .
- a value obtained by dividing the selected value by the parameter calculation coefficient ( ⁇ ) is calculated as a frequency-corresponding blend rate setting parameter [ratio Freq ] at the pixel position (x, y).
- ⁇ 5 can be used as an example of the parameter calculation coefficient ( ⁇ ).
- the frequency-corresponding blend rate setting parameter [ratio Freq ] calculated according to the above (Equation 3) is a value in the range of 0-1.
- the frequency-corresponding blend rate setting parameter [ratio Freq ] is In the high frequency region where the pixel value changes finely, it becomes a large value, that is, a value close to 1, In a flat image area with little change in pixel value, that is, in a low frequency area, the value is small, that is, a value close to 0.
- the frequency-corresponding parameter calculation unit 124 calculates the frequency-corresponding blend rate setting parameter [ratio Freq ] according to the above-described process.
- the frequency correspondence parameter calculation unit 124 calculates the frequency correspondence blend rate setting parameter [ratio Freq ] for all pixels constituting the W-RAW image 111 that is a captured image of the first imaging unit 107.
- the calculation parameter is input to the image correction unit 126.
- the misalignment correspondence parameter calculation unit 125 illustrated in FIG. 3 includes a W-RAW image 111 that is a captured image of the first imaging unit 107 and a YUV image after alignment generated by the alignment unit 123, that is, the first imaging unit.
- a YUV image equivalent to that taken from the photographing viewpoint 107 and the sensor noise characteristic ( ⁇ ) 113 are input, and based on these input data, a misalignment corresponding blend rate that is a correction parameter for use in false color correction
- the setting parameter is calculated and output to the image correction unit 126.
- the sensor noise characteristic ( ⁇ ) 113 is included in the noise characteristic information of the image sensor used in the second imaging unit 108 of the imaging unit 106, specifically, in the output signal of the image sensor used in the second imaging unit 108. It is the data which shows the noise intensity which is included.
- the sensor noise characteristic ( ⁇ ) 113 is acquired in advance by the control unit 101, stored in the storage unit 102, acquired from the storage unit 102 under the control of the control unit 101, and input to the misalignment correspondence parameter calculation unit 125.
- the misalignment correspondence parameter calculation unit 125 includes a W-RAW image 111 that is a captured image of the first imaging unit 107 and a post-positioning YUV image 161 generated by the positioning unit 123, that is, the first A post-positioning YUV image 161 equivalent to that taken from the shooting viewpoint of one image pickup unit 107 and sensor noise characteristics ( ⁇ ) 113 are input, and correction parameters for use in false color correction based on these input data Is calculated and output to the image correction unit 126.
- the signal conversion unit 171 of the positional deviation corresponding parameter calculation unit 125 executes signal conversion processing for converting the YUV signal of each pixel of the post-alignment YUV image 161 into a W (white) signal. Specifically, the YUV signal is converted into a W (white) signal according to the equation shown in FIG. 7, that is, the following equation (equation 4).
- ⁇ 0 , ⁇ 1 , and ⁇ 2 are spectral model coefficients, which are conversion parameters defined in advance.
- the YUV image base W image 162 generated by the signal conversion unit 171 based on the post-alignment YUV image 161 is output to the second region unit pixel value addition unit 173 and the multiplication unit 175.
- the second region unit pixel value addition unit 173 performs pixel value addition processing on the YUV image base W image 162 in units of pixel regions (n ⁇ n pixels, n is 3, 5, 7, 9, etc.) defined in advance.
- the added pixel value (B) calculated is output to the area unit pixel value ratio (A / B) calculation unit 174.
- the first region unit pixel value adding unit 172 applies the pixel region (n ⁇ n pixels, n, n) applied by the second region unit pixel value adding unit 173 to the W-RAW image 111 that is a captured image of the first imaging unit 107.
- n is a pixel area addition process in the same pixel area unit as in 9
- the calculated addition pixel value (A) is output to the area unit pixel value ratio (A / B) calculation unit 174.
- the region unit pixel value ratio (A / B) calculation unit 174 performs region unit between the region unit addition pixel value (A) of the W-RAW image 111 and the region unit addition pixel value (B) of the YUV image base W image 162.
- the added pixel value ratio (A / B) is calculated and output to the multiplier 175.
- the multiplication unit 175 includes the YUV image base W image 162 generated based on the post-alignment YUV image 161 by the signal conversion unit 171 and the region unit addition pixel value calculated by the region unit pixel value ratio (A / B) calculation unit 174. Enter the ratio (A / B).
- the multiplication unit 175 performs a process of multiplying the pixel value of the constituent pixels of the YUV image base W image 162 by the region unit added pixel value ratio (A / B) to convert the pixel value. Note that the multiplication processing is executed by combining the region unit added pixel value ratio (A / B) of the region including the position of each pixel.
- This multiplication process is executed as a process for matching the pixel value level of the YUV image base W image 162 to the pixel value level of the W pixel of the W-RAW image 111 that is a captured image of the first imaging unit 107.
- the multiplier 175 generates a pixel value adjusted YUV image base W image 163 by this level adjustment, and outputs it to the difference calculator 176.
- the W pixel value of the pixel value adjusted YUV image base W image 163 is substantially the same as the pixel value of the W pixel of the W-RAW image 111 that is a captured image of the first imaging unit 107 in a pixel region where no false color occurs. become. However, in the false color generation region, a difference occurs between the W pixel value of the pixel value adjusted YUV image base W image 163 and the pixel value of the W pixel of the W-RAW image 111.
- the difference calculation unit 176 detects this difference (diff).
- the difference calculation unit 176 receives the W-RAW image 111 that is a captured image of the first imaging unit 107 and the pixel value adjusted YUV image base W image 163 that is the output of the multiplication unit 175, and the same coordinates of these two images The difference between the pixel values of the corresponding pixels at the positions is calculated. A difference image 164 composed of the calculated difference value corresponding to each pixel is input to the filter processing unit 177.
- the applied filter is, for example, a median filter that acquires an intermediate value of pixel values in a predetermined pixel region and sets a new pixel value.
- Blend ratio calculation unit 178 based on filtering result each pixel value of the image of the difference image 164 consisting of the difference pixel value (difference pixel value after filtering), calculates the position deviation corresponding blend ratio setting parameters (ratio ERR) 202 And output to the image correction unit 126.
- FIG. 8 shows an example of a graph showing the correspondence with the setting parameter (ratio ERR ) 202 ”.
- the graph shown in FIG. The horizontal axis is the input value “each pixel value of the filtering result image of the difference image 164 composed of difference pixel values (difference pixel value after filtering)”,
- the vertical axis represents the “positional deviation corresponding blend rate setting parameter (ratio ERR ) 202” that is an output value.
- the graph shown in FIG. 8 is an example showing the correspondence between input and output values, and output values are defined as follows using preset thresholds: 1 ⁇ and 3 ⁇ .
- the blend rate calculation unit 178 for example, in accordance with the input / output correspondence definition data shown in FIG. 8, is an input value “each pixel value of the filtering result image of the difference image 164 composed of difference pixel values (difference pixel value after filtering)”. Based on this value, an output value, that is, a “positional deviation correspondence blend rate setting parameter (ratio ERR ) 202” is calculated, and the calculated value is output to the image correction unit 126. Note that the misalignment-corresponding blend rate setting parameter [ratio Err ] calculated by the blend rate calculation unit 178 has a value in the range of 0 to 1.
- the W-RAW image 111 and the pixel value adjusted YUV image base W image 163 are basically images after alignment, and the position shift should be eliminated originally. However, a difference occurs in each pixel value (W pixel value) depending on the pixel position. This difference is considered to be a false color and is described as a “positional deviation corresponding parameter” under the interpretation that it is a pixel to be output at a pixel position different from the pixel value at the original pixel position. Therefore, “large misregistration” corresponds to “many false colors” and “small misregistration” corresponds to “small false colors”. Note that the input / output value correspondence shown in FIG. 8 is merely an example, and various other settings are possible.
- the image correction unit 126 inputs the following data.
- A a W-RAW image 111 that is a captured image of the first imaging unit 107;
- B A post-alignment YUV image 161 generated by the alignment unit 123;
- C Frequency correspondence blend ratio setting parameter [ratio Freq ] generated by the frequency correspondence parameter calculation unit 124,
- D The positional deviation corresponding blend rate setting parameter [ratio Err ] generated by the positional deviation corresponding parameter calculation unit 125,
- the image correction unit 126 receives these data and outputs a corrected UV signal (Uout, Vout) 203 that is an output signal value of the color difference signal UV that constitutes the pixel value of the corrected image (YUV image) in which the false color is reduced. Is output to the signal conversion unit 127 in the image processing unit 120 shown in FIG.
- the image correction unit 126 generates a corrected UV signal (Uout, Vout), for example, according to the output signal calculation formula shown in FIG.
- LPF (U) is a low-pass filter application process for the pixel value signal U of the post-positioning YUV image 161 generated by the position matching unit 123.
- LPF (V) is a low-pass filter application process for the pixel value signal V of the post-alignment YUV image 161 generated by the alignment unit 123.
- LPF (W) is a low-pass filter application process for the pixel value signal W of the W-RAW image 111 that is a captured image of the first imaging unit 107.
- the above (Expression 5) is an expression for executing the following pixel value correction processing, for example.
- “LPF (U)” shown in the calculation formula of the corrected U signal (Uout) in (Expression 5) applies a low-pass filter to the pixel signal U of the YUV image 161 to surround the false color pixel value.
- the false color is reduced by smoothing with the pixel value of the pixel.
- this smoothing causes “blurring” of the image.
- the pixel value signal W of the W-RAW image 111 that is a captured image of the first imaging unit 107 is blended. That is, “W / LPF (W)” is multiplied to eliminate the “blur” of the image.
- the output signal calculation formula of FIG. 9A and the formula shown in the above (formula 5) are calculated in the calculation process of the corrected UV signal (Uout, Vout) 203 in the image correction unit 126.
- a W-RAW image 111 that is a captured image of the first imaging unit 107; It shows that blend processing of these two images is performed.
- the corrected UV signal (Uout, Vout) 203 is calculated by switching the low-pass filter (LPF) included in the equation (Equation 5) according to the image characteristics.
- LPF low-pass filter
- the image correction unit 126 calculates the corrected UV signal (Uout, Vout) 203, the characteristics of the image area unit, (1) Frequency characteristics (2) Misalignment characteristics Depending on these characteristics, different blend rates, that is, blend rates of the YUV image 161 after alignment and the W-RAW image 111 are changed, and the final corrected A UV signal (Uout, Vout) 203 is calculated.
- the parameter that determines this blend ratio is (1) Frequency-corresponding blend rate setting parameter [ratio Freq ] generated by the frequency-corresponding parameter calculation unit 124, (2) Misalignment correspondence blend ratio setting parameter [ratio Err ] generated by the misalignment correspondence parameter calculation unit 125, These parameters.
- the image correction unit 126 determines the blend ratio between the post-alignment YUV image 161 and the W-RAW image 111 according to the image characteristics in units of image areas. How it is set will be described with reference to FIG.
- FIG. 10 shows the following data in association with each other.
- an RGB sensor output image YUV image 161 after alignment
- a W sensor output image W-RAW
- the blend ratio of the image 111) is made substantially equal.
- the corrected UV signal (Uout, Vout) 203 is calculated by the blending process according to the blend ratio set as described above.
- An image region having this image characteristic is a low frequency region to a high frequency region, that is, a flat image region with little change in pixel value, to a high frequency region, that is, a pixel.
- the blend ratio of the RGB sensor output image (YUV image 161 after alignment) is reduced, and the W sensor output
- the blend ratio of the image (W-RAW image 111) is set to be large.
- the corrected UV signal (Uout, Vout) 203 is calculated by the blending process according to the blend ratio set as described above.
- FIG. 10 As an example of a specific process for realizing the blend process between the post-alignment YUV image 161 and the W-RAW image 111 with the blend ratio according to the image characteristics as shown in FIG. 10, FIG. A process of switching the low-pass filter (LPF) applied to the expression shown in a), that is, the output signal calculation expression shown as the above-described (Expression 5) according to the image characteristics is effective.
- LPF low-pass filter
- the low-pass filter (LPF) applied to the output signal calculation formula shown as (Formula 5) described above is an image characteristic, that is, (1) Frequency-corresponding blend rate setting parameter [ratio Freq ] generated by the frequency-corresponding parameter calculation unit 124, (2) Misalignment correspondence blend ratio setting parameter [ratio Err ] generated by the misalignment correspondence parameter calculation unit 125, It is a figure explaining the example of a process switched according to the value of these parameters.
- the horizontal axis represents the misalignment corresponding blend rate setting parameter [ratio Err ] generated by the misalignment corresponding parameter calculation unit 125
- the vertical axis represents the frequency corresponding blend rate setting parameter generated by the frequency corresponding parameter calculation unit 124 [ ratio Freq ], an example of application of three different types of low-pass filters (LPFs) set for each of these axes and used in accordance with the value of each parameter.
- LPFs low-pass filters
- the difference between the three low-pass filters is the difference in the cut-off frequency, the cut-off frequency of LPF 0 is the highest, and the cut-off frequency of LPF 2 is the lowest.
- a low-pass filter having the following settings can be applied as each low-pass filter.
- LPF 0 is a 3 ⁇ 3 (pixel) moving average filter
- LPF 1 is a 13 ⁇ 13 (pixel) moving average filter
- LPF 2 is a 25 ⁇ 25 (pixel) moving average filter
- the moving average filter having such a setting can be applied as the three low-pass filters (LPF 0 to LPF 2 ).
- the coefficient setting of the 3 ⁇ 3 moving average filter is set as shown in the following (Equation 6).
- LPF 0 is a 3 ⁇ 3 (pixel) moving average filter
- LPF 1 is a 13 ⁇ 13 (pixel) moving average filter
- LPF 2 is a 25 ⁇ 25 (pixel) moving average filter
- the example shown in FIG. 11 is an example in which different processing is executed according to the image characteristics, as described above with reference to FIG. 10, and the low-pass applied to the output signal calculation formula shown as (Formula 5) described above. It is an example of a process which switches a filter (LPF) according to an image characteristic.
- LPF filter
- the application mode of the low pass filter (LPF) according to the image characteristics is set as follows.
- Frequency-corresponding blend rate setting parameter ratio Freq ⁇ Th f1
- Misalignment-compatible blend rate setting parameter ratio Err ⁇ Th e1 , This is a region that satisfies these conditions.
- Th indicates a threshold value.
- An image region having this image characteristic is a low-frequency region, that is, a flat image region with little change in pixel value, and a pixel value other than the pixel value corresponding to the original pixel position is output with a small positional deviation.
- a corrected low-pass filter (LPF 0 ) having the highest cutoff frequency is applied as the LPF of the output signal calculation formula of (Formula 5) described above, and the corrected UV signal (Uout, Vout) 203 is calculated.
- This low-pass filter (LPF 0 ) application process increases the blend rate of the RGB sensor output image (post-alignment YUV image 161) and corrects the setting of reducing the blend rate of the W sensor output image (W-RAW image 111).
- the rear UV signal (Uout, Vout) 203 is calculated.
- a corrected low-pass filter (LPF 2 ) having the lowest cutoff frequency is applied as the LPF of the output signal calculation formula of (Formula 5) described above, and the corrected UV signal (Uout, Vout) 203 is calculated.
- This low pass filter (LPF 2 ) application process corrects the setting in which the blend rate of the RGB sensor output image (YUV image 161 after alignment) is lowered and the blend rate of the W sensor output image (W-RAW image 111) is increased.
- the rear UV signal (Uout, Vout) 203 is calculated.
- the low-pass filter (LPF 0) application process the RGB sensor output image (registration after YUV image 161), W sensor output image (W-RAW image 111) substantially the same as the corrected UV signal blend ratio of (Uout , Vout) 203 is calculated.
- FIG. 12 is a diagram summarizing the processing of FIG. 11 and shows corresponding data of the following data.
- A Image region characteristics
- Parameter values c
- Applied filter d
- UV value after correction U out , V out
- E Brent rate setting example of RGB sensor output image and W sensor output image
- Entry (1) in FIG. 12 corresponds to region (1) shown in FIG. 11, and has the following image characteristics and correction processing mode.
- C Applicable filter: LPF 0
- LPF 0 (U) and LPF 0 (V) in (d) apply a process of calculating the corrected UV signal (Uout, Vout) by applying LPF 0 to the LPF in (Equation 5) described above. Show.
- the entry (3) in FIG. 12 corresponds to the area (3) shown in FIG. 11, and has the following image characteristics and correction processing mode.
- the entry (2) in FIG. 12 corresponds to the region (2) shown in FIG. 11, and has the following image characteristics and correction processing mode.
- the blend rate according to the image characteristics that is, the RGB sensor output image (YUV image 161 after alignment) and the W sensor output image (W-RAW image 111).
- the final corrected UV signal (Uout, Vout) 203 is calculated.
- FIG. 13 shows an example of application characteristics of image characteristics and four different low-pass filters (LPF 0 to LPF 3 ) applied according to each image characteristic.
- the difference between the four low-pass filters (LPF 0 to LPF 3 ) is a difference in cutoff frequency, where the cutoff frequency of LPF 0 is the highest and the cutoff frequency of LPF 3 is the lowest.
- an LPF having a lower cutoff frequency such as LPF 3 Apply LPF.
- an LPF having a higher cutoff frequency for example, an LPF such as LPF 0 is applied as the frequency-corresponding blend ratio setting parameter [ratio Freq ] or the positional deviation corresponding blend ratio setting parameter [ratio Err ] is closer to zero .
- FIG. 14 shows still another application example of the area correspondence filter.
- FIG. 14 shows an example of image characteristics and application areas of five different low-pass filters (LPF 0 to LPF 4 ) applied according to each image characteristic.
- the difference between the five low-pass filters (LPF 0 to LPF 4 ) is the difference in cutoff frequency, where the cutoff frequency of LPF 0 is the highest and the cutoff frequency of LPF 4 is the lowest.
- an LPF having a lower cutoff frequency such as LPF 4 Apply LPF.
- an LPF having a higher cutoff frequency for example, an LPF such as LPF 0 is applied as the frequency-corresponding blend ratio setting parameter [ratio Freq ] or the positional deviation corresponding blend ratio setting parameter [ratio Err ] is closer to zero .
- the processing example described below is one of the specific processing examples for realizing the image blending processing according to the image characteristics in units of the image areas described above. That is, it is one specific example of the generation process of the corrected UV signal (Uout, Vout) 203 executed in the image correction unit 126, and is a processing example using a combination of a plurality of different low-pass filters according to image characteristics. .
- the image correction unit 126 inputs the following data.
- A a W-RAW image 111 that is a captured image of the first imaging unit 107;
- B A post-alignment YUV image 161 generated by the alignment unit 123;
- C Frequency correspondence blend ratio setting parameter [ratio Freq ] generated by the frequency correspondence parameter calculation unit 124,
- D The positional deviation corresponding blend rate setting parameter [ratio Err ] generated by the positional deviation corresponding parameter calculation unit 125,
- the image correction unit 126 receives these data and outputs a corrected UV signal (Uout, Vout) 203 that is an output signal value of the color difference signal UV that constitutes the pixel value of the corrected image (YUV image) in which the false color is reduced. Is output to the signal conversion unit 127 in the image processing unit 120 shown in FIG.
- the image correction unit 126 generates a corrected UV signal (Uout, Vout) according to the output signal calculation formula shown in FIG.
- the output signal calculation formula shown in FIG. 15A is a formula created based on (Formula 5) described above, that is, the output signal calculation formula shown in FIG. 9A.
- the output signal calculation formula shown in FIG. 15A is obtained by applying the frequency-corresponding blend rate setting parameter [ratio Freq ] and the misalignment-corresponding blend rate setting parameter [ratio Err ], and blending the image according to the image region characteristics. Is changed to an equation for generating a corrected UV signal (Uout, Vout).
- the image correction unit 126 generates a corrected UV signal (Uout, Vout) according to the output signal calculation formula shown in FIG. 15A, that is, the following (Formula 7).
- U 0 , U 1 , U 2 , and V 0 , V 1 , V 2 are UV values obtained as pixel value conversion results obtained by applying a plurality of different low-pass filters (LPFs).
- LPFs low-pass filters
- FIG. 16A is a formula similar to the formula shown in FIG. 15A, that is, a corrected UV signal (Uout, Vout) calculation formula shown in (Formula 7).
- Example 8 is the same as the above-described (Expression 5), that is, two images similar to the output signal calculation expression described with reference to FIG.
- A a W-RAW image 111 that is a captured image of the first imaging unit 107
- B A post-alignment YUV image 161 generated by the alignment unit 123; This is an equation for executing blend processing of these images.
- U 0 and V 0 are UV values obtained by applying the low-pass filter LPF 0 to the UV pixel values of the post-alignment YUV image 161 generated by the alignment unit 123 as input data.
- U 1 and V 1 are UV values obtained by applying the low-pass filter LPF 1 to the UV pixel values of the post-alignment YUV image 161 generated by the alignment unit 123 as input data.
- U 2 and V 2 are UV values obtained by applying the low-pass filter LPF 2 to the UV pixel values of the post-alignment YUV image 161 generated by the alignment unit 123 as input data.
- the difference between the three low-pass filters is the difference in the cut-off frequency, the cut-off frequency of LPF 0 is the highest, and the cut-off frequency of LPF 2 is the lowest.
- a low-pass filter having the following settings can be applied as each low-pass filter.
- LPF 0 is a 3 ⁇ 3 (pixel) moving average filter
- LPF 1 is a 13 ⁇ 13 (pixel) moving average filter
- LPF 2 is a 25 ⁇ 25 (pixel) moving average filter
- the moving average filter having such a setting can be applied as the three low-pass filters (LPF 0 to LPF 2 ).
- the coefficient setting of the 3 ⁇ 3 moving average filter is the setting shown in (Expression 6) described above.
- LPF 0 is a 3 ⁇ 3 (pixel) moving average filter
- LPF 1 is a 13 ⁇ 13 (pixel) moving average filter
- LPF 2 is a 25 ⁇ 25 (pixel) moving average filter
- the frequency-corresponding blend rate setting parameter [ratio Freq ] is In the high frequency region where the pixel value changes finely, it becomes a large value, that is, a value close to 1, In a flat image area with little change in pixel value, that is, in a low frequency area, the value is small, that is, a value close to 0.
- the corrected UV signal (U out , V out ) calculated according to the above (Equation 7) is set according to the image characteristics
- the horizontal axis indicates positional deviation (corresponding to the false color amount)
- the vertical axis indicates each frequency axis
- region examples 1 to 7 corresponding to a plurality of representative image characteristics are shown.
- the setting of the corrected UV signal (U out , V out ) calculated according to the above (Equation 7) according to the image characteristics (positional deviation and frequency) corresponding to the region examples 1 to 7 is set. This will be explained.
- the pixel value obtained by applying LPF 0 having the highest cutoff frequency to the input UV value (U, V) and the lowest cutoff An average value of the LPF 2 having the frequency and the pixel value applied to the input UV value (U, V) is set as the corrected UV signal (U out , V out ).
- the image correction unit 126 thus generates the corrected UV signal (U out , V out ) 203 according to the output signal calculation formula (Formula 7) shown in FIG.
- the output signal calculation formula (Formula 7) shown in FIG. In the process of generating the corrected UV signal (U out , V out ) 203, the correspondence with the process executed by the image correction unit 126 according to the feature of the region is summarized as follows.
- smoothing is performed based on pixel values of a wider range of surrounding pixels (for example, 25 ⁇ 25 pixels) using the low-pass filter LPF 2 having a low cutoff frequency. Execute the process.
- the low-pass filter LPF 1 having a medium cutoff frequency is used to perform a smoothing process based on the pixel values of surrounding pixels (for example, 13 ⁇ 13 pixels) in a medium range.
- the low pass filter LPF 0 having a high cut-off frequency is used to perform a smoothing process based on the pixel values of surrounding pixels (for example, 3 ⁇ 3 pixels) in a small range.
- the image correction unit 126 generates the corrected UV signal (U out , V out ) 203 according to the characteristics of the image region in this way, and generates the generated signal as a signal conversion unit 127 in the image processing unit 120 shown in FIG. Output to.
- Signal converting unit 127 inputs the generated corrected UV signal of the image correction unit 126 (U out, V out) and 203, a W-RAW image 111 is a captured image of the first imaging section 107.
- the signal conversion unit 127 performs signal conversion based on these input signals to generate and output an RGB image 150.
- the signal conversion unit 127 converts the YUV signal, which is a combination of the corrected UV signal (U out , V out ) 203 with the W signal Y (luminance) signal of the W-RAW image 111, into an RGB signal. Execute. This signal conversion process is performed according to an existing conversion formula.
- the RGB image 150 generated by the signal conversion unit 127 is displayed on a display unit, for example. Alternatively, it is stored in the storage unit. Alternatively, it is output to another external information processing apparatus. An encoding process such as a compression process may be executed as a pre-process for the storage unit storage process or the external output process. Note that the YUV signal is not essential to the RGB signal, and the YUV signal may be output to the display device, stored in the storage unit, or externally output as it is.
- the flowchart shown in FIG. 18 is executed under the control of a control unit (data processing unit) including a CPU or the like that executes processing according to a processing program stored in the storage unit, for example.
- a control unit data processing unit
- CPU central processing unit
- FIG. 18 The flowchart shown in FIG. 18 is executed under the control of a control unit (data processing unit) including a CPU or the like that executes processing according to a processing program stored in the storage unit, for example.
- a control unit data processing unit
- CPU central processing unit
- Steps S101a and 101b are image photographing processing. Two images are taken by the first imaging unit 107 and the second imaging unit 108 of the imaging unit 106 shown in FIG.
- Step S101a is an RGB image capturing process executed in the second imaging unit 108 having an image sensor having an RGB pixel array such as the Bayer array described above with reference to FIG.
- Step S101b is a white (W) image capturing process executed in the first image capturing unit 107 having the image sensor having the white (W) pixel array described above with reference to FIG.
- Step S102 development processing of the RGB image photographed by the second imaging unit 108 in step S101a is executed.
- This processing is executed in the development processing unit 121 of the image processing unit 120 shown in FIG.
- the development processing unit 121 executes development processing on the RGB-RAW image 112 input from the second imaging unit 108. Specifically, for example, the following processing is executed.
- A a clamp process for removing an offset component based on a DC offset or a noise signal generated based on a circuit constituting the image sensor;
- B a demosaic process for setting three RGB signals for each pixel based on a single RGB signal value set for each pixel of the RGB-RAW image;
- C White balance processing for aligning RGB values for a white subject;
- D Conversion processing of RGB values to YUV values;
- Step S103 a motion vector (MV) detection process is executed in step S103.
- This process is executed by the motion vector detection unit 122 of the image processing unit 120 shown in FIG.
- the motion vector detection unit 122 receives the W image 111 from the first imaging unit 107, and the development processing unit 121 generates a YUV image based on the RGB-RAW image 112 that is a captured image of the second imaging unit 108.
- the Y signal (luminance signal) in 130 is input. Based on these two signals (W signal, Y signal), the motion vector detection unit 122 detects a motion vector (MV: Motion Vector) corresponding to the positional deviation between the two images.
- MV Motion Vector
- the first imaging unit 107 and the second imaging unit 108 that are configured in the imaging unit 106 of the image processing apparatus 100 illustrated in FIG. 1 are two imaging units that are set at positions separated by a predetermined interval.
- Each captured image is an image from a different viewpoint. That is, the image has parallax. Therefore, the same subject image is not photographed in the corresponding pixels of the two images, that is, the pixels at the same position, and subject displacement corresponding to the parallax occurs.
- the motion vector detection unit 122 Based on these two signals (W signal, Y signal), the motion vector detection unit 122 detects a motion vector (MV: Motion Vector) corresponding to the positional deviation between the two images. Specifically, corresponding points of two images (W image and Y image) are obtained, and a vector connecting the corresponding points is calculated as a motion vector (MV). The motion vector (MV) generated by the motion vector detection unit 122 is input to the alignment unit 123.
- MV Motion Vector
- Step S104 Next, alignment processing is executed in step S104.
- This process is a process executed by the alignment unit 123 of the image processing unit 120 shown in FIG.
- the alignment unit 123 receives the motion vector (MV) generated by the motion vector detection unit 122 and the YUV image 130 generated by the development processing unit 121 based on the RGB-RAW image 112.
- the alignment unit 123 moves each pixel position of the YUV image 130 in accordance with the magnitude and direction of the motion vector (MV) to generate a W image, that is, a W-RAW image 111 that is a captured image of the first imaging unit 107.
- a YUV image similar to that taken from the same viewpoint position is generated.
- the YUV image 130 is converted into a YUV image that is considered to be taken from the same viewpoint as the first imaging unit 107.
- Step S105 a frequency correspondence parameter calculation process is executed.
- This process is a process executed by the frequency corresponding parameter calculation unit 124 of the image processing unit 120 shown in FIG.
- the frequency correspondence parameter calculation unit 124 inputs the W-RAW image 111 that is a captured image of the first imaging unit 107 and the sensor noise characteristic ( ⁇ ) 113, and these Based on the input data, a frequency-corresponding blend rate setting parameter, which is a correction parameter used for false color correction, is calculated and output to the image correction unit 126.
- the frequency-corresponding parameter calculation unit 124 sets the frequency-corresponding blend rate setting parameter for all the pixels constituting the W-RAW image 111 that is the captured image of the first image capturing unit 107. [Ratio Freq ] is calculated, and the calculated parameter is input to the image correction unit 126.
- Step S106 a positional deviation corresponding parameter calculation process is executed.
- This process is a process executed by the positional deviation corresponding parameter calculation unit 125 of the image processing unit 120 shown in FIG.
- the positional deviation corresponding parameter calculation unit 125 includes the W-RAW image 111 that is a captured image of the first imaging unit 107 and the alignment unit 123.
- the generated YUV image after alignment that is, the YUV image equivalent to the image captured from the imaging viewpoint of the first imaging unit 107 and the sensor noise characteristic ( ⁇ ) 113 are input, and the false color is determined based on the input data.
- the W-RAW image 111 which is a photographed image of the first imaging unit 107, and the YUV image after alignment generated by the alignment unit 123 should have been eliminated from the original position.
- a difference occurs in each pixel value (W pixel value) depending on the pixel position. This difference is considered to be a false color and is described as a “positional deviation corresponding parameter” under the interpretation that it is a pixel to be output at a pixel position different from the pixel value at the original pixel position. Therefore, “large misregistration” corresponds to “many false colors” and “small misregistration” corresponds to “small false colors”.
- the misregistration correspondence parameter calculation unit 125 calculates the misregistration correspondence blend ratio setting parameter [ratio Err ] according to the configuration of FIG. 6 described above.
- the misalignment correspondence blend ratio setting parameter [ratio Err ] calculated by the misalignment correspondence parameter calculation unit 125 is input to the image correction unit 126 in the image processing unit 120 illustrated in FIG.
- Step S107 The processing in steps S107 to S108 is processing executed by the image correction unit 126 of the image processing unit 120 shown in FIG.
- the image correction unit 126 inputs the following data.
- A a W-RAW image 111 that is a captured image of the first imaging unit 107;
- B A post-alignment YUV image 161 generated by the alignment unit 123;
- C Frequency correspondence blend ratio setting parameter [ratio Freq ] generated by the frequency correspondence parameter calculation unit 124,
- D The positional deviation corresponding blend rate setting parameter [ratio Err ] generated by the positional deviation corresponding parameter calculation unit 125,
- the image correction unit 126 receives these data and outputs a corrected UV signal (Uout, Vout) 203 that is an output signal value of the color difference signal UV that constitutes the pixel value of the corrected image (YUV image) in which the false color is reduced. Is output to the signal conversion unit 127 in the image processing unit 120 shown in FIG.
- Image correction unit 126 first, in step S107, by applying the input data, a plurality of different low pass filter (LPF 0, LPF 1, LPF 2), specifically, applying different low-pass filter cut-off frequency respectively
- LPF 0, LPF 1, LPF 2 different low-pass filter cut-off frequency respectively
- the difference between the three low-pass filters is the difference in the cut-off frequency, the cut-off frequency of LPF 0 is the highest, and the cut-off frequency of LPF 2 is the lowest.
- a low-pass filter having the following settings can be applied as each low-pass filter.
- LPF 0 is a 3 ⁇ 3 (pixel) moving average filter
- LPF 1 is a 13 ⁇ 13 (pixel) moving average filter
- LPF 2 is a 25 ⁇ 25 (pixel) moving average filter
- the moving average filter having such a setting can be applied as the three low-pass filters (LPF 0 to LPF 2 ).
- step S108 the image correction unit 126 calculates U 0 to U 3 and V 0 to V 3 calculated in step S107, (1) Frequency-corresponding blend rate setting parameter [ratio Freq ] generated by the frequency-corresponding parameter calculation unit 124, (2) Misalignment correspondence blend ratio setting parameter [ratio Err ] generated by the misalignment correspondence parameter calculation unit 125, By applying these two blend ratio setting parameters, the corrected UV signal (U out , V out ) 203 is calculated.
- V out (1-ratio Err ) ((1-ratio Freq) ⁇ V 0 + ratio Freq ⁇ V 1) + ratio Err ⁇ V 2 ...
- U out (1-ratio Err ) ((1-ratio Freq) ⁇ V 0 + ratio Freq ⁇ V 1) + ratio Err ⁇ V 2 ...
- the above-described (Formula 5) shown in FIG. 9A may be applied to change the filter to be applied according to the image characteristics.
- the post-correction UV signal (U out , V out ) calculation process executed by the image correction unit 126 according to the feature of the region is executed in the following manner.
- A In a region where there is a large amount of misalignment (it is estimated that there are many false colors), a low-pass filter LPF 2 with a low cut-off frequency is preferentially used, and a wider range of surrounding pixels (for example, 25 ⁇ 25 pixels)
- a process of smoothing based on the value is executed.
- the low-pass filter LPF 1 having a medium cutoff frequency is preferentially used to perform a smoothing process based on the pixel values of surrounding pixels (for example, 13 ⁇ 13 pixels) in the medium range.
- the low-pass filter LPF 0 having a high cut-off frequency is preferentially used to perform a smoothing process based on pixel values of surrounding pixels (for example, 3 ⁇ 3 pixels) in a small range.
- the image correction unit 126 generates the corrected UV signal (U out , V out ) 203 according to the characteristics of the image region in this way, and generates the generated signal as a signal conversion unit 127 in the image processing unit 120 shown in FIG. Output to.
- Step S109 The process of step S109 is a process executed by the signal conversion unit 127 of the image processing unit 120 illustrated in FIG.
- the signal conversion unit 127 receives the corrected UV signal (U out , V out ) 203 generated by the image correction unit 126 and the W-RAW image 111 that is a captured image of the first imaging unit 107.
- the signal conversion unit 127 performs signal conversion based on these input signals to generate and output an RGB image 150.
- Signal conversion unit 127 processing of the W signal Y (luminance) signal of W-RAW image 111, converts the corrected UV signal (U out, V out) of the YUV signal composed of a combination of a UV signal 203 into RGB signals Execute. This signal conversion process is performed according to an existing conversion formula.
- the RGB image 150 generated by the signal conversion unit 127 is displayed on a display unit, for example. Alternatively, it is stored in the storage unit. Alternatively, it is output to another external information processing apparatus. An encoding process such as a compression process may be executed as a pre-process for the storage unit storage process or the external output process. Note that the YUV signal is not essential to the RGB signal, and the YUV signal may be output to the display device, stored in the storage unit, or externally output as it is.
- the image processing unit 120 illustrated in FIG. 3 inputs the RGB-RAW image 112 that is a captured image of the second imaging unit 108 to the development processing unit 121, and performs the chordal image processing of the RGB-RAW image 112.
- the image processing is performed by applying the YUV image 130 generated by the above.
- the execution timing of the development processing may be after the processing of the image processing unit 120 is completed, for example.
- various settings such as a configuration in which a part of the processing of the development processing unit is executed after the processing of the image processing unit 120 is completed are possible.
- the signal conversion unit 127 performs a signal conversion from a YUV signal to an RGB signal.
- this process is indispensable.
- the YUV signal may be output to the display device, stored in the storage unit, or externally output as it is.
- the technology disclosed in this specification can take the following configurations. (1) A color image and a white (W) image photographed by a W array imaging device in which all pixels are white (W) pixel arrays are input, and image processing for reducing false colors included in the color image is executed.
- An image processing unit The image processing unit A frequency-corresponding parameter calculating unit that inputs the white (W) image and calculates a frequency-corresponding parameter for each image area of the white (W) image; A positional deviation correspondence parameter calculating unit that inputs the white (W) image and the color image and calculates a positional deviation correspondence parameter in units of image areas of the two input images; An image correction unit that calculates a correction pixel value by executing a blend process in which a blend ratio of the white (W) image and the color image is controlled according to values of the frequency-corresponding parameter and the positional deviation-corresponding parameter.
- An image processing apparatus An image processing apparatus.
- the color image is an RGB image photographed by an RGB array image sensor
- the positional deviation corresponding parameter calculation unit A YUV image generated based on the white (W) image and the RGB image is input, and a positional deviation corresponding parameter for each image region of the two input images is calculated
- the image correction unit A correction pixel value is calculated by executing a blending process in which the blend ratio of the white (W) image and the YUV image is controlled according to the values of the frequency correspondence parameter and the positional deviation correspondence parameter (1).
- the image correction unit The image processing apparatus according to (1) or (2), wherein a correction pixel value is calculated by selectively applying a plurality of different low-pass filters (LPF) having different cutoff frequencies in units of image regions.
- LPF low-pass filters
- the image correction unit (A) an LPF-applied color pixel value to which a low-pass filter (LPF) is applied in units of area of the color image; (B) a divided W pixel value obtained by dividing a pixel value of the white (W) image by a value obtained by applying a low-pass filter (LPF) in units of regions of the white (W) image;
- the image processing apparatus according to any one of (1) to (3), wherein the corrected pixel value is calculated by multiplying the two calculated values.
- the image correction unit A low-pass filter (LPF) applied in units of color image areas, In the high-frequency region, priority is given to a low-pass filter with a relatively low cutoff frequency,
- LPF low-pass filter
- the image processing device according to any one of (1) to (4), wherein a low-pass filter having a relatively high cutoff frequency is preferentially applied in a low-frequency region.
- the image correction unit A low-pass filter (LPF) applied in units of color image areas, In the region where the displacement is large, the low-pass filter with a relatively low cutoff frequency is preferentially applied,
- LPF low-pass filter
- the image processing device according to any one of (1) to (5), wherein a low-pass filter having a relatively high cutoff frequency is preferentially applied in a region where the positional deviation is small.
- the image correction unit (A) an LPF-applied YUV pixel value to which a low-pass filter (LPF) is applied in units of regions of the YUV image; (B) a divided W pixel value obtained by dividing a pixel value of the white (W) image by a value obtained by applying a low-pass filter (LPF) in units of regions of the white (W) image; The image processing apparatus according to (2), wherein the corrected pixel value is calculated by multiplying the two calculated values.
- LPF low-pass filter
- the image correction unit A low pass filter (LPF) applied to the correction pixel value calculation formula is In the high-frequency region, priority is given to a low-pass filter with a relatively low cutoff frequency,
- the image correction unit A low pass filter (LPF) applied to the correction pixel value calculation formula is In the region where the displacement is large, the low-pass filter with a relatively low cutoff frequency is preferentially applied,
- the image processing unit An alignment unit that performs alignment of the color image and the white (W) image;
- the positional deviation corresponding parameter calculation unit The white (W) image and the color image after registration generated by the registration unit are input, and the positional deviation corresponding parameter for each image area of the two input images is calculated (1) to (10)
- An image processing apparatus according to claim 1.
- the image processing unit The color image and the white (W) image are input, and a motion vector detection unit that detects a motion vector between the two images is provided.
- the image processing apparatus according to (11), wherein the alignment unit executes alignment between the color image and the white (W) image using the motion vector.
- the motion vector detection unit includes: The image processing apparatus according to (12), wherein a motion vector corresponding to an image position shift based on a parallax corresponding to a shift in shooting position between the color image capturing unit and the white (W) image capturing unit is detected. .
- a first imaging unit having a W array imaging element in which all pixels are white (W) pixel arrays, and capturing a white (W) image
- a second imaging unit having an RGB array imaging device having an RGB pixel array and capturing a color image
- An image processing unit that inputs the white (W) image and the color image and executes image processing to reduce false colors included in the color image
- the image processing unit A frequency-corresponding parameter calculating unit that inputs the white (W) image and calculates a frequency-corresponding parameter for each image area of the white (W) image;
- a positional deviation correspondence parameter calculating unit that inputs the white (W) image and the color image and calculates a positional deviation correspondence parameter in units of image areas of the two input images;
- An image correction unit that calculates a correction pixel value by executing a blend process in which a blend ratio of the white (W) image and the color image is controlled according to values of the frequency-corresponding parameter and the positional deviation-corresponding parameter.
- the image processing apparatus includes: Image processing for inputting a color image and a white (W) image photographed by a W array imaging device in which all pixels are white (W) pixel arrays and executing image processing for reducing false colors included in the color image Part
- the image processing unit A frequency corresponding parameter calculation process for inputting the white (W) image and calculating a frequency corresponding parameter for each image area of the white (W) image;
- a positional deviation corresponding parameter calculation process for inputting the white (W) image and the color image and calculating a positional deviation corresponding parameter for each input image area;
- the imaging device A first imaging unit having a W array imaging device in which all pixels are white (W) pixel arrays, and capturing a white (W) image; A second imaging unit having an RGB array imaging device having an RGB pixel array and capturing a color image; An image processing unit that inputs the white (W) image and the color image and executes image processing to reduce false colors included in the color image; In the first imaging unit and the second imaging unit, a white (W) image and a color image are captured, In the image processing unit, A frequency corresponding parameter calculation process for inputting the white (W) image and calculating a frequency corresponding parameter for each image area of the white (W) image; A positional deviation corresponding parameter calculation process for inputting the white (W) image and the color image and calculating a positional deviation corresponding parameter for each input image area; An image processing method for calculating a correction pixel value by executing a blend process in which a blend ratio of the white (W) image and the color image is controlled according
- a program for executing image processing in an image processing apparatus includes: Image processing for inputting a color image and a white (W) image photographed by a W array imaging device in which all pixels are white (W) pixel arrays and executing image processing for reducing false colors included in the color image Part
- the program is stored in the image processing unit.
- a process of calculating a correction pixel value is executed by executing a blend process in which a blend ratio of the white (W) image and the color image is controlled in accordance with values of the frequency-corresponding parameter and the positional deviation-corresponding parameter. Program to make.
- a program for executing image processing in an imaging apparatus The imaging device A first imaging unit having a W array imaging device in which all pixels are white (W) pixel arrays, and capturing a white (W) image; A second imaging unit having an RGB array imaging device having an RGB pixel array and capturing a color image; An image processing unit that inputs the white (W) image and the color image and executes image processing to reduce false colors included in the color image;
- the program is In the first imaging unit and the second imaging unit, a white (W) image and a color image are captured, In the image processing unit, A frequency corresponding parameter calculation process for inputting the white (W) image and calculating a frequency corresponding parameter for each image area of the white (W) image; A positional deviation corresponding parameter calculation process for inputting the white (W) image and the color image and calculating a positional deviation corresponding parameter for each input image area; A process of calculating a correction pixel value is executed by executing a blend process in which a blend ratio of the white (W) image and the
- the series of processes described in the specification can be executed by hardware, software, or a combined configuration of both.
- the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run.
- the program can be recorded in advance on a recording medium.
- the program can be received via a network such as a LAN (Local Area Network) or the Internet and installed on a recording medium such as a built-in hard disk.
- the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary.
- the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.
- an apparatus and a method for performing false color correction according to image characteristics in units of image areas in a color image are realized.
- An image processing unit for executing The image processing unit inputs a white (W) image, inputs a frequency corresponding parameter calculation unit that calculates a frequency corresponding parameter for each image region, a white (W) image, and a color image, and inputs two input images.
- the blend ratio of the white (W) image and the color image is controlled according to the values of the misalignment correspondence parameter calculation unit, the frequency correspondence parameter, and the misalignment correspondence parameter that calculate the misalignment correspondence parameter for each image area.
- a blending process is executed to calculate a corrected pixel value.
- SYMBOLS 100 Image processing apparatus 101 Control part 102 Storage part 103 Codec 104 Input part 105 Output part 106 Imaging part 107 1st imaging part 108 2nd imaging part 111 W-RAW image 112 RGB-RAW image 113 Sensor noise characteristic ((sigma)) DESCRIPTION OF SYMBOLS 120 Image processing part 121 Development processing part 122 Motion vector detection part 123 Position alignment part 124 Frequency corresponding parameter calculation part 125 Position shift corresponding parameter calculation part 126 Image correction part 127 Signal conversion part 150 RGB image 151 Absolute value calculation of adjacent pixel pixel value difference Unit 152 dynamic range (DR) calculation unit 153 frequency parameter calculation unit 154 addition unit 155 blend ratio calculation unit 161 post-alignment YUV image 162 YUV image base W image 163 pixel value adjustment YUV image base W image 164 difference image 171 signal conversion unit 172 1st area unit pixel value addition part 173 2nd area unit pixel value addition part 174 Area unit pixel non-calculation part
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Color Television Image Signal Generators (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
Description
撮像素子には、例えばRGB配列からなるカラーフィルタが設けられ、カラーフィルタを介した入射光が撮像素子上に到達して各入射光量に応じた電気信号を出力する。
このようなカラーフィルタを用いた撮像構成では、例えば単位面積たりの輝度や色信号の変化量の大きい、いわゆる高周波信号領域に偽色が発生しやすい。特に高密度化された撮像素子では、偽色がより発生しやすい傾向がある。
特許文献1には、一般的なカラー画像撮影のためのRGB画素配列、例えばベイヤ配列を持つ撮像素子(イメージセンサ)と、ホワイト(W)画素のみからなるW画素配列からなる撮像素子の2つの撮像素子を用いた2枚の撮影画像を用いて、色補正を実行する構成を開示している。
また、RGB画像とW画像の2つの画像を用いるためには、2つの撮像素子を並べて撮影することが必要であり、2つの画像に視差に基づく位置ずれが発生する。
上記の領域単位の補正を正しく行うためには、2画像の位置ずれを解消するための位置合わせを実行した上で領域単位の画像特性を検出して、領域単位で最適な補正を行う必要がある。
カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記画像処理部は、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像補正部を有する画像処理装置にある。
全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記画像処理部は、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像補正部を有する撮像装置にある。
画像処理装置において実行する画像処理方法であり、
前記画像処理装置は、
カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記画像処理部が、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像処理方法にある。
撮像装置において実行する画像処理方法であり、
前記撮像装置は、
全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記第1撮像部と、前記第2撮像部において、ホワイト(W)画像とカラー画像を撮影し、
前記画像処理部において、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像処理方法にある。
画像処理装置において画像処理を実行させるプログラムであり、
前記画像処理装置は、
カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記プログラムは、前記画像処理部に、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する処理を実行させるプログラムにある。
撮像装置において画像処理を実行させるプログラムであり、
前記撮像装置は、
全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記プログラムは、
前記第1撮像部と、前記第2撮像部において、ホワイト(W)画像とカラー画像を撮影させ、
前記画像処理部に、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する処理を実行させるプログラムにある。
具体的には、カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有する。画像処理部は、ホワイト(W)画像を入力し、画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、ホワイト(W)画像と、カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、ホワイト(W)画像と、カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する。
これらの処理により、カラー画像における画像領域単位の画像特性に応じた偽色補正を行う装置、方法が実現され、偽色を除去または低減した高品質な画像を生成して出力することが可能となる。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
1.本開示の画像処理装置の構成と処理について
2.画像処理部の構成と、偽色低減処理について
3.画像補正部の実行する画像特性に応じた画像処理について
4.画像特性に応じて複数の異なるローパスフィルタを組み合わせて利用した画像処理について
5.画像処理装置の実行する画像処理の処理シーケンスについて
6.画像処理装置のその他の構成例について
7.本開示の構成のまとめ
図1以下を参照して本開示の画像処理装置の構成と処理について説明する。
図1は、本開示の画像処理装置100の一例である撮像装置の構成を示すブロック図である。
なお、本開示の画像処理装置は、撮像装置に限らず、例えば撮像装置の撮影画像を入力して画像処理を実行するPC等の情報処理装置も含まれる。
以下では、本開示の画像処理装置100の一例として、撮像装置の構成と処理について説明する。
以下の実施例において説明する撮影処理以外の画像処理は、撮像装置に限らず、PC等の情報処理装置において実行することも可能である。
撮像部106は、可視光の全波長領域の入射光量に基づく電気信号出力を行うW(ホワイト)画素配列撮像素子を有する第1撮像部107と、RGBのカラーフィルタ、例えばベイヤ配列からなるカラーフィルタを有し、各画素単位でRGB各色の入力光対応の信号を出力するRGB画素配列撮像素子を有する第2撮像部108によって構成される。
なお、これらの撮影タイミングの制御は制御部101によって行われる。
従って、2つの画像の対応画素、すなわち同一位置の画素には同一の被写体画像が撮影されず、視差に応じた被写体ずれが発生する。
本開示の画像処理装置100は、画像処理部120においてこのずれを考慮して画像補正、具体的には偽色を低減させる画像処理を行なう、この処理の詳細については後述する。
コーデック103は、撮影画像の圧縮、伸長処理等の符号化、復号処理を実行する。
入力部104は、例えばユーザ操作部であり、撮影開始、終了、様々なモード設定等の制御情報を入力する。
出力部105は表示部、スピーカ等によって構成され、撮影画像、スルー画等の表示、音声出力等に利用される。
ベイヤ配列は、RGB各色の波長光を選択的に透過するRGBフィルタによって構成される。
2×2の4画素中の対角上に2つのG画素が設定され、残りにR、B画素が1zずつ配置される。
通常の単眼カメラでは、このような処理によってカラー画像の生成が行われるが、この処理において、このような処理を行なうと、前述したように、本来の被写体にはない色が出力画像中に出現する偽色が発生することがある。
本開示の画像処理装置では、図1に示す画像処理部120内における画像処理によって、この偽色を減少させる処理を行なう。
この具体的処理については後段で説明する。
図1の第1撮像部107は、全画素についてRGBの全ての波長光を入射するW画素を全画素位置に配列したW画素配列撮像素子による撮像画像としてのW-RAW画像111を生成して画像処理部120に入力する。
なお、センサノイズ特性(σ)113は、撮像部106の第1撮像部107、第2撮像部108において用いられる撮像素子のノイズ特性であり、例えば、制御部101によって予め取得され、記憶部102に格納される。
なお、ここでは、第1撮像部107、第2撮像部108において用いられる撮像素子のノイズ特性を共通の値(σ)として示しているが、各撮像部の撮像素子各々の特性、σ1,σ2を用いる構成としてもよい。
次に、図3以下を参照して、図1に示す画像処理装置100の画像処理部120の構成と処理について説明する。
図3に示ように、画像処理部120は、現像処理部121、動きベクトル検出部122、位置合わせ部123、周波数対応パラメータ算出部124、位置ずれ対応パラメータ125、画像補正部126、信号変換部127を有する。
画像処理部120は、図1に示す第2撮像部108の撮影画像であるRGB画像に発生する偽色を低減させる処理を実行して、偽色の低減されたRGB画像150を出力する。
(1)第1撮像部107から入力するW画像111、
(2)第2撮像部108から入力するRGB-RAW画像112、
(3)センサノイズ特性(σ)113、
(a)撮像素子を構成する回路に基づいて発生するDCオフセットやノイズ信号に基づくオフセット成分を除去するクランプ処理、
(b)RGB-RAW画像の各画素に設定されたRGBの単一信号値に基づいて、各画素にRGBの3信号を設定するデモザイク処理、
(c)白の被写体に対するRGB値を揃えるホワイトバランス処理、
(d)RGB値のYUV値への変換処理、
これらの処理を実行する。
なお、これらの処理は、いずれも既存技術を適用して実行可能である。
YUV画像130は、全画素にY(輝度),U(色差),V(色差)の3つの画素値が設定された画像である。
動きベクトル検出部122は、第1撮像部107からW画像111を入力するとともに、現像処理部121が、第2撮像部108の撮影画像であるRGB-RAW画像112に基づいて生成した、YUV画像130中のY信号(輝度信号)を入力する。
動きベクトル検出部122は、これらの2つの信号(W信号,Y信号)に基づいて、2つの画像の位置ずれに相当する動きベクトル(MV:Motion Vector)を検出する。
従って、2つの画像の対応画素、すなわち同一位置の画素には同一の被写体画像が撮影されず、視差に応じた被写体ずれが発生する。
具体的には、2つの画像(W画像、Y画像)の対応点をもとめ、その対応点を結ぶベクトルを動きベクトル(MV)として算出する。
動きベクトル検出部122の生成した動きベクトル(MV)は、位置合わせ部123に入力される。
位置合わせ部123は、YUV画像130を、動きベクトル(MV)の大きさと方向に従って各画素位置を移動させて、W画像、すなわち、第1撮像部107の撮影画像であるW-RAW画像111と同一視点位置から撮影されたと同様のYUV画像を生成する。
位置合わせ部123の生成した位置合わせ処理後のYUV画像は、位置ずれ対応パラメータ算出部125に入力される。
さらに、色差信号UVは、画像補正部126に入力される。
周波数対応パラメータ算出部124は、第1撮像部107の撮影画像であるW-RAW画像111と、センサノイズ特性(σ)113を入力し、これらの入力データに基づいて、偽色補正に利用するための補正パラメータである周波数対応ブレンド率設定パラメータを算出して画像補正部126に出力する。
このセンサノイズ特性(σ)113は、例えば、制御部101によって予め取得され、記憶部102に格納され、制御部101の制御によって記憶部102から取得され、周波数対応パラメータ算出部124に入力される。
図4は、周波数対応パラメータ算出部124の具体的構成を示す図である。
図4に示すように、周波数対応パラメータ算出部124は、第1撮像部107の撮影画像であるW-RAW画像111と、センサノイズ特性(σ)113を入力し、これらの入力データに基づいて、偽色補正に利用するための補正パラメータである周波数対応ブレンド率設定パラメータを算出して画像補正部126に出力する。
図5(a)は、周波数対応パラメータ算出部124において算出する周波数対応ブレンド率設定パラメータの算出領域の設定例について説明する図である。
周波数対応パラメータ算出部124において算出する周波数対応ブレンド率設定パラメータは、各画素対応のパラメータである。
なお、この画素領域の大きさは、様々な設定が可能である。
周波数対応パラメータ算出部124における周波数対応ブレンド率設定パラメータの算出処理は、以下の手順(ステップS01~S03)に従って行われる。
ステップS01,S02の処理は、図4に示す隣接画素画素画素値差分絶対値算出部151と、ダイナミックレンジ(DR)算出部152と、周波数パラメータ算出部153において実行する処理である。
この処理は、パラメータ算出対象画素(x,y)を中心としたパラメータ算出領域に含まれる水平方向の画素の画素値を利用した処理である。
図5(a)に示すパラメータ算出領域設定例では、パラメータ算出対象画素(x,y)と、パラメータ算出対象画素(x,y)の左側の4画素と、右側の4画素の計9画素の画素値を利用して、水平方向の周波数パラメータ(activity)[actHOR]を算出する。
上記(式1)において、Wx-i,yは、W-RAW画像111の画素位置(x-i,y)の画素値であり、Wx-i+1,yは、W-RAW画像111の画素位置(x-i+1,y)の画素値である。
iは、パラメータ算出領域の画素位置(x座標)を示す変数であり、図4(a)の設定の場合、i=4~-4となる。
次に、垂直方向の周波数パラメータ(activity)[actVER]を算出する。
この処理は、パラメータ算出対象画素(x,y)を中心としたパラメータ算出領域に含まれる垂直方向の画素の画素値を利用した処理である。
図4(a)に示すパラメータ算出領域設定例では、パラメータ算出対象画素(x,y)と、パラメータ算出対象画素(x,y)の上側の4画素と、下側の4画素の計9画素の画素値を利用して、垂直方向の周波数パラメータ(activity)[actVER]を算出する。
上記(式2)において、Wx,y-iは、W-RAW画像111の画素位置(x,y-i)の画素値であり、Wx,y-i+1は、W-RAW画像111の画素位置(x,y-i+1)の画素値である。
iは、パラメータ算出領域の画素位置(y座標)を示す変数であり、図4(a)の設定の場合、i=4~-4となる。
ステップS03の処理は、図4に示す加算部154、ブレンド率算出部155の実行する処理である。
ステップS03では、以下の処理を実行する。
上記のステップS01で算出した水平方向の周波数パラメータ(activity)[actHOR]と、
ステップS02で算出した垂直方向の周波数パラメータ(activity)[actVER]、
これらの2方向のパラメータを用いて、以下の(式3)に従って、周波数対応ブレンド率設定パラメータ[ratioFreq]を算出する。
αは、予め規定したパラメータ算出係数であり、例えば、
act=actHOR+actVER
上記式によって算出されるactの値の最大値をαとする。
なお、パラメータ算出係数(α)の一例として、例えば、α=5を用いることができる。
上記(式3)に従って算出される周波数対応ブレンド率設定パラメータ[ratioFreq]は0~1の範囲の値となる。
画素値が細かく変化する高周波領域では大きな値、すなわち1に近い値となり、、
画素値の変化が少ない平坦な画像領域、すなわち低周波領域では小さな値、すなわち0に近い値となる。
なお、周波数対応パラメータ算出部124は、周波数対応ブレンド率設定パラメータ[ratioFreq]を、第1撮像部107の撮影画像であるW-RAW画像111を構成する全画素について算出する。
算出パラメータは、画像補正部126に入力される。
図3に示す位置ずれ対応パラメータ算出部125は、第1撮像部107の撮影画像であるW-RAW画像111と、位置合わせ部123が生成した位置合わせ後のYUV画像、すなわち、第1撮像部107の撮影視点から撮影したと同等のYUV画像と、センサノイズ特性(σ)113を入力し、これらの入力データに基づいて、偽色補正に利用するための補正パラメータである位置ずれ対応ブレンド率設定パラメータを算出して画像補正部126に出力する。
このセンサノイズ特性(σ)113は、例えば、制御部101によって予め取得され、記憶部102に格納され、制御部101の制御によって記憶部102から取得され、位置ずれ対応パラメータ算出部125に入力される。
図6に示すように、位置ずれ対応パラメータ算出部125は、第1撮像部107の撮影画像であるW-RAW画像111と、位置合わせ部123が生成した位置合わせ後YUV画像161、すなわち、第1撮像部107の撮影視点から撮影したと同等の位置合わせ後YUV画像161と、センサノイズ特性(σ)113を入力し、これらの入力データに基づいて、偽色補正に利用するための補正パラメータである位置ずれ対応ブレンド率設定パラメータ202を算出して画像補正部126に出力する。
具体的には、図7に示す式、すなわち、下記式(式4)に従って、YUV信号をW(ホワイト)信号に変換する。
乗算部175は、YUV画像ベースW画像162の構成画素の画素値に、領域単位加算画素値比(A/B)を乗算する処理を実行して、画素値を変換する。
なお、各画素の位置が含まれる領域の領域単位加算画素値比(A/B)を組み合わせて乗算処理を実行する。
乗算部175は、このレベル調整により、画素値調整YUV画像ベースW画像163を生成して差分算出部176に出力する。
しかし、偽色発生領域においては、画素値調整YUV画像ベースW画像163のW画素値と、W-RAW画像111のW画素の画素値とに差分が発生する。
差分算出部176は、この差分(diff)を検出する。
算出された各画素対応の差分値からなる差分画像164が、フィルタ処理部177に入力される。
ブレンド率算出部178は、差分画素値からなる差分画像164のフィルタリング結果画像の各画素値(フィルタリング後の差分画素値)に基づいて、位置ずれ対応ブレンド率設定パラメータ(ratioERR)202を算出して、画像補正部126に出力する。
横軸が入力値である「差分画素値からなる差分画像164のフィルタリング結果画像の各画素値(フィルタリング後の差分画素値)」、
縦軸が、出力値となる「位置ずれ対応ブレンド率設定パラメータ(ratioERR)202」である。
(a)入力値<σの場合、ブレンド率を示す出力値=0
(b)σ≦入力値<3σの場合、ブレンド率を示す出力値=0~1の範囲で入力値に比例して増加させる設定、
(c)3σ≦入力値の場合、ブレンド率を示す出力値=1
なお、ブレンド率算出部178の算出する位置ずれ対応ブレンド率設定パラメータ[ratioErr]は0~1の範囲の値となる。
位置ずれが大きい(=偽色が多い)画素領域では、大きな値、すなわち、1に近い値となり、
位置ずれが小さい(=偽色が少ない)画素領域では、小さな値、すなわち、0に近い値となる。
従って、「位置ずれが大きい」とは「偽色が多い」ことに相当し、「位置ずれが小さい」とは「偽色が少ない」ことに相当する。
なお、図8に示す入出力値の対応関係例は一例であり、この他の様々な設定が可能である。
次に、図3に示す画像処理部120の画像補正部126の処理について、図9以下を参照して説明する。
図9に示すように、画像補正部126は、以下の各データを入力する。
(a)第1撮像部107の撮影画像であるW-RAW画像111、
(b)位置合わせ部123の生成した位置合わせ後YUV画像161、
(c)周波数対応パラメータ算出部124の生成した周波数対応ブレンド率設定パラメータ[ratioFreq]、
(d)位置ずれ対応パラメータ算出部125の生成した位置ずれ対応ブレンド率設定パラメータ[ratioErr]、
LPF(U)は、位置合わせ部123の生成した位置合わせ後YUV画像161の画素値信号Uに対するローパスフィルタの適用処理である。
LPF(V)は、位置合わせ部123の生成した位置合わせ後YUV画像161の画素値信号Vに対するローパスフィルタの適用処理である。
LPF(W)は、第1撮像部107の撮影画像であるW-RAW画像111の画素値信号Wに対するローパスフィルタの適用処理である。
例えば(式5)中の補正後U信号(Uout)の算出式に示す「LPF(U)」は、YUV画像161の画素信号Uに対してローパスフィルタを適用して、偽色画素値を周囲画素の画素値によって平滑化して、偽色を低減させる。
しかし、この平滑化によって、画像の「ぼけ」が発生してしまう。このぼけを解消するために、第1撮像部107の撮影画像であるW-RAW画像111の画素値信号Wをブレンドする。すなわち、「W/LPF(W)」を乗算して、画像の「ぼけ」を解消させる。
しかし、この平滑化によって、画像の「ぼけ」が発生してしまう。このぼけを解消するために、第1撮像部107の撮影画像であるW-RAW画像111の画素値信号Wをブレンドする。すなわち、「W/LPF(W)」を乗算して、画像の「ぼけ」を解消させる。
(1)位置合わせ部123の生成した位置合わせ後YUV画像161と、
(2)第1撮像部107の撮影画像であるW-RAW画像111、
これらの2つの画像のブレンド処理が行われることを示している。
画像補正部126は、補正後UV信号(Uout,Vout)203を算出する際に、画像領域単位の特性、
(1)周波数特性
(2)位置ずれ特性
これらの特性に応じて、異なるブレンド率、すなわち、位置合わせ後YUV画像161とW-RAW画像111とのブレンド率を変更して、最終的な補正後UV信号(Uout,Vout)203を算出する。
(1)周波数対応パラメータ算出部124の生成した周波数対応ブレンド率設定パラメータ[ratioFreq]、
(2)位置ずれ対応パラメータ算出部125の生成した位置ずれ対応ブレンド率設定パラメータ[ratioErr]、
これらのパラメータである。
(a)画像領域の特性
(b)RGBセンサ出力画像とWセンサ出力画像とのブレンド率設定例
なお、(b)に示すRGBセンサ出力画像は、位置合わせ後YUV画像161に相当し、Wセンサ出力画像は、W-RAW画像111に相当する。
(1)周波数=低域、位置ずれ=小
(2)周波数=高域、位置ずれ=小
(3)周波数=低域~広域、位置ずれ=大
この画像特性を有する画像領域は、低周波数領域、すなわち、画素値変化の少ない平坦な画像領域であり、かつ、位置ずれ=小、すなわち、本来の画素位置対応の画素値以外の画素値が出力されている「位置ずれ」(=偽色発生と推定)が小さい画像領域である。
このような画像特性を有する画像領域については、図10の(1)(b)の欄に示すように、RGBセンサ出力画像(位置合わせ後YUV画像161)のブレンド率を高くし、Wセンサ出力画像(W-RAW画像111)のブレンド率を小さくした設定とする。
このような設定のブレンド率に従ったブレンド処理によって、補正後UV信号(Uout,Vout)203を算出する。
この画像特性を有する画像領域は、高周波数領域、すなわち、画素値変化の激しい画像領域であり、かつ、位置ずれ=小、すなわち、本来の画素位置対応の画素値以外の画素値が出力されている「位置ずれ」(=偽色発生と推定)が小さい画像領域である。
このような画像特性を有する画像領域については、図10の(2)(b)の欄に示すように、RGBセンサ出力画像(位置合わせ後YUV画像161)と、Wセンサ出力画像(W-RAW画像111)のブレンド率を、ほぼ同等にする。
このような設定のブレンド率に従ったブレンド処理によって、補正後UV信号(Uout,Vout)203を算出する。
この画像特性を有する画像領域は、低周波数領域~高周波領域、すなわち、画素値変化の少ない平坦な画像領域から、高周波数領域、すなわち、画素値変化の激しい画像領域の様々な周波数領域であり、かつ、位置ずれ=大、すなわち、本来の画素位置対応の画素値以外の画素値が出力されている「位置ずれ」(=偽色発生と推定)が大きい画像領域である。
このような画像特性を有する画像領域については、図10の(3)(b)の欄に示すように、RGBセンサ出力画像(位置合わせ後YUV画像161)のブレンド率を小さくし、Wセンサ出力画像(W-RAW画像111)のブレンド率を大きくした設定とする。
このような設定のブレンド率に従ったブレンド処理によって、補正後UV信号(Uout,Vout)203を算出する。
図11に示す処理例は、前述の(式5)として示す出力信号算出式に適用するローパスフィルタ(LPF)を、画像特性、すなわち、
(1)周波数対応パラメータ算出部124の生成した周波数対応ブレンド率設定パラメータ[ratioFreq]、
(2)位置ずれ対応パラメータ算出部125の生成した位置ずれ対応ブレンド率設定パラメータ[ratioErr]、
これらのパラメータの値に応じて切り替える処理例について説明する図である。
例えば、各ローパスフィルタとして、以下の設定のローパスフィルタが適用可能である。
LPF0は3×3(画素)の移動平均フィルタ、
LPF1は13×13(画素)の移動平均フィルタ、
LPF2は25×25(画素)の移動平均フィルタ、
このような設定の移動平均フィルタを、上記3つのローパスフィルタ(LPF0~LPF2)として適用することができる。
例えば、3×3の移動平均フィルタの係数設定は、以下の(式6)に示す設定となる。
LPF1は13×13(画素)の移動平均フィルタ、
LPF2は25×25(画素)の移動平均フィルタ、
このような設定とした場合、LPF0を適用すれば、より小さい画素領域(3×3)を処理単位とした平滑化処理が行われ、LPF1を適用すれば、より画素領域(13×13)を処理単位としたの平滑化処理が行われ、LPF2を適用すれば、より大きい画素領域(25×25)を処理単位とした平滑化処理が行われることになる。
(1)周波数=低域、位置ずれ=小、すなわち、図11に示す領域(1)である。
周波数対応ブレンド率設定パラメータ:ratioFreq<Thf1、
位置ずれ対応ブレンド率設定パラメータ:ratioErr<The1、
これらの条件を満たす領域である。なお、Thはしきい値を示す。
このような画像特性を有する画像領域については、前述の(式5)の出力信号算出式のLPFとして、カットオフ周波数が最も高いローパスフィルタ(LPF0)を適用して補正後UV信号(Uout,Vout)203を算出する。
周波数対応ブレンド率設定パラメータが、Thf2≦ratioFreq、
位置ずれ対応ブレンド率設定パラメータが、The1≦ratioErr、
これらの条件を満たす領域である。なお、Thはしきい値を示す。
このような画像特性を有する画像領域については、前述の(式5)の出力信号算出式のLPFとして、カットオフ周波数が最も低いローパスフィルタ(LPF2)を適用して補正後UV信号(Uout,Vout)203を算出する。
この画像特性を有する画像領域については、前述の(式5)の出力信号算出式のLPFとして、カットオフ周波数が中程度のローパスフィルタ(LPF1)を適用して補正後UV信号(Uout,Vout)203を算出する。
(a)画像領域の特性
(b)パラメータの値
(c)適用フィルタ
(d)補正後UV値(Uout,Vout)
(e)RGBセンサ出力画像と、Wセンサ出力画像とのブレント率設定例
(a)画像領域の特性:周波数=低、位置ずれ=小
(b)パラメータの値:周波数対応ブレンド率設定パラメータ=ratioFreq<Thf1、位置ずれ対応ブレンド率設定パラメータ=ratioErr<The1、
(c)適用フィルタ:LPF0、
(d)補正後UV値(Uout,Vout):Uout=U0=LPF0(U)、Vout=V0=LPF0(V)、
(e)RGBセンサ出力画像と、Wセンサ出力画像とのブレント率設定例:RGBセンサ出力>Wセンサ出力、
(a)画像領域の特性:周波数=高、位置ずれ=大
(b)パラメータの値:周波数対応ブレンド率設定パラメータが、Thf2≦ratioFreq、位置ずれ対応ブレンド率設定パラメータが、The1≦ratioErr、
(c)適用フィルタ:LPF2、
(d)補正後UV値(Uout,Vout):Uout=U2=LPF2(U)、Vout=V2=LPF2(V)、
(e)RGBセンサ出力画像と、Wセンサ出力画像とのブレント率設定例:RGBセンサ出力<Wセンサ出力、
(a)画像領域の特性:(1)、(3)以外、
(b)パラメータの値:(1),(3)以外、
(c)適用フィルタ:LPF1、
(d)補正後UV値(Uout,Vout):Uout=U1=LPF1(U)、Vout=V1=LPF1(V)、
(e)RGBセンサ出力画像と、Wセンサ出力画像とのブレント率設定例:RGBセンサ出力≒Wセンサ出力、
例えば図13には、画像特性と、各画像特性に応じて適用する4つの異なるローパスフィルタ(LPF0~LPF3)の適用領域の例を示している。
4つのローパスフィルタ(LPF0~LPF3)の違いは、カットオフ周波数の差であり、LPF0のカットオフ周波数が最も高く、LPF3のカットオフ周波数が最も低い。
また、周波数対応ブレンド率設定パラメータ[ratioFreq]、または、位置ずれ対応ブレンド率設定パラメータ[ratioErr]が、0に近いほど、カットオフ周波数の高いLPF、例えばLPF0等のLPFを適用する。
5つのローパスフィルタ(LPF0~LPF4)の違いは、カットオフ周波数の差であり、LPF0のカットオフ周波数が最も高く、LPF4のカットオフ周波数が最も低い。
また、周波数対応ブレンド率設定パラメータ[ratioFreq]、または、位置ずれ対応ブレンド率設定パラメータ[ratioErr]が、0に近いほど、カットオフ周波数の高いLPF、例えばLPF0等のLPFを適用する。
次に、図15以下を参照して、画像補正部126において実行する補正後UV信号(Uout,Vout)203の生成処理のもう1つの実施例について説明する。
以下に説明する実施例は、画像特性に応じて、複数の異なるローパスフィルタを組み合わせて利用した画像処理を行なう例である。
(a)第1撮像部107の撮影画像であるW-RAW画像111、
(b)位置合わせ部123の生成した位置合わせ後YUV画像161、
(c)周波数対応パラメータ算出部124の生成した周波数対応ブレンド率設定パラメータ[ratioFreq]、
(d)位置ずれ対応パラメータ算出部125の生成した位置ずれ対応ブレンド率設定パラメータ[ratioErr]、
図15(a)に示す出力信号算出式は、先に説明した(式5)、すなわち、図9(a)に示す出力信号算出式をベースとして作成された式である。
図15(a)に示す出力信号算出式は、周波数対応ブレンド率設定パラメータ[ratioFreq]と、位置ずれ対応ブレンド率設定パラメータ[ratioErr]を適用して画像領域特性に応じて画像のブレンド率を変更して、補正後UV信号(Uout,Vout)を生成するための式となる。
U0,U1,U2、およびV0,V1,V2は、複数の異なるローパスフィルタ(LPF)を適用した画素値変換結果として得られるUV値である。
図16(a)は、図15(a)に示す式と同様の式、すなわち上記(式7)に示す補正後UV信号(Uout,Vout)算出式である。
図16(b)に示すように、Un,Vn(n=0~3)は、以下の(式8)によって算出される。
(a)第1撮像部107の撮影画像であるW-RAW画像111、
(b)位置合わせ部123の生成した位置合わせ後YUV画像161、
これらの画像のブレンド処理を実行する式である。
U0,V0は、ローパスフィルタLPF0を、入力データである位置合わせ部123の生成した位置合わせ後YUV画像161のUV画素値に適用して得られるUV値である。
U1,V1は、ローパスフィルタLPF1を、入力データである位置合わせ部123の生成した位置合わせ後YUV画像161のUV画素値に適用して得られるUV値である。
U2,V2は、ローパスフィルタLPF2を、入力データである位置合わせ部123の生成した位置合わせ後YUV画像161のUV画素値に適用して得られるUV値である。
図16(c)に示すように、入力データである位置合わせ部123の生成した位置合わせ後YUV画像161のUV画素値と、ローパスフィルタ(LPF0~LPF2)の適用結果として得られるフィルタ処理後のUV値(U0,U1,U2、およびV0,V1,V2)との対応関係は、以下の通りである。
V0=LPF0(V)
U1=LPF1(U)
V1=LPF1(V)
U2=LPF2(U)
V2=LPF2(V)
例えば、各ローパスフィルタとして、以下の設定のローパスフィルタが適用可能である。
LPF0は3×3(画素)の移動平均フィルタ、
LPF1は13×13(画素)の移動平均フィルタ、
LPF2は25×25(画素)の移動平均フィルタ、
このような設定の移動平均フィルタを、上記3つのローパスフィルタ(LPF0~LPF2)として適用することができる。
例えば、3×3の移動平均フィルタの係数設定は、先に説明した(式6)に示す設定となる。
LPF0は3×3(画素)の移動平均フィルタ、
LPF1は13×13(画素)の移動平均フィルタ、
LPF2は25×25(画素)の移動平均フィルタ、
このような設定のローパスフィルタを画像に適用することで、以下のような平滑化処理が実行される。
周波数対応ブレンド率設定パラメータ[ratioFreq]は、
画素値が細かく変化する高周波領域では大きな値、すなわち1に近い値となり、、
画素値の変化が少ない平坦な画像領域、すなわち低周波領域では小さな値、すなわち0に近い値となる。
また、位置ずれ対応ブレンド率設定パラメータ[ratioErr]は、
位置ずれが大きい(=偽色が多い)画素領域では、大きな値、すなわち、1に近い値となり、
位置ずれが小さい(=偽色が少ない)画素領域では、小さな値、すなわち、0に近い値となる。
Uout=(1-ratioErr)((1-ratioFreq)×U0+ratioFreq×U1)+ratioErr×U2
Vout=(1-ratioErr)((1-ratioFreq)×V0+ratioFreq×V1)+ratioErr×V2
・・・・・(式7)
図17には、横軸に位置ずれ(偽色量に相当)、縦軸に周波数の各軸を示し、かつ、代表的な複数の画像特性に応じた領域例1~7を示している。
以下、領域例1~7に対応する画像特性(位置ずれと周波数)に応じて、上記(式7)に従って算出される補正後UV信号(Uout,Vout)が、どのような設定となるかについて、説明する。
このように、位置ずれが少なく、かつ画素値の変化が少ない低周波領域では、
Uout=U0
Vout=V0
上記設定となる。
すなわち、3つのローパスフィルタ(LPF0,LPF1,LPF2)の中で、最も高いカットオフ周波数を持つLPF0を、入力UV値(U,V)に適用した画素値が、補正後UV信号(Uout,Vout)として設定される。
このように、位置ずれが中程度であり、かつ画素値の変化が少ない低周波領域では、
Uout=0.5×U0+0,5×U2
Vout=0.5×V0+0.5×V2
上記設定となる。
すなわち、3つのローパスフィルタ(LPF0,LPF1,LPF2)の中で、最も高いカットオフ周波数を持つLPF0を、入力UV値(U,V)に適用した画素値と、最も低いカットオフ周波数を持つLPF2を、入力UV値(U,V)に適用した画素値との平均値が、補正後UV信号(Uout,Vout)として設定される。
このように、位置ずれが大きい画素領域では、低周波~高周波の全領域で、
Uout=U2
Vout=V2
上記設定となる。
すなわち、3つのローパスフィルタ(LPF0,LPF1,LPF2)の中で、最も低いカットオフ周波数を持つLPF2を、入力UV値(U,V)に適用した画素値が、補正後UV信号(Uout,Vout)として設定される。
このように、位置ずれが少なく、かつ画素値の変化が中程度の周波数領域では、
Uout=0.5×U0+0.5×U1
Vout=0.5×V0+0.5×V1
すなわち、3つのローパスフィルタ(LPF0,LPF1,LPF2)の中で、最も高いカットオフ周波数を持つLPF0を、入力UV値(U,V)に適用した画素値と、中程度のカットオフ周波数を持つLPF1を、入力UV値(U,V)に適用した画素値との平均値が、補正後UV信号(Uout,Vout)として設定される。
このように、位置ずれが中程度で、かつ画素値の変化が中程度の周波数領域では、
Uout=0.5×(0.5×U0+0.5×U1)+0.5×U2
Vout=0.5×(0.5×V0+0.5×V1)+0.5×V2
上記設定となる。
このように、位置ずれが少なく、かつ画素値が細かく変化する高周波領域では、
Uout=U1
Vout=V1
上記設定となる。
すなわち、3つのローパスフィルタ(LPF0,LPF1,LPF2)の中で、中程度のカットオフ周波数を持つLPF1を、入力UV値(U,V)に適用した画素値が、補正後UV信号(Uout,Vout)として設定される。
このように、位置ずれが中程度で、かつ画素値が細かく変化する高周波領域では、
Uout=0.5×U1+0.5×U2
Vout=0.5×V1+0.5×V2
すなわち、3つのローパスフィルタ(LPF0,LPF1,LPF2)の中で、中程度のカットオフ周波数を持つLPF1を、入力UV値(U,V)に適用した画素値と、最も低いカットオフ周波数を持つLPF2を、入力UV値(U,V)に適用した画素値との平均値が、補正後UV信号(Uout,Vout)として設定される。
補正後UV信号(Uout,Vout)203の生成処理に際して、画像補正部126が領域の特徴に応じて実行する処理との対応をまとめると以下のようになる。
高周波成分の多い領域では、カットオフ周波数が中程度のローパスフィルタLPF1を用いて、中程度の範囲の周囲画素(例えば13×13画素)の画素値に基づいて平滑化する処理を実行する。
また、高周波成分の少ない低周波領域では、カットオフ周波数が高いローパスフィルタLPF0を用いて、小さい範囲の周囲画素(例えば3×3画素)の画素値に基づいて平滑化する処理を実行する。
信号変換部127は、これらの入力信号に基づいてく信号変換を実行して、RGB画像150を生成して出力する。
この信号変換処理は、既存の変換式に従って行われる。
なお、記憶部格納処理や、外部出力処理の前処理として圧縮処理等の符号化処理を実行する場合もある。
なお、YUV信号からRGB信号への必須ではなく、YUV信号のまま、表示装置への出力、記憶部に対する格納、あるいは外部出力を行う構成としてもよい。
次に、図18に示すフローチャートを参照して画像処理装置の実行する画像処理の処理シーケンスについて説明する。
以下、図18に示す各ステップの処理について、順次、説明する。
ステップS101a,101bは、画像撮影処理である。
図1に示す撮像部106の第1撮像部107と、第2撮像部108において2枚の画像が撮影される。
ステップS101aは、先に図2(a)を参照して説明したベイヤ配列等のRGB画素配列を持つ撮像素子を有する第2撮像部108において実行されるRGB画像の撮影処理である。
次に、ステップS102において、ステップS101aで第2撮像部108が撮影したRGB画像の現像処理を実行する。
先に説明したように、現像処理部121は、第2撮像部108から入力するRGB-RAW画像112に対する現像処理を実行する。具体的には、例えば以下の処理を実行する。
(a)撮像素子を構成する回路に基づいて発生するDCオフセットやノイズ信号に基づくオフセット成分を除去するクランプ処理、
(b)RGB-RAW画像の各画素に設定されたRGBの単一信号値に基づいて、各画素にRGBの3信号を設定するデモザイク処理、
(c)白の被写体に対するRGB値を揃えるホワイトバランス処理、
(d)RGB値のYUV値への変換処理、
これらの処理を実行する。
次に、ステップS103において動きベクトル(MV)の検出処理を実行する。
この処理は、図3に示す画像処理部120の動きベクトル検出部122において実行される。
動きベクトル検出部122は、第1撮像部107からW画像111を入力するとともに、現像処理部121が、第2撮像部108の撮影画像であるRGB-RAW画像112に基づいて生成した、YUV画像130中のY信号(輝度信号)を入力する。
動きベクトル検出部122は、これらの2つの信号(W信号,Y信号)に基づいて、2つの画像の位置ずれに相当する動きベクトル(MV:Motion Vector)を検出する。
従って、2つの画像の対応画素、すなわち同一位置の画素には同一の被写体画像が撮影されず、視差に応じた被写体ずれが発生する。
具体的には、2つの画像(W画像、Y画像)の対応点をもとめ、その対応点を結ぶベクトルを動きベクトル(MV)として算出する。
動きベクトル検出部122の生成した動きベクトル(MV)は、位置合わせ部123に入力される。
次に、ステップS104において位置合わせ処理を実行する。
この処理は、図3に示す画像処理部120の位置合わせ部123の実行する処理である。
位置合わせ部123は、YUV画像130を、動きベクトル(MV)の大きさと方向に従って各画素位置を移動させて、W画像、すなわち、第1撮像部107の撮影画像であるW-RAW画像111と同一視点位置から撮影されたと同様のYUV画像を生成する。
この処理によって、YUV画像130は、第1撮像部107と同一視点から撮影されたとみなされるYUV画像に変換される。
次に、ステップS105において、周波数対応パラメータ算出処理を実行する。
この処理は、図3に示す画像処理部120の周波数対応パラメータ算出部124の実行する処理である。
次に、ステップS106において、位置ずれ対応パラメータ算出処理を実行する。
この処理は、図3に示す画像処理部120の位置ずれ対応パラメータ算出部125の実行する処理である。
従って、「位置ずれが大きい」とは「偽色が多い」ことに相当し、「位置ずれが小さい」とは「偽色が少ない」ことに相当する。
位置ずれ対応ブレンド率設定パラメータ[ratioErr]は、
位置ずれが大きい(=偽色が多い)画素領域では、大きな値、すなわち、1に近い値となり、
位置ずれが小さい(=偽色が少ない)画素領域では、小さな値、すなわち、0に近い値となる。
位置ずれ対応パラメータ算出部125の算出した位置ずれ対応ブレンド率設定パラメータ[ratioErr]は、図3に示す画像処理部120内の画像補正部126に入力される。
ステップS107~S108の処理は、図3に示す画像処理部120の画像補正部126の実行する処理である。
(a)第1撮像部107の撮影画像であるW-RAW画像111、
(b)位置合わせ部123の生成した位置合わせ後YUV画像161、
(c)周波数対応パラメータ算出部124の生成した周波数対応ブレンド率設定パラメータ[ratioFreq]、
(d)位置ずれ対応パラメータ算出部125の生成した位置ずれ対応ブレンド率設定パラメータ[ratioErr]、
U0=LPF0(U)
V0=LPF0(V)
U1=LPF1(U)
V1=LPF1(V)
U2=LPF2(U)
V2=LPF2(V)
例えば、各ローパスフィルタとして、以下の設定のローパスフィルタが適用可能である。
LPF0は3×3(画素)の移動平均フィルタ、
LPF1は13×13(画素)の移動平均フィルタ、
LPF2は25×25(画素)の移動平均フィルタ、
このような設定の移動平均フィルタを、上記3つのローパスフィルタ(LPF0~LPF2)として適用することができる。
次に、画像補正部126は、ステップS108において、ステップS107で算出したU0~U3,V0~V3と、
(1)周波数対応パラメータ算出部124の生成した周波数対応ブレンド率設定パラメータ[ratioFreq]、
(2)位置ずれ対応パラメータ算出部125の生成した位置ずれ対応ブレンド率設定パラメータ[ratioErr]、
これら2つのブレンド率設定パラメータを適用して、補正後UV信号(Uout,Vout)203を算出する。
この補正後UV信号(Uout,Vout)の算出処理は、先に説明したように、例えば、以下の(式7)、すなわち、
Uout=(1-ratioErr)((1-ratioFreq)×U0+ratioFreq×U1)+ratioErr×U2
Vout=(1-ratioErr)((1-ratioFreq)×V0+ratioFreq×V1)+ratioErr×V2
・・・・・(式7)
上記(式7)に従って算出される。
(a)位置ずれが多い(偽色が多いと推定される)領域では、カットオフ周波数の低いローパスフィルタLPF2を優先的に用いて、より広範囲の周囲画素(例えば25×25画素)の画素値に基づいて平滑化する処理を実行する。
高周波成分の多い領域では、カットオフ周波数が中程度のローパスフィルタLPF1を優先的に用いて、中程度の範囲の周囲画素(例えば13×13画素)の画素値に基づいて平滑化する処理を実行する。
また、高周波成分の少ない低周波領域では、カットオフ周波数が高いローパスフィルタLPF0を優先的に用いて、小さい範囲の周囲画素(例えば3×3画素)の画素値に基づいて平滑化する処理を実行する。
ステップS109の処理は、図3に示す画像処理部120の信号変換部127の実行する処理である。
信号変換部127は、画像補正部126の生成した補正後UV信号(Uout,Vout)203と、第1撮像部107の撮影画像であるW-RAW画像111を入力する。
信号変換部127は、これらの入力信号に基づいてく信号変換を実行して、RGB画像150を生成して出力する。
この信号変換処理は、既存の変換式に従って行われる。
なお、記憶部格納処理や、外部出力処理の前処理として圧縮処理等の符号化処理を実行する場合もある。
なお、YUV信号からRGB信号への必須ではなく、YUV信号のまま、表示装置への出力、記憶部に対する格納、あるいは外部出力を行う構成としてもよい。
次に、画像処理装置のその他の構成例について説明する。
上述した実施例では、例えば図3に示す画像処理部120が、第2撮像部108の撮影画像であるRGB-RAW画像112を現像処理部121に入力し、RGB-RAW画像112の弦象処理によって生成されたYUV画像130を適用しはた画像処理を実行する構成としている。
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
(1) カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記画像処理部は、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像補正部を有する画像処理装置。
前記位置ずれ対応パラメータ算出部は、
前記ホワイト(W)画像と、前記RGB画像に基づいて生成されるYUV画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出し、
前記画像補正部は、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記YUV画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する(1)に記載の画像処理装置。
異なるカットオフ周波数を有する複数の異なるローパスフィルタ(LPF)を、画像領域単位で選択適用して補正画素値を算出する(1)または(2)に記載の画像処理装置。
(a)前記カラー画像の領域単位でローパスフィルタ(LPF)を適用したLPF適用カラー画素値と、
(b)前記ホワイト(W)画像の画素値を、前記ホワイト(W)画像の領域単位でローパスフィルタ(LPF)を適用した値で除算した除算W画素値と、
を算出し、算出した2つの値を乗算して補正画素値を算出する(1)~(3)いずれかに記載の画像処理装置。
前記カラー画像の領域単位で適用するローパスフィルタ(LPF)を、
高周波領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
低周波領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する(1)~(4)いずれかに記載の画像処理装置。
前記カラー画像の領域単位で適用するローパスフィルタ(LPF)を、
位置ずれが大きい領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
位置ずれが小さい領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する(1)~(5)いずれかに記載の画像処理装置。
(a)前記YUV画像の領域単位でローパスフィルタ(LPF)を適用したLPF適用YUV画素値と、
(b)前記ホワイト(W)画像の画素値を、前記ホワイト(W)画像の領域単位でローパスフィルタ(LPF)を適用した値で除算した除算W画素値と、
を算出し、算出した2つの値を乗算して補正画素値を算出する(2)に記載の画像処理装置。
前記YUV画像の画像領域単位で、以下の補正画素値算出式、
Uout=LPF(U)×(W/LPF(W))
Vout=LPF(V)×(W/LPF(W))
上記補正画素値式に従って算出されるUV値(Uout,Vout)を補正画素値として算出する(2)に記載の画像処理装置。
前記補正画素値算出式に適用するローパスフィルタ(LPF)を、
高周波領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
低周波領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する(8)に記載の画像処理装置。
前記補正画素値算出式に適用するローパスフィルタ(LPF)を、
位置ずれが大きい領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
位置ずれが小さい領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する(8)または(9)に記載の画像処理装置。
前記カラー画像と、前記ホワイト(W)画像の位置合わせを実行する位置合わせ部を有し、
前記位置ずれ対応パラメータ算出部は、
前記ホワイト(W)画像と、前記位置合わせ部の生成した位置合わせ後のカラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する(1)~(10)いずれかに記載の画像処理装置。
前記カラー画像と、前記ホワイト(W)画像を入力し、両画像間の動きベクトルを検出する動きベクトル検出部を有し、
前記位置合わせ部は、前記動きベクトルを利用して、前記カラー画像と、前記ホワイト(W)画像の位置合わせを実行する(11)に記載の画像処理装置。
前記カラー画像の撮像部と、前記ホワイト(W)画像の撮像部との撮影位置のずれに応じた視差に基づく画像の位置ずれに相当する動きベクトルを検出する(12)に記載の画像処理装置。
RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記画像処理部は、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像補正部を有する撮像装置。
前記画像処理装置は、
カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記画像処理部が、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像処理方法。
前記撮像装置は、
全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記第1撮像部と、前記第2撮像部において、ホワイト(W)画像とカラー画像を撮影し、
前記画像処理部において、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像処理方法。
前記画像処理装置は、
カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記プログラムは、前記画像処理部に、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する処理を実行させるプログラム。
前記撮像装置は、
全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記プログラムは、
前記第1撮像部と、前記第2撮像部において、ホワイト(W)画像とカラー画像を撮影させ、
前記画像処理部に、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する処理を実行させるプログラム。
具体的には、カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有する。画像処理部は、ホワイト(W)画像を入力し、画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、ホワイト(W)画像と、カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、ホワイト(W)画像と、カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する。
これらの処理により、カラー画像における画像領域単位の画像特性に応じた偽色補正を行う装置、方法が実現され、偽色を除去または低減した高品質な画像を生成して出力することが可能となる。
101 制御部
102 記憶部
103 コーデック
104 入力部
105 出力部
106 撮像部
107 第1撮像部
108 第2撮像部
111 W-RAW画像
112 RGB-RAW画像
113 センサノイズ特性(σ)
120 画像処理部
121 現像処理部
122 動きベクトル検出部
123 位置合わせ部
124 周波数対応パラメータ算出部
125 位置ずれ対応パラメータ算出部
126 画像補正部
127 信号変換部
150 RGB画像
151 隣接画素画素値差分絶対値算出部
152 ダイナミックレンジ(DR)算出部
153 周波数パラメータ算出部
154 加算部
155 ブレンド率算出部
161 位置合わせ後YUV画像
162 YUV画像ベースW画像
163 画素値調整YUV画像ベースW画像
164 差分画像
171 信号変換部
172 第1領域単位画素値加算部
173 第2領域単位画素値加算部
174 領域単位画素非算出部
175 乗算部
176 差分算出部
201 周波数対応ブレンド率設定パラメータ
202 位置ずれ対応ブレンド比率設定パラメータ
203 補正後UV信号
Claims (18)
- カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記画像処理部は、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像補正部を有する画像処理装置。 - 前記カラー画像は、RGB配列撮像素子によって撮影されたRGB画像であり、
前記位置ずれ対応パラメータ算出部は、
前記ホワイト(W)画像と、前記RGB画像に基づいて生成されるYUV画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出し、
前記画像補正部は、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記YUV画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する請求項1に記載の画像処理装置。 - 前記画像補正部は、
異なるカットオフ周波数を有する複数の異なるローパスフィルタ(LPF)を、画像領域単位で選択適用して補正画素値を算出する請求項1に記載の画像処理装置。 - 前記画像補正部は、
(a)前記カラー画像の領域単位でローパスフィルタ(LPF)を適用したLPF適用カラー画素値と、
(b)前記ホワイト(W)画像の画素値を、前記ホワイト(W)画像の領域単位でローパスフィルタ(LPF)を適用した値で除算した除算W画素値と、
を算出し、算出した2つの値を乗算して補正画素値を算出する請求項1に記載の画像処理装置。 - 前記画像補正部は、
前記カラー画像の領域単位で適用するローパスフィルタ(LPF)を、
高周波領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
低周波領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する請求項1に記載の画像処理装置。 - 前記画像補正部は、
前記カラー画像の領域単位で適用するローパスフィルタ(LPF)を、
位置ずれが大きい領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
位置ずれが小さい領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する請求項1に記載の画像処理装置。 - 前記画像補正部は、
(a)前記YUV画像の領域単位でローパスフィルタ(LPF)を適用したLPF適用YUV画素値と、
(b)前記ホワイト(W)画像の画素値を、前記ホワイト(W)画像の領域単位でローパスフィルタ(LPF)を適用した値で除算した除算W画素値と、
を算出し、算出した2つの値を乗算して補正画素値を算出する請求項2に記載の画像処理装置。 - 前記画像補正部は、
前記YUV画像の画像領域単位で、以下の補正画素値算出式、
Uout=LPF(U)×(W/LPF(W))
Vout=LPF(V)×(W/LPF(W))
上記補正画素値式に従って算出されるUV値(Uout,Vout)を補正画素値として算出する請求項2に記載の画像処理装置。 - 前記画像補正部は、
前記補正画素値算出式に適用するローパスフィルタ(LPF)を、
高周波領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
低周波領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する請求項8に記載の画像処理装置。 - 前記画像補正部は、
前記補正画素値算出式に適用するローパスフィルタ(LPF)を、
位置ずれが大きい領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
位置ずれが小さい領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する請求項8に記載の画像処理装置。 - 前記画像処理部は、
前記カラー画像と、前記ホワイト(W)画像の位置合わせを実行する位置合わせ部を有し、
前記位置ずれ対応パラメータ算出部は、
前記ホワイト(W)画像と、前記位置合わせ部の生成した位置合わせ後のカラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する請求項1に記載の画像処理装置。 - 前記画像処理部は、
前記カラー画像と、前記ホワイト(W)画像を入力し、両画像間の動きベクトルを検出する動きベクトル検出部を有し、
前記位置合わせ部は、前記動きベクトルを利用して、前記カラー画像と、前記ホワイト(W)画像の位置合わせを実行する請求項11に記載の画像処理装置。 - 前記動きベクトル検出部は、
前記カラー画像の撮像部と、前記ホワイト(W)画像の撮像部との撮影位置のずれに応じた視差に基づく画像の位置ずれに相当する動きベクトルを検出する請求項12に記載の画像処理装置。 - 全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記画像処理部は、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像補正部を有する撮像装置。 - 画像処理装置において実行する画像処理方法であり、
前記画像処理装置は、
カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記画像処理部が、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像処理方法。 - 撮像装置において実行する画像処理方法であり、
前記撮像装置は、
全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記第1撮像部と、前記第2撮像部において、ホワイト(W)画像とカラー画像を撮影し、
前記画像処理部において、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像処理方法。 - 画像処理装置において画像処理を実行させるプログラムであり、
前記画像処理装置は、
カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記プログラムは、前記画像処理部に、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する処理を実行させるプログラム。 - 撮像装置において画像処理を実行させるプログラムであり、
前記撮像装置は、
全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
前記プログラムは、
前記第1撮像部と、前記第2撮像部において、ホワイト(W)画像とカラー画像を撮影させ、
前記画像処理部に、
前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する処理を実行させるプログラム。
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US16/070,952 US11202045B2 (en) | 2016-03-09 | 2016-12-05 | Image processing apparatus, imaging apparatus, image processing method, and program |
| CN201680083059.9A CN108702494B (zh) | 2016-03-09 | 2016-12-05 | 图像处理装置、成像装置、图像处理方法和存储介质 |
| JP2018504003A JP6825617B2 (ja) | 2016-03-09 | 2016-12-05 | 画像処理装置、撮像装置、および画像処理方法、並びにプログラム |
| EP16893617.7A EP3429197B1 (en) | 2016-03-09 | 2016-12-05 | Image processing apparatus, imaging apparatus, image processing method, and program |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016-045224 | 2016-03-09 | ||
| JP2016045224 | 2016-03-09 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2017154293A1 true WO2017154293A1 (ja) | 2017-09-14 |
Family
ID=59789299
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2016/086062 Ceased WO2017154293A1 (ja) | 2016-03-09 | 2016-12-05 | 画像処理装置、撮像装置、および画像処理方法、並びにプログラム |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US11202045B2 (ja) |
| EP (1) | EP3429197B1 (ja) |
| JP (1) | JP6825617B2 (ja) |
| CN (1) | CN108702494B (ja) |
| WO (1) | WO2017154293A1 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2019111529A1 (ja) * | 2017-12-08 | 2019-06-13 | ソニーセミコンダクタソリューションズ株式会社 | 画像処理装置および画像処理方法 |
Families Citing this family (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2022011506A1 (zh) * | 2020-07-13 | 2022-01-20 | 深圳市汇顶科技股份有限公司 | 图像处理的方法和图像处理装置 |
| CN114205487B (zh) * | 2020-08-28 | 2025-12-02 | 超威半导体公司 | 内容自适应镜头阴影校正方法和装置 |
| US11910121B2 (en) * | 2021-01-26 | 2024-02-20 | Zf Friedrichshafen Ag | Converting dual-context video data to full color video |
| JP7653853B2 (ja) * | 2021-07-12 | 2025-03-31 | 富士フイルム株式会社 | 画像処理装置 |
| CN113870146B (zh) * | 2021-10-15 | 2024-06-25 | 中国大恒(集团)有限公司北京图像视觉技术分公司 | 一种彩色相机图像边缘伪彩的校正方法 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013026672A (ja) * | 2011-07-15 | 2013-02-04 | Toshiba Corp | 固体撮像装置及びカメラモジュール |
| JP2013219705A (ja) * | 2012-04-12 | 2013-10-24 | Sony Corp | 画像処理装置、および画像処理方法、並びにプログラム |
| JP2013239904A (ja) * | 2012-05-15 | 2013-11-28 | Sony Corp | 画像処理装置と画像処理方法およびプログラム |
Family Cites Families (24)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6614471B1 (en) | 1999-05-10 | 2003-09-02 | Banctec, Inc. | Luminance correction for color scanning using a measured and derived luminance value |
| JP4501855B2 (ja) * | 2005-12-22 | 2010-07-14 | ソニー株式会社 | 画像信号処理装置、撮像装置、および画像信号処理方法、並びにコンピュータ・プログラム |
| JP4144630B2 (ja) * | 2006-04-14 | 2008-09-03 | ソニー株式会社 | 撮像装置 |
| JP5106870B2 (ja) * | 2006-06-14 | 2012-12-26 | 株式会社東芝 | 固体撮像素子 |
| JP5326943B2 (ja) * | 2009-08-31 | 2013-10-30 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
| JP5454075B2 (ja) * | 2009-10-20 | 2014-03-26 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
| JP5724185B2 (ja) * | 2010-03-04 | 2015-05-27 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
| JP2012257193A (ja) * | 2011-05-13 | 2012-12-27 | Sony Corp | 画像処理装置、撮像装置、および画像処理方法、並びにプログラム |
| JP2013066146A (ja) * | 2011-08-31 | 2013-04-11 | Sony Corp | 画像処理装置、および画像処理方法、並びにプログラム |
| US8837853B2 (en) * | 2011-09-06 | 2014-09-16 | Sony Corporation | Image processing apparatus, image processing method, information recording medium, and program providing image blur correction |
| US9699429B2 (en) * | 2012-03-27 | 2017-07-04 | Sony Corporation | Image processing apparatus, imaging device, image processing method, and program for reducing noise or false colors in an image |
| EP2843947B1 (en) * | 2012-04-24 | 2020-11-04 | Sony Corporation | Image processing device, image processing method, and program |
| JP6019964B2 (ja) * | 2012-09-10 | 2016-11-02 | 株式会社リコー | 画像処理装置及びそれを搭載した撮像装置、並びに画像処理方法 |
| JP2015035782A (ja) * | 2013-08-09 | 2015-02-19 | オリンパス株式会社 | 画像処理装置、撮像装置、顕微鏡システム、画像処理方法及び画像処理プログラム |
| KR102144394B1 (ko) | 2013-08-20 | 2020-08-13 | 한화테크윈 주식회사 | 영상 정합 장치 및 이를 이용한 영상 정합 방법 |
| US9826177B2 (en) * | 2013-10-29 | 2017-11-21 | Hitachi Kokusai Electric Inc. | Video signal noise elimination circuit and video signal noise elimination method |
| JP6276569B2 (ja) * | 2013-12-02 | 2018-02-07 | 株式会社メガチップス | 画素補間処理装置、撮像装置、プログラムおよび集積回路 |
| JP5771677B2 (ja) * | 2013-12-24 | 2015-09-02 | オリンパス株式会社 | 画像処理装置、撮像装置、プログラム及び画像処理方法 |
| US9344639B2 (en) | 2014-08-12 | 2016-05-17 | Google Technology Holdings LLC | High dynamic range array camera |
| US9654700B2 (en) * | 2014-09-16 | 2017-05-16 | Google Technology Holdings LLC | Computational camera using fusion of image sensors |
| JP6598507B2 (ja) * | 2015-05-11 | 2019-10-30 | キヤノン株式会社 | 撮像装置、撮像システム、信号処理方法 |
| US9712792B2 (en) * | 2015-08-10 | 2017-07-18 | Samsung Electronics Co., Ltd. | RGB-RWB dual images by multi-layer sensors towards better image quality |
| JP7024782B2 (ja) * | 2017-03-27 | 2022-02-24 | ソニーグループ株式会社 | 画像処理装置と画像処理方法および撮像装置 |
| US11363245B2 (en) * | 2017-11-06 | 2022-06-14 | Eizo Corporation | Image processing device, image processing method, and image processing program |
-
2016
- 2016-12-05 EP EP16893617.7A patent/EP3429197B1/en active Active
- 2016-12-05 JP JP2018504003A patent/JP6825617B2/ja not_active Expired - Fee Related
- 2016-12-05 US US16/070,952 patent/US11202045B2/en active Active
- 2016-12-05 WO PCT/JP2016/086062 patent/WO2017154293A1/ja not_active Ceased
- 2016-12-05 CN CN201680083059.9A patent/CN108702494B/zh not_active Expired - Fee Related
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013026672A (ja) * | 2011-07-15 | 2013-02-04 | Toshiba Corp | 固体撮像装置及びカメラモジュール |
| JP2013219705A (ja) * | 2012-04-12 | 2013-10-24 | Sony Corp | 画像処理装置、および画像処理方法、並びにプログラム |
| JP2013239904A (ja) * | 2012-05-15 | 2013-11-28 | Sony Corp | 画像処理装置と画像処理方法およびプログラム |
Non-Patent Citations (1)
| Title |
|---|
| See also references of EP3429197A4 * |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2019111529A1 (ja) * | 2017-12-08 | 2019-06-13 | ソニーセミコンダクタソリューションズ株式会社 | 画像処理装置および画像処理方法 |
| CN110012215A (zh) * | 2017-12-08 | 2019-07-12 | 索尼半导体解决方案公司 | 图像处理装置和图像处理方法 |
| CN110012215B (zh) * | 2017-12-08 | 2022-08-16 | 索尼半导体解决方案公司 | 图像处理装置和图像处理方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| JPWO2017154293A1 (ja) | 2019-01-10 |
| CN108702494A (zh) | 2018-10-23 |
| US11202045B2 (en) | 2021-12-14 |
| EP3429197A4 (en) | 2019-03-06 |
| EP3429197B1 (en) | 2020-05-06 |
| US20210076017A1 (en) | 2021-03-11 |
| EP3429197A1 (en) | 2019-01-16 |
| CN108702494B (zh) | 2020-12-04 |
| JP6825617B2 (ja) | 2021-02-03 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN103202022B (zh) | 图像处理设备及其控制方法 | |
| US8547451B2 (en) | Apparatus and method for obtaining high dynamic range image | |
| JP6825617B2 (ja) | 画像処理装置、撮像装置、および画像処理方法、並びにプログラム | |
| JP6711396B2 (ja) | 画像処理装置、撮像装置、および画像処理方法、並びにプログラム | |
| CN102778201A (zh) | 图像处理设备、图像处理方法和程序 | |
| JP2010141663A (ja) | 撮像装置 | |
| US8427560B2 (en) | Image processing device | |
| JP4869653B2 (ja) | 画像処理装置 | |
| JP2003123063A (ja) | 画像処理装置 | |
| US6747698B2 (en) | Image interpolating device | |
| CN101511032A (zh) | 图像信号处理设备、图像信号处理方法和成像设备 | |
| JP2003224859A (ja) | 画像処理装置、画像処理方法およびプログラム | |
| JP4320807B2 (ja) | カメラ信号処理装置及びカメラ信号処理方法 | |
| JP2005260675A (ja) | 画像処理装置およびプログラム | |
| JP2005354585A (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
| US7499086B2 (en) | Image signal processing apparatus, image signal processing circuit, image signal processing method, program, and recording medium | |
| JP5494249B2 (ja) | 画像処理装置、撮像装置及び画像処理プログラム | |
| JP7183015B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
| JP4269367B2 (ja) | カメラ信号処理装置及びカメラ信号処理方法 | |
| JP4269366B2 (ja) | カメラ信号処理装置及びカメラ信号処理方法 | |
| US9635330B2 (en) | Image processing device, image processing method, and program | |
| JP4269369B2 (ja) | カメラ信号処理装置及びカメラ信号処理方法 | |
| JP5242750B2 (ja) | 画像処理装置 | |
| JP4269368B2 (ja) | カメラ信号処理装置及びカメラ信号処理方法 | |
| JP4269370B2 (ja) | カメラ信号処理装置及びカメラ信号処理方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| WWE | Wipo information: entry into national phase |
Ref document number: 2018504003 Country of ref document: JP |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 2016893617 Country of ref document: EP |
|
| ENP | Entry into the national phase |
Ref document number: 2016893617 Country of ref document: EP Effective date: 20181009 |
|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16893617 Country of ref document: EP Kind code of ref document: A1 |