[go: up one dir, main page]

WO2017154293A1 - 画像処理装置、撮像装置、および画像処理方法、並びにプログラム - Google Patents

画像処理装置、撮像装置、および画像処理方法、並びにプログラム Download PDF

Info

Publication number
WO2017154293A1
WO2017154293A1 PCT/JP2016/086062 JP2016086062W WO2017154293A1 WO 2017154293 A1 WO2017154293 A1 WO 2017154293A1 JP 2016086062 W JP2016086062 W JP 2016086062W WO 2017154293 A1 WO2017154293 A1 WO 2017154293A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
white
unit
frequency
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2016/086062
Other languages
English (en)
French (fr)
Inventor
昌俊 横川
神尾 和憲
真史 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to US16/070,952 priority Critical patent/US11202045B2/en
Priority to CN201680083059.9A priority patent/CN108702494B/zh
Priority to JP2018504003A priority patent/JP6825617B2/ja
Priority to EP16893617.7A priority patent/EP3429197B1/en
Publication of WO2017154293A1 publication Critical patent/WO2017154293A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/133Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing panchromatic light, e.g. filters passing white light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal

Definitions

  • the present disclosure relates to an image processing device, an imaging device, an image processing method, and a program.
  • the present invention relates to an image processing apparatus, an imaging apparatus, an image processing method, and a program that perform correction processing for false colors generated in an image.
  • a color different from the actual color of the photographic subject that is, a so-called false color may occur in the captured image.
  • the image sensor is provided with a color filter made of, for example, an RGB array, and incident light via the color filter reaches the image sensor and outputs an electrical signal corresponding to each incident light quantity.
  • a false color is likely to occur in a so-called high-frequency signal region where the luminance per unit area or the amount of change in the color signal is large.
  • false colors tend to be more likely to occur.
  • Patent Document 1 Japanese Patent Laid-Open No. 2013-26672
  • Patent Document 1 Japanese Patent Laid-Open No. 2013-26672
  • an image sensor image sensor
  • an image sensor having a W pixel array composed of only white (W) pixels.
  • a configuration is disclosed in which color correction is performed using two captured images using an image sensor.
  • the captured image by the image pickup device (image sensor) having the RGB pixel array includes a region where false colors are likely to occur and a region where the false color hardly occurs. These regions are discriminated and optimum processing is performed in units of regions. If this is not done, the correct subject color cannot be reproduced. Further, in order to use two images of the RGB image and the W image, it is necessary to shoot two image sensors side by side, and a positional shift based on parallax occurs between the two images. In order to correct the above-described region-by-region correction, it is necessary to detect the image characteristics of the region unit after performing the alignment for eliminating the misalignment between the two images and perform the optimum correction in the region unit. is there.
  • Patent Document 1 described above describes false color correction using captured images of two image sensors, an RGB array image sensor (image sensor) and a white (W) pixel array image sensor (image sensor).
  • RGB array image sensor image sensor
  • W white pixel array image sensor
  • the present disclosure has been made in view of the above-described problems, and 2 was captured using an image sensor for normal color image shooting, such as an RGB array image sensor, and an image sensor with a white (W) pixel array.
  • Image processing that uses a single image, optimizes the correction mode according to the characteristics of each image area, and generates high-quality images with reduced false colors by optimal image correction according to the image characteristics of each image area It is an object to provide an apparatus, an imaging apparatus, an image processing method, and a program.
  • the first aspect of the present disclosure is: Image processing for inputting a color image and a white (W) image photographed by a W array imaging device in which all pixels are white (W) pixel arrays and executing image processing for reducing false colors included in the color image Part
  • the image processing unit A frequency-corresponding parameter calculating unit that inputs the white (W) image and calculates a frequency-corresponding parameter for each image area of the white (W) image;
  • a positional deviation correspondence parameter calculating unit that inputs the white (W) image and the color image and calculates a positional deviation correspondence parameter in units of image areas of the two input images;
  • An image correction unit that calculates a correction pixel value by executing a blend process in which a blend ratio of the white (W) image and the color image is controlled according to values of the frequency-corresponding parameter and the positional deviation-corresponding parameter.
  • the second aspect of the present disclosure is: A first imaging unit having a W array imaging device in which all pixels are white (W) pixel arrays, and capturing a white (W) image; A second imaging unit having an RGB array imaging device having an RGB pixel array and capturing a color image; An image processing unit that inputs the white (W) image and the color image and executes image processing to reduce false colors included in the color image; The image processing unit A frequency-corresponding parameter calculating unit that inputs the white (W) image and calculates a frequency-corresponding parameter for each image area of the white (W) image; A positional deviation correspondence parameter calculating unit that inputs the white (W) image and the color image and calculates a positional deviation correspondence parameter in units of image areas of the two input images; An image correction unit that calculates a correction pixel value by executing a blend process in which a blend ratio of the white (W) image and the color image is controlled according to values of the frequency-corresponding parameter and the positional deviation-corresponding parameter.
  • An imaging apparatus having a W array imaging
  • the third aspect of the present disclosure is: An image processing method executed in an image processing apparatus,
  • the image processing apparatus includes: Image processing for inputting a color image and a white (W) image photographed by a W array imaging device in which all pixels are white (W) pixel arrays and executing image processing for reducing false colors included in the color image Part
  • the image processing unit A frequency corresponding parameter calculation process for inputting the white (W) image and calculating a frequency corresponding parameter for each image area of the white (W) image;
  • a positional deviation corresponding parameter calculation process for inputting the white (W) image and the color image and calculating a positional deviation corresponding parameter for each input image area;
  • the fourth aspect of the present disclosure is: An image processing method executed in the imaging apparatus,
  • the imaging device A first imaging unit having a W array imaging device in which all pixels are white (W) pixel arrays, and capturing a white (W) image;
  • a second imaging unit having an RGB array imaging device having an RGB pixel array and capturing a color image;
  • An image processing unit that inputs the white (W) image and the color image and executes image processing to reduce false colors included in the color image;
  • a white (W) image and a color image are captured,
  • a frequency corresponding parameter calculation process for inputting the white (W) image and calculating a frequency corresponding parameter for each image area of the white (W) image;
  • a positional deviation corresponding parameter calculation process for inputting the white (W) image and the color image and calculating a positional deviation corresponding parameter for each input image area;
  • the fifth aspect of the present disclosure is: A program for executing image processing in an image processing apparatus;
  • the image processing apparatus includes: Image processing for inputting a color image and a white (W) image photographed by a W array imaging device in which all pixels are white (W) pixel arrays and executing image processing for reducing false colors included in the color image Part
  • the program is stored in the image processing unit.
  • a process of calculating a correction pixel value is executed by executing a blend process in which a blend ratio of the white (W) image and the color image is controlled in accordance with values of the frequency-corresponding parameter and the positional deviation-corresponding parameter. It is in the program to let you.
  • the sixth aspect of the present disclosure is: A program for executing image processing in an imaging apparatus;
  • the imaging device A first imaging unit having a W array imaging device in which all pixels are white (W) pixel arrays, and capturing a white (W) image;
  • a second imaging unit having an RGB array imaging device having an RGB pixel array and capturing a color image;
  • An image processing unit that inputs the white (W) image and the color image and executes image processing to reduce false colors included in the color image;
  • the program is In the first imaging unit and the second imaging unit, a white (W) image and a color image are captured, In the image processing unit, A frequency corresponding parameter calculation process for inputting the white (W) image and calculating a frequency corresponding parameter for each image area of the white (W) image; A positional deviation corresponding parameter calculation process for inputting the white (W) image and the color image and calculating a positional deviation corresponding parameter for each input image area;
  • a process of calculating a correction pixel value is executed by executing
  • the program of the present disclosure is a program that can be provided by, for example, a storage medium or a communication medium provided in a computer-readable format to an information processing apparatus or a computer system that can execute various program codes.
  • a program in a computer-readable format, processing corresponding to the program is realized on the information processing apparatus or the computer system.
  • system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.
  • an apparatus and a method for performing false color correction according to image characteristics in units of image areas in a color image are realized.
  • An image processing unit for executing The image processing unit inputs a white (W) image, inputs a frequency corresponding parameter calculation unit that calculates a frequency corresponding parameter for each image region, a white (W) image, and a color image, and inputs two input images.
  • the blend ratio of the white (W) image and the color image is controlled according to the values of the misalignment correspondence parameter calculation unit, the frequency correspondence parameter, and the misalignment correspondence parameter that calculate the misalignment correspondence parameter for each image area.
  • a blending process is executed to calculate a corrected pixel value.
  • FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus that is an example of the image processing apparatus 100 of the present disclosure.
  • the image processing apparatus of the present disclosure is not limited to the imaging apparatus, and includes, for example, an information processing apparatus such as a PC that inputs a captured image of the imaging apparatus and executes image processing.
  • an information processing apparatus such as a PC that inputs a captured image of the imaging apparatus and executes image processing.
  • a configuration and processing of an imaging apparatus will be described as an example of the image processing apparatus 100 of the present disclosure.
  • Image processing other than the imaging processing described in the following embodiments is not limited to the imaging device, and can be executed by an information processing device such as a PC.
  • the imaging unit 106 includes a first imaging unit 107 having a W (white) pixel array imaging element that outputs an electric signal based on the amount of incident light in the entire wavelength region of visible light, and an RGB color filter, for example, a color filter including a Bayer array And a second imaging unit 108 having an RGB pixel array imaging device that outputs a signal corresponding to input light of each color of RGB in each pixel unit.
  • the first image capturing unit 107 and the second image capturing unit 108 are two image capturing units set at a predetermined distance from each other, and each captured image is an image from a different viewpoint. If these two images are still images, they are taken as still images at the same timing.
  • the shooting frame of each imaging unit is a synchronized shooting frame, that is, a continuous image frame sequentially shot at the same timing. Note that the control of the photographing timing is performed by the control unit 101.
  • these two image capturing units 107 and 108 are two image capturing units set at positions separated by a predetermined interval, and each captured image is an image from a different viewpoint. That is, the image has parallax. Therefore, the same subject image is not photographed in the corresponding pixels of the two images, that is, the pixels at the same position, and subject displacement corresponding to the parallax occurs.
  • the image processing apparatus 100 performs image correction in the image processing unit 120 in consideration of the shift, specifically, image processing for reducing false colors. Details of this processing will be described later.
  • the control unit 101 controls various processes executed in the imaging apparatus 100, such as image capturing, signal processing for captured images, image recording processing, and display processing.
  • the control unit 101 includes, for example, a CPU that executes processing according to various processing programs stored in the storage unit 102, and functions as a data processing unit that executes the program.
  • the storage unit 102 includes a captured image storage unit, a processing program executed by the control unit 101, a storage unit for various parameters, and a RAM, a ROM, and the like that function as a work area for data processing.
  • the codec 103 performs encoding and decoding processing such as compression and decompression processing of a captured image.
  • the input unit 104 is a user operation unit, for example, and inputs control information such as shooting start and end, various mode settings, and the like.
  • the output unit 105 includes a display unit, a speaker, and the like, and is used for displaying captured images and through images, outputting sound, and the like.
  • the image processing unit 120 inputs two images White-RAW (W-RAW) image 111 and RGB-RAW image 112 input from the imaging unit 106, and sensor noise characteristic ( ⁇ ) 113 as a processing parameter. Image processing for reducing colors is executed to generate and output an RGB image 150.
  • W-RAW White-RAW
  • RGB-RAW image 112 input from the imaging unit 106
  • sensor noise characteristic
  • the imaging unit 106 includes the first imaging unit 107 having a W (white) pixel array imaging element that outputs an electric signal based on the amount of incident light in the entire wavelength region of visible light, and an RGB color filter such as a Bayer.
  • the second image capturing unit 108 includes an RGB pixel array image sensor that includes a color filter having an array and outputs a signal corresponding to input light of each RGB color in units of pixels.
  • the pixel array (filter array) of the two imaging units 107 and 108 will be described with reference to FIG.
  • FIG. 2A shows a Bayer array used for photographing a general color image.
  • the Bayer array is composed of RGB filters that selectively transmit RGB wavelength light.
  • Two G pixels are set on the diagonal of the 2 ⁇ 2 four pixels, and the remaining R and B pixels are arranged by 1z.
  • This Bayer array type RGB pixel array is a pixel array used in the second imaging unit 108 shown in FIG. By the image photographing process, one of RGB pixel values is set for each pixel.
  • the image before this signal processing is the RGB-RAW image 112 shown in FIG.
  • RGB-RAW image one pixel value of R, G, or B is set for each pixel.
  • a process of setting three RGB signals to all pixels is performed by demosaic processing executed as signal processing thereafter.
  • a color image is generated by such a process.
  • the process of reducing the false color is performed by the image processing in the image processing unit 120 illustrated in FIG. This specific process will be described later.
  • FIG. 2B is a diagram illustrating a pixel array (filter array) of the first imaging unit 107 in FIG. All the pixels are configured by W (white) pixels that output an electric signal based on the amount of incident light in the entire wavelength region of visible light.
  • the first imaging unit 107 in FIG. 1 generates a W-RAW image 111 as an image captured by a W pixel array imaging element in which W pixels that receive all RGB wavelength light are arranged at all pixel positions for all pixels. Input to the image processing unit 120.
  • the image processing unit 120 receives the W-RAW image 111 from the first imaging unit 107 and the RGB-RAW image 112 from the second imaging unit 108, and further sensor noise that is a parameter applied to correction processing for reducing false colors.
  • the characteristic ( ⁇ ) 113 is input to perform image correction processing for reducing false colors.
  • the sensor noise characteristic ( ⁇ ) 113 is a noise characteristic of the image sensor used in the first image capturing unit 107 and the second image capturing unit 108 of the image capturing unit 106, and is acquired in advance by the control unit 101, for example, and stored in the storage unit 102.
  • the noise characteristics of the imaging elements used in the first imaging unit 107 and the second imaging unit 108 are shown as a common value ( ⁇ ). However, the characteristics of the imaging elements in each imaging unit, ⁇ 1, ⁇ 2 It is good also as a structure using.
  • FIG. 3 is a block diagram illustrating a configuration of the image processing unit 120 of the image processing apparatus 100.
  • the image processing unit 120 includes a development processing unit 121, a motion vector detection unit 122, a registration unit 123, a frequency correspondence parameter calculation unit 124, a positional deviation correspondence parameter 125, an image correction unit 126, and a signal conversion unit. 127.
  • the image processing unit 120 executes a process of reducing false colors generated in the RGB image that is a captured image of the second imaging unit 108 illustrated in FIG. 1, and outputs an RGB image 150 with reduced false colors.
  • Input signals to the image processing unit 120 are the following signals. (1) W image 111 input from first imaging unit 107, (2) RGB-RAW image 112 input from the second imaging unit 108, (3) Sensor noise characteristics ( ⁇ ) 113,
  • the development processing unit 121 executes development processing on the RGB-RAW image 112 input from the second imaging unit 108. Specifically, for example, the following processing is executed.
  • A a clamp process for removing an offset component based on a DC offset or a noise signal generated based on a circuit constituting the image sensor;
  • B a demosaic process for setting three RGB signals for each pixel based on a single RGB signal value set for each pixel of the RGB-RAW image;
  • C White balance processing for aligning RGB values for a white subject;
  • D Conversion processing of RGB values to YUV values;
  • the RGB-RAW image 112 is converted into a YUV image 130 by the development processing in the development processing unit 121.
  • the YUV image 130 is an image in which three pixel values of Y (luminance), U (color difference), and V (color difference) are set for all pixels.
  • the motion vector detection unit 122 receives the W image 111 from the first imaging unit 107, and the development processing unit 121 generates a YUV image based on the RGB-RAW image 112 that is a captured image of the second imaging unit 108.
  • the Y signal (luminance signal) in 130 is input. Based on these two signals (W signal, Y signal), the motion vector detection unit 122 detects a motion vector (MV: Motion Vector) corresponding to the positional deviation between the two images.
  • MV Motion Vector
  • the first imaging unit 107 and the second imaging unit 108 that are configured in the imaging unit 106 of the image processing apparatus 100 illustrated in FIG. 1 are two imaging units that are set at positions separated by a predetermined interval.
  • Each captured image is an image from a different viewpoint. That is, the image has parallax. Therefore, the same subject image is not photographed in the corresponding pixels of the two images, that is, the pixels at the same position, and subject displacement corresponding to the parallax occurs.
  • the motion vector detection unit 122 Based on these two signals (W signal, Y signal), the motion vector detection unit 122 detects a motion vector (MV: Motion Vector) corresponding to the positional deviation between the two images. Specifically, corresponding points of two images (W image and Y image) are obtained, and a vector connecting the corresponding points is calculated as a motion vector (MV). The motion vector (MV) generated by the motion vector detection unit 122 is input to the alignment unit 123.
  • MV Motion Vector
  • the alignment unit 123 receives the motion vector (MV) generated by the motion vector detection unit 122 and the YUV image 130 generated by the development processing unit 121 based on the RGB-RAW image 112.
  • the alignment unit 123 moves each pixel position of the YUV image 130 in accordance with the magnitude and direction of the motion vector (MV) to generate a W image, that is, a W-RAW image 111 that is a captured image of the first imaging unit 107.
  • a YUV image similar to that taken from the same viewpoint position is generated.
  • the YUV image 130 is converted into a YUV image that is considered to be taken from the same viewpoint as the first imaging unit 107.
  • the YUV image after the alignment process generated by the alignment unit 123 is input to the positional deviation corresponding parameter calculation unit 125. Further, the color difference signal UV is input to the image correction unit 126.
  • the frequency-corresponding parameter calculation unit 124 inputs the W-RAW image 111 that is a captured image of the first imaging unit 107 and the sensor noise characteristic ( ⁇ ) 113, and uses them for false color correction based on these input data.
  • the frequency-corresponding blend rate setting parameter which is a correction parameter, is calculated and output to the image correction unit 126.
  • the sensor noise characteristic ( ⁇ ) 113 is included in the noise characteristic information of the image sensor used in the first imaging unit 107 of the imaging unit 106, specifically, in the output signal of the image sensor used in the first imaging unit 107. It is the data which shows the noise intensity which is included.
  • the sensor noise characteristic ( ⁇ ) 113 is acquired in advance by the control unit 101, stored in the storage unit 102, acquired from the storage unit 102 under the control of the control unit 101, and input to the frequency corresponding parameter calculation unit 124. .
  • FIG. 4 is a diagram illustrating a specific configuration of the frequency correspondence parameter calculation unit 124.
  • the frequency correspondence parameter calculation unit 124 inputs a W-RAW image 111 that is a captured image of the first imaging unit 107 and a sensor noise characteristic ( ⁇ ) 113, and based on these input data Then, a frequency-corresponding blend rate setting parameter, which is a correction parameter used for false color correction, is calculated and output to the image correction unit 126.
  • the frequency correspondence parameter calculation unit 124 includes an adjacent pixel pixel value difference absolute value calculation unit 151, a dynamic range (DR) calculation unit 152, a frequency parameter calculation unit 153, an addition unit 154, and a blend rate calculation unit. 155.
  • DR dynamic range
  • FIG. 5A is a diagram for explaining an example of setting the calculation region of the frequency-corresponding blend rate setting parameter calculated by the frequency-corresponding parameter calculation unit 124.
  • the frequency correspondence blend ratio setting parameter calculated by the frequency correspondence parameter calculation unit 124 is a parameter corresponding to each pixel.
  • the parameter calculation process is executed using the W-RAW image 111 that is a captured image of the first imaging unit 107. If the parameter calculation target pixel is a pixel at the position (x, y), the parameter calculation processing is executed using the pixel values in the surrounding pixel area of the parameter calculation target pixel (x, y).
  • a pixel region of 9 ⁇ 9 pixels with the parameter calculation target pixel (x, y) as a central pixel is used for parameter calculation as a surrounding pixel region of the parameter calculation target pixel (x, y).
  • This is an example of a pixel region to be applied.
  • Various sizes can be set for the size of the pixel region.
  • FIG. 5B shows a specific procedure of parameter calculation processing by the frequency corresponding parameter calculation unit 124.
  • the frequency-corresponding blend ratio setting parameter calculation process in the frequency-corresponding parameter calculation unit 124 is performed according to the following procedure (steps S01 to S03).
  • Step S01 The processes in steps S01 and S02 are processes executed in the adjacent pixel pixel value difference absolute value calculation unit 151, the dynamic range (DR) calculation unit 152, and the frequency parameter calculation unit 153 shown in FIG.
  • a horizontal frequency parameter (activity) [act HOR ] is calculated.
  • This process is a process using the pixel value of the pixel in the horizontal direction included in the parameter calculation area centered on the parameter calculation target pixel (x, y).
  • a total of 9 pixels that is, the parameter calculation target pixel (x, y), the left four pixels of the parameter calculation target pixel (x, y), and the right four pixels.
  • a horizontal frequency parameter (activity) [act HOR ] is calculated using the pixel value.
  • Equation 1 is a calculation formula for the horizontal frequency parameter (activity) [act HOR ] of the pixel position (x, y) of the W-RAW image 111 that is a captured image of the first imaging unit 107.
  • W xi, y is the pixel value at the pixel position (xi, y) of the W-RAW image 111
  • W x-i + 1, y is the value of the W-RAW image 111.
  • This is the pixel value at the pixel position (x ⁇ i + 1, y).
  • Step S02 the vertical frequency parameter (activity) [act VER ] is calculated.
  • This process is a process using the pixel value of the pixel in the vertical direction included in the parameter calculation area centered on the parameter calculation target pixel (x, y).
  • a total of 9 pixels that is, the parameter calculation target pixel (x, y), the upper four pixels of the parameter calculation target pixel (x, y), and the lower four pixels.
  • the vertical frequency parameter (activity) [act VER ] is calculated using the pixel value of.
  • the above (Formula 2) is a formula for calculating the vertical frequency parameter (activity) [act VER ] of the pixel position (x, y) of the W-RAW image 111 that is a captured image of the first imaging unit 107.
  • W x, y ⁇ i is the pixel value at the pixel position (x, y ⁇ i) of the W-RAW image 111
  • W x, y ⁇ i + 1 is the W-RAW image 111.
  • This is the pixel value at the pixel position (x, y ⁇ i + 1).
  • Step S03 The process of step S03 is a process executed by the adding unit 154 and the blend rate calculating unit 155 shown in FIG. In step S03, the following processing is executed.
  • the maximum value of act calculated by the above formula is ⁇ .
  • a value obtained by dividing the selected value by the parameter calculation coefficient ( ⁇ ) is calculated as a frequency-corresponding blend rate setting parameter [ratio Freq ] at the pixel position (x, y).
  • 5 can be used as an example of the parameter calculation coefficient ( ⁇ ).
  • the frequency-corresponding blend rate setting parameter [ratio Freq ] calculated according to the above (Equation 3) is a value in the range of 0-1.
  • the frequency-corresponding blend rate setting parameter [ratio Freq ] is In the high frequency region where the pixel value changes finely, it becomes a large value, that is, a value close to 1, In a flat image area with little change in pixel value, that is, in a low frequency area, the value is small, that is, a value close to 0.
  • the frequency-corresponding parameter calculation unit 124 calculates the frequency-corresponding blend rate setting parameter [ratio Freq ] according to the above-described process.
  • the frequency correspondence parameter calculation unit 124 calculates the frequency correspondence blend rate setting parameter [ratio Freq ] for all pixels constituting the W-RAW image 111 that is a captured image of the first imaging unit 107.
  • the calculation parameter is input to the image correction unit 126.
  • the misalignment correspondence parameter calculation unit 125 illustrated in FIG. 3 includes a W-RAW image 111 that is a captured image of the first imaging unit 107 and a YUV image after alignment generated by the alignment unit 123, that is, the first imaging unit.
  • a YUV image equivalent to that taken from the photographing viewpoint 107 and the sensor noise characteristic ( ⁇ ) 113 are input, and based on these input data, a misalignment corresponding blend rate that is a correction parameter for use in false color correction
  • the setting parameter is calculated and output to the image correction unit 126.
  • the sensor noise characteristic ( ⁇ ) 113 is included in the noise characteristic information of the image sensor used in the second imaging unit 108 of the imaging unit 106, specifically, in the output signal of the image sensor used in the second imaging unit 108. It is the data which shows the noise intensity which is included.
  • the sensor noise characteristic ( ⁇ ) 113 is acquired in advance by the control unit 101, stored in the storage unit 102, acquired from the storage unit 102 under the control of the control unit 101, and input to the misalignment correspondence parameter calculation unit 125.
  • the misalignment correspondence parameter calculation unit 125 includes a W-RAW image 111 that is a captured image of the first imaging unit 107 and a post-positioning YUV image 161 generated by the positioning unit 123, that is, the first A post-positioning YUV image 161 equivalent to that taken from the shooting viewpoint of one image pickup unit 107 and sensor noise characteristics ( ⁇ ) 113 are input, and correction parameters for use in false color correction based on these input data Is calculated and output to the image correction unit 126.
  • the signal conversion unit 171 of the positional deviation corresponding parameter calculation unit 125 executes signal conversion processing for converting the YUV signal of each pixel of the post-alignment YUV image 161 into a W (white) signal. Specifically, the YUV signal is converted into a W (white) signal according to the equation shown in FIG. 7, that is, the following equation (equation 4).
  • ⁇ 0 , ⁇ 1 , and ⁇ 2 are spectral model coefficients, which are conversion parameters defined in advance.
  • the YUV image base W image 162 generated by the signal conversion unit 171 based on the post-alignment YUV image 161 is output to the second region unit pixel value addition unit 173 and the multiplication unit 175.
  • the second region unit pixel value addition unit 173 performs pixel value addition processing on the YUV image base W image 162 in units of pixel regions (n ⁇ n pixels, n is 3, 5, 7, 9, etc.) defined in advance.
  • the added pixel value (B) calculated is output to the area unit pixel value ratio (A / B) calculation unit 174.
  • the first region unit pixel value adding unit 172 applies the pixel region (n ⁇ n pixels, n, n) applied by the second region unit pixel value adding unit 173 to the W-RAW image 111 that is a captured image of the first imaging unit 107.
  • n is a pixel area addition process in the same pixel area unit as in 9
  • the calculated addition pixel value (A) is output to the area unit pixel value ratio (A / B) calculation unit 174.
  • the region unit pixel value ratio (A / B) calculation unit 174 performs region unit between the region unit addition pixel value (A) of the W-RAW image 111 and the region unit addition pixel value (B) of the YUV image base W image 162.
  • the added pixel value ratio (A / B) is calculated and output to the multiplier 175.
  • the multiplication unit 175 includes the YUV image base W image 162 generated based on the post-alignment YUV image 161 by the signal conversion unit 171 and the region unit addition pixel value calculated by the region unit pixel value ratio (A / B) calculation unit 174. Enter the ratio (A / B).
  • the multiplication unit 175 performs a process of multiplying the pixel value of the constituent pixels of the YUV image base W image 162 by the region unit added pixel value ratio (A / B) to convert the pixel value. Note that the multiplication processing is executed by combining the region unit added pixel value ratio (A / B) of the region including the position of each pixel.
  • This multiplication process is executed as a process for matching the pixel value level of the YUV image base W image 162 to the pixel value level of the W pixel of the W-RAW image 111 that is a captured image of the first imaging unit 107.
  • the multiplier 175 generates a pixel value adjusted YUV image base W image 163 by this level adjustment, and outputs it to the difference calculator 176.
  • the W pixel value of the pixel value adjusted YUV image base W image 163 is substantially the same as the pixel value of the W pixel of the W-RAW image 111 that is a captured image of the first imaging unit 107 in a pixel region where no false color occurs. become. However, in the false color generation region, a difference occurs between the W pixel value of the pixel value adjusted YUV image base W image 163 and the pixel value of the W pixel of the W-RAW image 111.
  • the difference calculation unit 176 detects this difference (diff).
  • the difference calculation unit 176 receives the W-RAW image 111 that is a captured image of the first imaging unit 107 and the pixel value adjusted YUV image base W image 163 that is the output of the multiplication unit 175, and the same coordinates of these two images The difference between the pixel values of the corresponding pixels at the positions is calculated. A difference image 164 composed of the calculated difference value corresponding to each pixel is input to the filter processing unit 177.
  • the applied filter is, for example, a median filter that acquires an intermediate value of pixel values in a predetermined pixel region and sets a new pixel value.
  • Blend ratio calculation unit 178 based on filtering result each pixel value of the image of the difference image 164 consisting of the difference pixel value (difference pixel value after filtering), calculates the position deviation corresponding blend ratio setting parameters (ratio ERR) 202 And output to the image correction unit 126.
  • FIG. 8 shows an example of a graph showing the correspondence with the setting parameter (ratio ERR ) 202 ”.
  • the graph shown in FIG. The horizontal axis is the input value “each pixel value of the filtering result image of the difference image 164 composed of difference pixel values (difference pixel value after filtering)”,
  • the vertical axis represents the “positional deviation corresponding blend rate setting parameter (ratio ERR ) 202” that is an output value.
  • the graph shown in FIG. 8 is an example showing the correspondence between input and output values, and output values are defined as follows using preset thresholds: 1 ⁇ and 3 ⁇ .
  • the blend rate calculation unit 178 for example, in accordance with the input / output correspondence definition data shown in FIG. 8, is an input value “each pixel value of the filtering result image of the difference image 164 composed of difference pixel values (difference pixel value after filtering)”. Based on this value, an output value, that is, a “positional deviation correspondence blend rate setting parameter (ratio ERR ) 202” is calculated, and the calculated value is output to the image correction unit 126. Note that the misalignment-corresponding blend rate setting parameter [ratio Err ] calculated by the blend rate calculation unit 178 has a value in the range of 0 to 1.
  • the W-RAW image 111 and the pixel value adjusted YUV image base W image 163 are basically images after alignment, and the position shift should be eliminated originally. However, a difference occurs in each pixel value (W pixel value) depending on the pixel position. This difference is considered to be a false color and is described as a “positional deviation corresponding parameter” under the interpretation that it is a pixel to be output at a pixel position different from the pixel value at the original pixel position. Therefore, “large misregistration” corresponds to “many false colors” and “small misregistration” corresponds to “small false colors”. Note that the input / output value correspondence shown in FIG. 8 is merely an example, and various other settings are possible.
  • the image correction unit 126 inputs the following data.
  • A a W-RAW image 111 that is a captured image of the first imaging unit 107;
  • B A post-alignment YUV image 161 generated by the alignment unit 123;
  • C Frequency correspondence blend ratio setting parameter [ratio Freq ] generated by the frequency correspondence parameter calculation unit 124,
  • D The positional deviation corresponding blend rate setting parameter [ratio Err ] generated by the positional deviation corresponding parameter calculation unit 125,
  • the image correction unit 126 receives these data and outputs a corrected UV signal (Uout, Vout) 203 that is an output signal value of the color difference signal UV that constitutes the pixel value of the corrected image (YUV image) in which the false color is reduced. Is output to the signal conversion unit 127 in the image processing unit 120 shown in FIG.
  • the image correction unit 126 generates a corrected UV signal (Uout, Vout), for example, according to the output signal calculation formula shown in FIG.
  • LPF (U) is a low-pass filter application process for the pixel value signal U of the post-positioning YUV image 161 generated by the position matching unit 123.
  • LPF (V) is a low-pass filter application process for the pixel value signal V of the post-alignment YUV image 161 generated by the alignment unit 123.
  • LPF (W) is a low-pass filter application process for the pixel value signal W of the W-RAW image 111 that is a captured image of the first imaging unit 107.
  • the above (Expression 5) is an expression for executing the following pixel value correction processing, for example.
  • “LPF (U)” shown in the calculation formula of the corrected U signal (Uout) in (Expression 5) applies a low-pass filter to the pixel signal U of the YUV image 161 to surround the false color pixel value.
  • the false color is reduced by smoothing with the pixel value of the pixel.
  • this smoothing causes “blurring” of the image.
  • the pixel value signal W of the W-RAW image 111 that is a captured image of the first imaging unit 107 is blended. That is, “W / LPF (W)” is multiplied to eliminate the “blur” of the image.
  • the output signal calculation formula of FIG. 9A and the formula shown in the above (formula 5) are calculated in the calculation process of the corrected UV signal (Uout, Vout) 203 in the image correction unit 126.
  • a W-RAW image 111 that is a captured image of the first imaging unit 107; It shows that blend processing of these two images is performed.
  • the corrected UV signal (Uout, Vout) 203 is calculated by switching the low-pass filter (LPF) included in the equation (Equation 5) according to the image characteristics.
  • LPF low-pass filter
  • the image correction unit 126 calculates the corrected UV signal (Uout, Vout) 203, the characteristics of the image area unit, (1) Frequency characteristics (2) Misalignment characteristics Depending on these characteristics, different blend rates, that is, blend rates of the YUV image 161 after alignment and the W-RAW image 111 are changed, and the final corrected A UV signal (Uout, Vout) 203 is calculated.
  • the parameter that determines this blend ratio is (1) Frequency-corresponding blend rate setting parameter [ratio Freq ] generated by the frequency-corresponding parameter calculation unit 124, (2) Misalignment correspondence blend ratio setting parameter [ratio Err ] generated by the misalignment correspondence parameter calculation unit 125, These parameters.
  • the image correction unit 126 determines the blend ratio between the post-alignment YUV image 161 and the W-RAW image 111 according to the image characteristics in units of image areas. How it is set will be described with reference to FIG.
  • FIG. 10 shows the following data in association with each other.
  • an RGB sensor output image YUV image 161 after alignment
  • a W sensor output image W-RAW
  • the blend ratio of the image 111) is made substantially equal.
  • the corrected UV signal (Uout, Vout) 203 is calculated by the blending process according to the blend ratio set as described above.
  • An image region having this image characteristic is a low frequency region to a high frequency region, that is, a flat image region with little change in pixel value, to a high frequency region, that is, a pixel.
  • the blend ratio of the RGB sensor output image (YUV image 161 after alignment) is reduced, and the W sensor output
  • the blend ratio of the image (W-RAW image 111) is set to be large.
  • the corrected UV signal (Uout, Vout) 203 is calculated by the blending process according to the blend ratio set as described above.
  • FIG. 10 As an example of a specific process for realizing the blend process between the post-alignment YUV image 161 and the W-RAW image 111 with the blend ratio according to the image characteristics as shown in FIG. 10, FIG. A process of switching the low-pass filter (LPF) applied to the expression shown in a), that is, the output signal calculation expression shown as the above-described (Expression 5) according to the image characteristics is effective.
  • LPF low-pass filter
  • the low-pass filter (LPF) applied to the output signal calculation formula shown as (Formula 5) described above is an image characteristic, that is, (1) Frequency-corresponding blend rate setting parameter [ratio Freq ] generated by the frequency-corresponding parameter calculation unit 124, (2) Misalignment correspondence blend ratio setting parameter [ratio Err ] generated by the misalignment correspondence parameter calculation unit 125, It is a figure explaining the example of a process switched according to the value of these parameters.
  • the horizontal axis represents the misalignment corresponding blend rate setting parameter [ratio Err ] generated by the misalignment corresponding parameter calculation unit 125
  • the vertical axis represents the frequency corresponding blend rate setting parameter generated by the frequency corresponding parameter calculation unit 124 [ ratio Freq ], an example of application of three different types of low-pass filters (LPFs) set for each of these axes and used in accordance with the value of each parameter.
  • LPFs low-pass filters
  • the difference between the three low-pass filters is the difference in the cut-off frequency, the cut-off frequency of LPF 0 is the highest, and the cut-off frequency of LPF 2 is the lowest.
  • a low-pass filter having the following settings can be applied as each low-pass filter.
  • LPF 0 is a 3 ⁇ 3 (pixel) moving average filter
  • LPF 1 is a 13 ⁇ 13 (pixel) moving average filter
  • LPF 2 is a 25 ⁇ 25 (pixel) moving average filter
  • the moving average filter having such a setting can be applied as the three low-pass filters (LPF 0 to LPF 2 ).
  • the coefficient setting of the 3 ⁇ 3 moving average filter is set as shown in the following (Equation 6).
  • LPF 0 is a 3 ⁇ 3 (pixel) moving average filter
  • LPF 1 is a 13 ⁇ 13 (pixel) moving average filter
  • LPF 2 is a 25 ⁇ 25 (pixel) moving average filter
  • the example shown in FIG. 11 is an example in which different processing is executed according to the image characteristics, as described above with reference to FIG. 10, and the low-pass applied to the output signal calculation formula shown as (Formula 5) described above. It is an example of a process which switches a filter (LPF) according to an image characteristic.
  • LPF filter
  • the application mode of the low pass filter (LPF) according to the image characteristics is set as follows.
  • Frequency-corresponding blend rate setting parameter ratio Freq ⁇ Th f1
  • Misalignment-compatible blend rate setting parameter ratio Err ⁇ Th e1 , This is a region that satisfies these conditions.
  • Th indicates a threshold value.
  • An image region having this image characteristic is a low-frequency region, that is, a flat image region with little change in pixel value, and a pixel value other than the pixel value corresponding to the original pixel position is output with a small positional deviation.
  • a corrected low-pass filter (LPF 0 ) having the highest cutoff frequency is applied as the LPF of the output signal calculation formula of (Formula 5) described above, and the corrected UV signal (Uout, Vout) 203 is calculated.
  • This low-pass filter (LPF 0 ) application process increases the blend rate of the RGB sensor output image (post-alignment YUV image 161) and corrects the setting of reducing the blend rate of the W sensor output image (W-RAW image 111).
  • the rear UV signal (Uout, Vout) 203 is calculated.
  • a corrected low-pass filter (LPF 2 ) having the lowest cutoff frequency is applied as the LPF of the output signal calculation formula of (Formula 5) described above, and the corrected UV signal (Uout, Vout) 203 is calculated.
  • This low pass filter (LPF 2 ) application process corrects the setting in which the blend rate of the RGB sensor output image (YUV image 161 after alignment) is lowered and the blend rate of the W sensor output image (W-RAW image 111) is increased.
  • the rear UV signal (Uout, Vout) 203 is calculated.
  • the low-pass filter (LPF 0) application process the RGB sensor output image (registration after YUV image 161), W sensor output image (W-RAW image 111) substantially the same as the corrected UV signal blend ratio of (Uout , Vout) 203 is calculated.
  • FIG. 12 is a diagram summarizing the processing of FIG. 11 and shows corresponding data of the following data.
  • A Image region characteristics
  • Parameter values c
  • Applied filter d
  • UV value after correction U out , V out
  • E Brent rate setting example of RGB sensor output image and W sensor output image
  • Entry (1) in FIG. 12 corresponds to region (1) shown in FIG. 11, and has the following image characteristics and correction processing mode.
  • C Applicable filter: LPF 0
  • LPF 0 (U) and LPF 0 (V) in (d) apply a process of calculating the corrected UV signal (Uout, Vout) by applying LPF 0 to the LPF in (Equation 5) described above. Show.
  • the entry (3) in FIG. 12 corresponds to the area (3) shown in FIG. 11, and has the following image characteristics and correction processing mode.
  • the entry (2) in FIG. 12 corresponds to the region (2) shown in FIG. 11, and has the following image characteristics and correction processing mode.
  • the blend rate according to the image characteristics that is, the RGB sensor output image (YUV image 161 after alignment) and the W sensor output image (W-RAW image 111).
  • the final corrected UV signal (Uout, Vout) 203 is calculated.
  • FIG. 13 shows an example of application characteristics of image characteristics and four different low-pass filters (LPF 0 to LPF 3 ) applied according to each image characteristic.
  • the difference between the four low-pass filters (LPF 0 to LPF 3 ) is a difference in cutoff frequency, where the cutoff frequency of LPF 0 is the highest and the cutoff frequency of LPF 3 is the lowest.
  • an LPF having a lower cutoff frequency such as LPF 3 Apply LPF.
  • an LPF having a higher cutoff frequency for example, an LPF such as LPF 0 is applied as the frequency-corresponding blend ratio setting parameter [ratio Freq ] or the positional deviation corresponding blend ratio setting parameter [ratio Err ] is closer to zero .
  • FIG. 14 shows still another application example of the area correspondence filter.
  • FIG. 14 shows an example of image characteristics and application areas of five different low-pass filters (LPF 0 to LPF 4 ) applied according to each image characteristic.
  • the difference between the five low-pass filters (LPF 0 to LPF 4 ) is the difference in cutoff frequency, where the cutoff frequency of LPF 0 is the highest and the cutoff frequency of LPF 4 is the lowest.
  • an LPF having a lower cutoff frequency such as LPF 4 Apply LPF.
  • an LPF having a higher cutoff frequency for example, an LPF such as LPF 0 is applied as the frequency-corresponding blend ratio setting parameter [ratio Freq ] or the positional deviation corresponding blend ratio setting parameter [ratio Err ] is closer to zero .
  • the processing example described below is one of the specific processing examples for realizing the image blending processing according to the image characteristics in units of the image areas described above. That is, it is one specific example of the generation process of the corrected UV signal (Uout, Vout) 203 executed in the image correction unit 126, and is a processing example using a combination of a plurality of different low-pass filters according to image characteristics. .
  • the image correction unit 126 inputs the following data.
  • A a W-RAW image 111 that is a captured image of the first imaging unit 107;
  • B A post-alignment YUV image 161 generated by the alignment unit 123;
  • C Frequency correspondence blend ratio setting parameter [ratio Freq ] generated by the frequency correspondence parameter calculation unit 124,
  • D The positional deviation corresponding blend rate setting parameter [ratio Err ] generated by the positional deviation corresponding parameter calculation unit 125,
  • the image correction unit 126 receives these data and outputs a corrected UV signal (Uout, Vout) 203 that is an output signal value of the color difference signal UV that constitutes the pixel value of the corrected image (YUV image) in which the false color is reduced. Is output to the signal conversion unit 127 in the image processing unit 120 shown in FIG.
  • the image correction unit 126 generates a corrected UV signal (Uout, Vout) according to the output signal calculation formula shown in FIG.
  • the output signal calculation formula shown in FIG. 15A is a formula created based on (Formula 5) described above, that is, the output signal calculation formula shown in FIG. 9A.
  • the output signal calculation formula shown in FIG. 15A is obtained by applying the frequency-corresponding blend rate setting parameter [ratio Freq ] and the misalignment-corresponding blend rate setting parameter [ratio Err ], and blending the image according to the image region characteristics. Is changed to an equation for generating a corrected UV signal (Uout, Vout).
  • the image correction unit 126 generates a corrected UV signal (Uout, Vout) according to the output signal calculation formula shown in FIG. 15A, that is, the following (Formula 7).
  • U 0 , U 1 , U 2 , and V 0 , V 1 , V 2 are UV values obtained as pixel value conversion results obtained by applying a plurality of different low-pass filters (LPFs).
  • LPFs low-pass filters
  • FIG. 16A is a formula similar to the formula shown in FIG. 15A, that is, a corrected UV signal (Uout, Vout) calculation formula shown in (Formula 7).
  • Example 8 is the same as the above-described (Expression 5), that is, two images similar to the output signal calculation expression described with reference to FIG.
  • A a W-RAW image 111 that is a captured image of the first imaging unit 107
  • B A post-alignment YUV image 161 generated by the alignment unit 123; This is an equation for executing blend processing of these images.
  • U 0 and V 0 are UV values obtained by applying the low-pass filter LPF 0 to the UV pixel values of the post-alignment YUV image 161 generated by the alignment unit 123 as input data.
  • U 1 and V 1 are UV values obtained by applying the low-pass filter LPF 1 to the UV pixel values of the post-alignment YUV image 161 generated by the alignment unit 123 as input data.
  • U 2 and V 2 are UV values obtained by applying the low-pass filter LPF 2 to the UV pixel values of the post-alignment YUV image 161 generated by the alignment unit 123 as input data.
  • the difference between the three low-pass filters is the difference in the cut-off frequency, the cut-off frequency of LPF 0 is the highest, and the cut-off frequency of LPF 2 is the lowest.
  • a low-pass filter having the following settings can be applied as each low-pass filter.
  • LPF 0 is a 3 ⁇ 3 (pixel) moving average filter
  • LPF 1 is a 13 ⁇ 13 (pixel) moving average filter
  • LPF 2 is a 25 ⁇ 25 (pixel) moving average filter
  • the moving average filter having such a setting can be applied as the three low-pass filters (LPF 0 to LPF 2 ).
  • the coefficient setting of the 3 ⁇ 3 moving average filter is the setting shown in (Expression 6) described above.
  • LPF 0 is a 3 ⁇ 3 (pixel) moving average filter
  • LPF 1 is a 13 ⁇ 13 (pixel) moving average filter
  • LPF 2 is a 25 ⁇ 25 (pixel) moving average filter
  • the frequency-corresponding blend rate setting parameter [ratio Freq ] is In the high frequency region where the pixel value changes finely, it becomes a large value, that is, a value close to 1, In a flat image area with little change in pixel value, that is, in a low frequency area, the value is small, that is, a value close to 0.
  • the corrected UV signal (U out , V out ) calculated according to the above (Equation 7) is set according to the image characteristics
  • the horizontal axis indicates positional deviation (corresponding to the false color amount)
  • the vertical axis indicates each frequency axis
  • region examples 1 to 7 corresponding to a plurality of representative image characteristics are shown.
  • the setting of the corrected UV signal (U out , V out ) calculated according to the above (Equation 7) according to the image characteristics (positional deviation and frequency) corresponding to the region examples 1 to 7 is set. This will be explained.
  • the pixel value obtained by applying LPF 0 having the highest cutoff frequency to the input UV value (U, V) and the lowest cutoff An average value of the LPF 2 having the frequency and the pixel value applied to the input UV value (U, V) is set as the corrected UV signal (U out , V out ).
  • the image correction unit 126 thus generates the corrected UV signal (U out , V out ) 203 according to the output signal calculation formula (Formula 7) shown in FIG.
  • the output signal calculation formula (Formula 7) shown in FIG. In the process of generating the corrected UV signal (U out , V out ) 203, the correspondence with the process executed by the image correction unit 126 according to the feature of the region is summarized as follows.
  • smoothing is performed based on pixel values of a wider range of surrounding pixels (for example, 25 ⁇ 25 pixels) using the low-pass filter LPF 2 having a low cutoff frequency. Execute the process.
  • the low-pass filter LPF 1 having a medium cutoff frequency is used to perform a smoothing process based on the pixel values of surrounding pixels (for example, 13 ⁇ 13 pixels) in a medium range.
  • the low pass filter LPF 0 having a high cut-off frequency is used to perform a smoothing process based on the pixel values of surrounding pixels (for example, 3 ⁇ 3 pixels) in a small range.
  • the image correction unit 126 generates the corrected UV signal (U out , V out ) 203 according to the characteristics of the image region in this way, and generates the generated signal as a signal conversion unit 127 in the image processing unit 120 shown in FIG. Output to.
  • Signal converting unit 127 inputs the generated corrected UV signal of the image correction unit 126 (U out, V out) and 203, a W-RAW image 111 is a captured image of the first imaging section 107.
  • the signal conversion unit 127 performs signal conversion based on these input signals to generate and output an RGB image 150.
  • the signal conversion unit 127 converts the YUV signal, which is a combination of the corrected UV signal (U out , V out ) 203 with the W signal Y (luminance) signal of the W-RAW image 111, into an RGB signal. Execute. This signal conversion process is performed according to an existing conversion formula.
  • the RGB image 150 generated by the signal conversion unit 127 is displayed on a display unit, for example. Alternatively, it is stored in the storage unit. Alternatively, it is output to another external information processing apparatus. An encoding process such as a compression process may be executed as a pre-process for the storage unit storage process or the external output process. Note that the YUV signal is not essential to the RGB signal, and the YUV signal may be output to the display device, stored in the storage unit, or externally output as it is.
  • the flowchart shown in FIG. 18 is executed under the control of a control unit (data processing unit) including a CPU or the like that executes processing according to a processing program stored in the storage unit, for example.
  • a control unit data processing unit
  • CPU central processing unit
  • FIG. 18 The flowchart shown in FIG. 18 is executed under the control of a control unit (data processing unit) including a CPU or the like that executes processing according to a processing program stored in the storage unit, for example.
  • a control unit data processing unit
  • CPU central processing unit
  • Steps S101a and 101b are image photographing processing. Two images are taken by the first imaging unit 107 and the second imaging unit 108 of the imaging unit 106 shown in FIG.
  • Step S101a is an RGB image capturing process executed in the second imaging unit 108 having an image sensor having an RGB pixel array such as the Bayer array described above with reference to FIG.
  • Step S101b is a white (W) image capturing process executed in the first image capturing unit 107 having the image sensor having the white (W) pixel array described above with reference to FIG.
  • Step S102 development processing of the RGB image photographed by the second imaging unit 108 in step S101a is executed.
  • This processing is executed in the development processing unit 121 of the image processing unit 120 shown in FIG.
  • the development processing unit 121 executes development processing on the RGB-RAW image 112 input from the second imaging unit 108. Specifically, for example, the following processing is executed.
  • A a clamp process for removing an offset component based on a DC offset or a noise signal generated based on a circuit constituting the image sensor;
  • B a demosaic process for setting three RGB signals for each pixel based on a single RGB signal value set for each pixel of the RGB-RAW image;
  • C White balance processing for aligning RGB values for a white subject;
  • D Conversion processing of RGB values to YUV values;
  • Step S103 a motion vector (MV) detection process is executed in step S103.
  • This process is executed by the motion vector detection unit 122 of the image processing unit 120 shown in FIG.
  • the motion vector detection unit 122 receives the W image 111 from the first imaging unit 107, and the development processing unit 121 generates a YUV image based on the RGB-RAW image 112 that is a captured image of the second imaging unit 108.
  • the Y signal (luminance signal) in 130 is input. Based on these two signals (W signal, Y signal), the motion vector detection unit 122 detects a motion vector (MV: Motion Vector) corresponding to the positional deviation between the two images.
  • MV Motion Vector
  • the first imaging unit 107 and the second imaging unit 108 that are configured in the imaging unit 106 of the image processing apparatus 100 illustrated in FIG. 1 are two imaging units that are set at positions separated by a predetermined interval.
  • Each captured image is an image from a different viewpoint. That is, the image has parallax. Therefore, the same subject image is not photographed in the corresponding pixels of the two images, that is, the pixels at the same position, and subject displacement corresponding to the parallax occurs.
  • the motion vector detection unit 122 Based on these two signals (W signal, Y signal), the motion vector detection unit 122 detects a motion vector (MV: Motion Vector) corresponding to the positional deviation between the two images. Specifically, corresponding points of two images (W image and Y image) are obtained, and a vector connecting the corresponding points is calculated as a motion vector (MV). The motion vector (MV) generated by the motion vector detection unit 122 is input to the alignment unit 123.
  • MV Motion Vector
  • Step S104 Next, alignment processing is executed in step S104.
  • This process is a process executed by the alignment unit 123 of the image processing unit 120 shown in FIG.
  • the alignment unit 123 receives the motion vector (MV) generated by the motion vector detection unit 122 and the YUV image 130 generated by the development processing unit 121 based on the RGB-RAW image 112.
  • the alignment unit 123 moves each pixel position of the YUV image 130 in accordance with the magnitude and direction of the motion vector (MV) to generate a W image, that is, a W-RAW image 111 that is a captured image of the first imaging unit 107.
  • a YUV image similar to that taken from the same viewpoint position is generated.
  • the YUV image 130 is converted into a YUV image that is considered to be taken from the same viewpoint as the first imaging unit 107.
  • Step S105 a frequency correspondence parameter calculation process is executed.
  • This process is a process executed by the frequency corresponding parameter calculation unit 124 of the image processing unit 120 shown in FIG.
  • the frequency correspondence parameter calculation unit 124 inputs the W-RAW image 111 that is a captured image of the first imaging unit 107 and the sensor noise characteristic ( ⁇ ) 113, and these Based on the input data, a frequency-corresponding blend rate setting parameter, which is a correction parameter used for false color correction, is calculated and output to the image correction unit 126.
  • the frequency-corresponding parameter calculation unit 124 sets the frequency-corresponding blend rate setting parameter for all the pixels constituting the W-RAW image 111 that is the captured image of the first image capturing unit 107. [Ratio Freq ] is calculated, and the calculated parameter is input to the image correction unit 126.
  • Step S106 a positional deviation corresponding parameter calculation process is executed.
  • This process is a process executed by the positional deviation corresponding parameter calculation unit 125 of the image processing unit 120 shown in FIG.
  • the positional deviation corresponding parameter calculation unit 125 includes the W-RAW image 111 that is a captured image of the first imaging unit 107 and the alignment unit 123.
  • the generated YUV image after alignment that is, the YUV image equivalent to the image captured from the imaging viewpoint of the first imaging unit 107 and the sensor noise characteristic ( ⁇ ) 113 are input, and the false color is determined based on the input data.
  • the W-RAW image 111 which is a photographed image of the first imaging unit 107, and the YUV image after alignment generated by the alignment unit 123 should have been eliminated from the original position.
  • a difference occurs in each pixel value (W pixel value) depending on the pixel position. This difference is considered to be a false color and is described as a “positional deviation corresponding parameter” under the interpretation that it is a pixel to be output at a pixel position different from the pixel value at the original pixel position. Therefore, “large misregistration” corresponds to “many false colors” and “small misregistration” corresponds to “small false colors”.
  • the misregistration correspondence parameter calculation unit 125 calculates the misregistration correspondence blend ratio setting parameter [ratio Err ] according to the configuration of FIG. 6 described above.
  • the misalignment correspondence blend ratio setting parameter [ratio Err ] calculated by the misalignment correspondence parameter calculation unit 125 is input to the image correction unit 126 in the image processing unit 120 illustrated in FIG.
  • Step S107 The processing in steps S107 to S108 is processing executed by the image correction unit 126 of the image processing unit 120 shown in FIG.
  • the image correction unit 126 inputs the following data.
  • A a W-RAW image 111 that is a captured image of the first imaging unit 107;
  • B A post-alignment YUV image 161 generated by the alignment unit 123;
  • C Frequency correspondence blend ratio setting parameter [ratio Freq ] generated by the frequency correspondence parameter calculation unit 124,
  • D The positional deviation corresponding blend rate setting parameter [ratio Err ] generated by the positional deviation corresponding parameter calculation unit 125,
  • the image correction unit 126 receives these data and outputs a corrected UV signal (Uout, Vout) 203 that is an output signal value of the color difference signal UV that constitutes the pixel value of the corrected image (YUV image) in which the false color is reduced. Is output to the signal conversion unit 127 in the image processing unit 120 shown in FIG.
  • Image correction unit 126 first, in step S107, by applying the input data, a plurality of different low pass filter (LPF 0, LPF 1, LPF 2), specifically, applying different low-pass filter cut-off frequency respectively
  • LPF 0, LPF 1, LPF 2 different low-pass filter cut-off frequency respectively
  • the difference between the three low-pass filters is the difference in the cut-off frequency, the cut-off frequency of LPF 0 is the highest, and the cut-off frequency of LPF 2 is the lowest.
  • a low-pass filter having the following settings can be applied as each low-pass filter.
  • LPF 0 is a 3 ⁇ 3 (pixel) moving average filter
  • LPF 1 is a 13 ⁇ 13 (pixel) moving average filter
  • LPF 2 is a 25 ⁇ 25 (pixel) moving average filter
  • the moving average filter having such a setting can be applied as the three low-pass filters (LPF 0 to LPF 2 ).
  • step S108 the image correction unit 126 calculates U 0 to U 3 and V 0 to V 3 calculated in step S107, (1) Frequency-corresponding blend rate setting parameter [ratio Freq ] generated by the frequency-corresponding parameter calculation unit 124, (2) Misalignment correspondence blend ratio setting parameter [ratio Err ] generated by the misalignment correspondence parameter calculation unit 125, By applying these two blend ratio setting parameters, the corrected UV signal (U out , V out ) 203 is calculated.
  • V out (1-ratio Err ) ((1-ratio Freq) ⁇ V 0 + ratio Freq ⁇ V 1) + ratio Err ⁇ V 2 ...
  • U out (1-ratio Err ) ((1-ratio Freq) ⁇ V 0 + ratio Freq ⁇ V 1) + ratio Err ⁇ V 2 ...
  • the above-described (Formula 5) shown in FIG. 9A may be applied to change the filter to be applied according to the image characteristics.
  • the post-correction UV signal (U out , V out ) calculation process executed by the image correction unit 126 according to the feature of the region is executed in the following manner.
  • A In a region where there is a large amount of misalignment (it is estimated that there are many false colors), a low-pass filter LPF 2 with a low cut-off frequency is preferentially used, and a wider range of surrounding pixels (for example, 25 ⁇ 25 pixels)
  • a process of smoothing based on the value is executed.
  • the low-pass filter LPF 1 having a medium cutoff frequency is preferentially used to perform a smoothing process based on the pixel values of surrounding pixels (for example, 13 ⁇ 13 pixels) in the medium range.
  • the low-pass filter LPF 0 having a high cut-off frequency is preferentially used to perform a smoothing process based on pixel values of surrounding pixels (for example, 3 ⁇ 3 pixels) in a small range.
  • the image correction unit 126 generates the corrected UV signal (U out , V out ) 203 according to the characteristics of the image region in this way, and generates the generated signal as a signal conversion unit 127 in the image processing unit 120 shown in FIG. Output to.
  • Step S109 The process of step S109 is a process executed by the signal conversion unit 127 of the image processing unit 120 illustrated in FIG.
  • the signal conversion unit 127 receives the corrected UV signal (U out , V out ) 203 generated by the image correction unit 126 and the W-RAW image 111 that is a captured image of the first imaging unit 107.
  • the signal conversion unit 127 performs signal conversion based on these input signals to generate and output an RGB image 150.
  • Signal conversion unit 127 processing of the W signal Y (luminance) signal of W-RAW image 111, converts the corrected UV signal (U out, V out) of the YUV signal composed of a combination of a UV signal 203 into RGB signals Execute. This signal conversion process is performed according to an existing conversion formula.
  • the RGB image 150 generated by the signal conversion unit 127 is displayed on a display unit, for example. Alternatively, it is stored in the storage unit. Alternatively, it is output to another external information processing apparatus. An encoding process such as a compression process may be executed as a pre-process for the storage unit storage process or the external output process. Note that the YUV signal is not essential to the RGB signal, and the YUV signal may be output to the display device, stored in the storage unit, or externally output as it is.
  • the image processing unit 120 illustrated in FIG. 3 inputs the RGB-RAW image 112 that is a captured image of the second imaging unit 108 to the development processing unit 121, and performs the chordal image processing of the RGB-RAW image 112.
  • the image processing is performed by applying the YUV image 130 generated by the above.
  • the execution timing of the development processing may be after the processing of the image processing unit 120 is completed, for example.
  • various settings such as a configuration in which a part of the processing of the development processing unit is executed after the processing of the image processing unit 120 is completed are possible.
  • the signal conversion unit 127 performs a signal conversion from a YUV signal to an RGB signal.
  • this process is indispensable.
  • the YUV signal may be output to the display device, stored in the storage unit, or externally output as it is.
  • the technology disclosed in this specification can take the following configurations. (1) A color image and a white (W) image photographed by a W array imaging device in which all pixels are white (W) pixel arrays are input, and image processing for reducing false colors included in the color image is executed.
  • An image processing unit The image processing unit A frequency-corresponding parameter calculating unit that inputs the white (W) image and calculates a frequency-corresponding parameter for each image area of the white (W) image; A positional deviation correspondence parameter calculating unit that inputs the white (W) image and the color image and calculates a positional deviation correspondence parameter in units of image areas of the two input images; An image correction unit that calculates a correction pixel value by executing a blend process in which a blend ratio of the white (W) image and the color image is controlled according to values of the frequency-corresponding parameter and the positional deviation-corresponding parameter.
  • An image processing apparatus An image processing apparatus.
  • the color image is an RGB image photographed by an RGB array image sensor
  • the positional deviation corresponding parameter calculation unit A YUV image generated based on the white (W) image and the RGB image is input, and a positional deviation corresponding parameter for each image region of the two input images is calculated
  • the image correction unit A correction pixel value is calculated by executing a blending process in which the blend ratio of the white (W) image and the YUV image is controlled according to the values of the frequency correspondence parameter and the positional deviation correspondence parameter (1).
  • the image correction unit The image processing apparatus according to (1) or (2), wherein a correction pixel value is calculated by selectively applying a plurality of different low-pass filters (LPF) having different cutoff frequencies in units of image regions.
  • LPF low-pass filters
  • the image correction unit (A) an LPF-applied color pixel value to which a low-pass filter (LPF) is applied in units of area of the color image; (B) a divided W pixel value obtained by dividing a pixel value of the white (W) image by a value obtained by applying a low-pass filter (LPF) in units of regions of the white (W) image;
  • the image processing apparatus according to any one of (1) to (3), wherein the corrected pixel value is calculated by multiplying the two calculated values.
  • the image correction unit A low-pass filter (LPF) applied in units of color image areas, In the high-frequency region, priority is given to a low-pass filter with a relatively low cutoff frequency,
  • LPF low-pass filter
  • the image processing device according to any one of (1) to (4), wherein a low-pass filter having a relatively high cutoff frequency is preferentially applied in a low-frequency region.
  • the image correction unit A low-pass filter (LPF) applied in units of color image areas, In the region where the displacement is large, the low-pass filter with a relatively low cutoff frequency is preferentially applied,
  • LPF low-pass filter
  • the image processing device according to any one of (1) to (5), wherein a low-pass filter having a relatively high cutoff frequency is preferentially applied in a region where the positional deviation is small.
  • the image correction unit (A) an LPF-applied YUV pixel value to which a low-pass filter (LPF) is applied in units of regions of the YUV image; (B) a divided W pixel value obtained by dividing a pixel value of the white (W) image by a value obtained by applying a low-pass filter (LPF) in units of regions of the white (W) image; The image processing apparatus according to (2), wherein the corrected pixel value is calculated by multiplying the two calculated values.
  • LPF low-pass filter
  • the image correction unit A low pass filter (LPF) applied to the correction pixel value calculation formula is In the high-frequency region, priority is given to a low-pass filter with a relatively low cutoff frequency,
  • the image correction unit A low pass filter (LPF) applied to the correction pixel value calculation formula is In the region where the displacement is large, the low-pass filter with a relatively low cutoff frequency is preferentially applied,
  • the image processing unit An alignment unit that performs alignment of the color image and the white (W) image;
  • the positional deviation corresponding parameter calculation unit The white (W) image and the color image after registration generated by the registration unit are input, and the positional deviation corresponding parameter for each image area of the two input images is calculated (1) to (10)
  • An image processing apparatus according to claim 1.
  • the image processing unit The color image and the white (W) image are input, and a motion vector detection unit that detects a motion vector between the two images is provided.
  • the image processing apparatus according to (11), wherein the alignment unit executes alignment between the color image and the white (W) image using the motion vector.
  • the motion vector detection unit includes: The image processing apparatus according to (12), wherein a motion vector corresponding to an image position shift based on a parallax corresponding to a shift in shooting position between the color image capturing unit and the white (W) image capturing unit is detected. .
  • a first imaging unit having a W array imaging element in which all pixels are white (W) pixel arrays, and capturing a white (W) image
  • a second imaging unit having an RGB array imaging device having an RGB pixel array and capturing a color image
  • An image processing unit that inputs the white (W) image and the color image and executes image processing to reduce false colors included in the color image
  • the image processing unit A frequency-corresponding parameter calculating unit that inputs the white (W) image and calculates a frequency-corresponding parameter for each image area of the white (W) image;
  • a positional deviation correspondence parameter calculating unit that inputs the white (W) image and the color image and calculates a positional deviation correspondence parameter in units of image areas of the two input images;
  • An image correction unit that calculates a correction pixel value by executing a blend process in which a blend ratio of the white (W) image and the color image is controlled according to values of the frequency-corresponding parameter and the positional deviation-corresponding parameter.
  • the image processing apparatus includes: Image processing for inputting a color image and a white (W) image photographed by a W array imaging device in which all pixels are white (W) pixel arrays and executing image processing for reducing false colors included in the color image Part
  • the image processing unit A frequency corresponding parameter calculation process for inputting the white (W) image and calculating a frequency corresponding parameter for each image area of the white (W) image;
  • a positional deviation corresponding parameter calculation process for inputting the white (W) image and the color image and calculating a positional deviation corresponding parameter for each input image area;
  • the imaging device A first imaging unit having a W array imaging device in which all pixels are white (W) pixel arrays, and capturing a white (W) image; A second imaging unit having an RGB array imaging device having an RGB pixel array and capturing a color image; An image processing unit that inputs the white (W) image and the color image and executes image processing to reduce false colors included in the color image; In the first imaging unit and the second imaging unit, a white (W) image and a color image are captured, In the image processing unit, A frequency corresponding parameter calculation process for inputting the white (W) image and calculating a frequency corresponding parameter for each image area of the white (W) image; A positional deviation corresponding parameter calculation process for inputting the white (W) image and the color image and calculating a positional deviation corresponding parameter for each input image area; An image processing method for calculating a correction pixel value by executing a blend process in which a blend ratio of the white (W) image and the color image is controlled according
  • a program for executing image processing in an image processing apparatus includes: Image processing for inputting a color image and a white (W) image photographed by a W array imaging device in which all pixels are white (W) pixel arrays and executing image processing for reducing false colors included in the color image Part
  • the program is stored in the image processing unit.
  • a process of calculating a correction pixel value is executed by executing a blend process in which a blend ratio of the white (W) image and the color image is controlled in accordance with values of the frequency-corresponding parameter and the positional deviation-corresponding parameter. Program to make.
  • a program for executing image processing in an imaging apparatus The imaging device A first imaging unit having a W array imaging device in which all pixels are white (W) pixel arrays, and capturing a white (W) image; A second imaging unit having an RGB array imaging device having an RGB pixel array and capturing a color image; An image processing unit that inputs the white (W) image and the color image and executes image processing to reduce false colors included in the color image;
  • the program is In the first imaging unit and the second imaging unit, a white (W) image and a color image are captured, In the image processing unit, A frequency corresponding parameter calculation process for inputting the white (W) image and calculating a frequency corresponding parameter for each image area of the white (W) image; A positional deviation corresponding parameter calculation process for inputting the white (W) image and the color image and calculating a positional deviation corresponding parameter for each input image area; A process of calculating a correction pixel value is executed by executing a blend process in which a blend ratio of the white (W) image and the
  • the series of processes described in the specification can be executed by hardware, software, or a combined configuration of both.
  • the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run.
  • the program can be recorded in advance on a recording medium.
  • the program can be received via a network such as a LAN (Local Area Network) or the Internet and installed on a recording medium such as a built-in hard disk.
  • the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary.
  • the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.
  • an apparatus and a method for performing false color correction according to image characteristics in units of image areas in a color image are realized.
  • An image processing unit for executing The image processing unit inputs a white (W) image, inputs a frequency corresponding parameter calculation unit that calculates a frequency corresponding parameter for each image region, a white (W) image, and a color image, and inputs two input images.
  • the blend ratio of the white (W) image and the color image is controlled according to the values of the misalignment correspondence parameter calculation unit, the frequency correspondence parameter, and the misalignment correspondence parameter that calculate the misalignment correspondence parameter for each image area.
  • a blending process is executed to calculate a corrected pixel value.
  • SYMBOLS 100 Image processing apparatus 101 Control part 102 Storage part 103 Codec 104 Input part 105 Output part 106 Imaging part 107 1st imaging part 108 2nd imaging part 111 W-RAW image 112 RGB-RAW image 113 Sensor noise characteristic ((sigma)) DESCRIPTION OF SYMBOLS 120 Image processing part 121 Development processing part 122 Motion vector detection part 123 Position alignment part 124 Frequency corresponding parameter calculation part 125 Position shift corresponding parameter calculation part 126 Image correction part 127 Signal conversion part 150 RGB image 151 Absolute value calculation of adjacent pixel pixel value difference Unit 152 dynamic range (DR) calculation unit 153 frequency parameter calculation unit 154 addition unit 155 blend ratio calculation unit 161 post-alignment YUV image 162 YUV image base W image 163 pixel value adjustment YUV image base W image 164 difference image 171 signal conversion unit 172 1st area unit pixel value addition part 173 2nd area unit pixel value addition part 174 Area unit pixel non-calculation part

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

カラー画像における画像領域単位の画像特性に応じた偽色補正を行う装置、方法を提供する。カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有する。画像処理部は、ホワイト(W)画像を入力し、画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、ホワイト(W)画像と、カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、ホワイト(W)画像と、カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する。

Description

画像処理装置、撮像装置、および画像処理方法、並びにプログラム
 本開示は、画像処理装置、撮像装置、および画像処理方法、並びにプログラムに関する。特に、画像に発生する偽色の補正処理を実行する画像処理装置、撮像装置、および画像処理方法、並びにプログラムに関する。
 カメラ(撮像装置)によりカラー画像を撮影すると、撮影画像中に撮影被写体の実際の色と異なる色、いわゆる偽色が発生することがある。
 撮像素子には、例えばRGB配列からなるカラーフィルタが設けられ、カラーフィルタを介した入射光が撮像素子上に到達して各入射光量に応じた電気信号を出力する。
 このようなカラーフィルタを用いた撮像構成では、例えば単位面積たりの輝度や色信号の変化量の大きい、いわゆる高周波信号領域に偽色が発生しやすい。特に高密度化された撮像素子では、偽色がより発生しやすい傾向がある。
 このような偽色の補正手法を開示した従来技術として、例えば特許文献1(特開2013-26672号公報)がある。
 特許文献1には、一般的なカラー画像撮影のためのRGB画素配列、例えばベイヤ配列を持つ撮像素子(イメージセンサ)と、ホワイト(W)画素のみからなるW画素配列からなる撮像素子の2つの撮像素子を用いた2枚の撮影画像を用いて、色補正を実行する構成を開示している。
 しかし、RGB画素配列を持つ撮像素子(イメージセンサ)による撮影画像には、偽色が発生しやすい領域とほとんど発生しないが領域があり、これらの領域を判別して、領域単位で最適な処理を行なわなければ、正しい被写体の色を再現することができない。
 また、RGB画像とW画像の2つの画像を用いるためには、2つの撮像素子を並べて撮影することが必要であり、2つの画像に視差に基づく位置ずれが発生する。
 上記の領域単位の補正を正しく行うためには、2画像の位置ずれを解消するための位置合わせを実行した上で領域単位の画像特性を検出して、領域単位で最適な補正を行う必要がある。
 上記の特許文献1は、RGB配列の撮像素子(イメージセンサ)と、ホワイト(W)画素配列の撮像素子(イメージセンサ)の2つの撮像素子の撮影画像を用いた偽色補正について説明しているが、各画像領域の特徴に基づいて補正態様を最適化することについての詳細な説明はなく、画像領域によって誤った補正が行われてしまうという可能性がある。
特開2013-26672号公報
 本開示は、上記の問題点に鑑みてなされたものであり、RGB配列撮像素子等、通常のカラー画像撮影用の撮像素子と、ホワイト(W)画素配列の撮像素子を用いて撮影された2枚の画像を用い、画像領域単位の特徴に応じて補正態様を最適化し、各画像領域の画像特性に応じた最適な画像補正により、偽色を減少させた高品質な画像を生成する画像処理装置、撮像装置、および画像処理方法、並びにプログラムを提供することを目的とする。
 本開示の第1の側面は、
 カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
 前記画像処理部は、
 前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、
 前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、
 前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像補正部を有する画像処理装置にある。
 さらに、本開示の第2の側面は、
 全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
 RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
 前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
 前記画像処理部は、
 前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、
 前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、
 前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像補正部を有する撮像装置にある。
 さらに、本開示の第3の側面は、
 画像処理装置において実行する画像処理方法であり、
 前記画像処理装置は、
 カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
 前記画像処理部が、
 前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
 前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
 前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像処理方法にある。
 さらに、本開示の第4の側面は、
 撮像装置において実行する画像処理方法であり、
 前記撮像装置は、
 全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
 RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
 前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
 前記第1撮像部と、前記第2撮像部において、ホワイト(W)画像とカラー画像を撮影し、
 前記画像処理部において、
 前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
 前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
 前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像処理方法にある。
 さらに、本開示の第5の側面は、
 画像処理装置において画像処理を実行させるプログラムであり、
 前記画像処理装置は、
 カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
 前記プログラムは、前記画像処理部に、
 前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
 前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
 前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する処理を実行させるプログラムにある。
 さらに、本開示の第6の側面は、
 撮像装置において画像処理を実行させるプログラムであり、
 前記撮像装置は、
 全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
 RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
 前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
 前記プログラムは、
 前記第1撮像部と、前記第2撮像部において、ホワイト(W)画像とカラー画像を撮影させ、
 前記画像処理部に、
 前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
 前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
 前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する処理を実行させるプログラムにある。
 なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例の構成によれば、カラー画像における画像領域単位の画像特性に応じた偽色補正を行う装置、方法が実現される。
 具体的には、カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有する。画像処理部は、ホワイト(W)画像を入力し、画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、ホワイト(W)画像と、カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、ホワイト(W)画像と、カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する。
 これらの処理により、カラー画像における画像領域単位の画像特性に応じた偽色補正を行う装置、方法が実現され、偽色を除去または低減した高品質な画像を生成して出力することが可能となる。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
画像処理装置の構成例について説明する図である。 撮像装置の画素配列の構成例について説明する図である。 画像処理部の構成と処理について説明する図である。 周波数対応パラメータ算出部の構成と処理について説明する図である。 周波数対応パラメータ算出部の構成と処理について説明する図である。 位置ずれ対応パラメータ算出部の構成と処理について説明する図である。 位置ずれ対応パラメータ算出部の構成と処理について説明する図である。 位置ずれ対応パラメータ算出部の構成と処理について説明する図である。 画像補正部の構成と処理について説明する図である。 画像補正部の実行する処理について説明する図である。 画像補正部の実行する処理について説明する図である。 画像補正部の実行する処理について説明する図である。 画像補正部の実行する処理について説明する図である。 画像補正部の実行する処理について説明する図である。 画像補正部の実行する処理について説明する図である。 画像補正部の実行する処理について説明する図である。 画像補正部の実行する処理について説明する図である。 画像処理装置の実行する処理のシーケンスについて説明するフローチャートを示す図である。
 以下、図面を参照しながら本開示の画像処理装置、撮像装置、および画像処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行う。
 1.本開示の画像処理装置の構成と処理について
 2.画像処理部の構成と、偽色低減処理について
 3.画像補正部の実行する画像特性に応じた画像処理について
 4.画像特性に応じて複数の異なるローパスフィルタを組み合わせて利用した画像処理について
 5.画像処理装置の実行する画像処理の処理シーケンスについて
 6.画像処理装置のその他の構成例について
 7.本開示の構成のまとめ
  [1.本開示の画像処理装置の構成と処理について]
 図1以下を参照して本開示の画像処理装置の構成と処理について説明する。
 図1は、本開示の画像処理装置100の一例である撮像装置の構成を示すブロック図である。
 なお、本開示の画像処理装置は、撮像装置に限らず、例えば撮像装置の撮影画像を入力して画像処理を実行するPC等の情報処理装置も含まれる。
 以下では、本開示の画像処理装置100の一例として、撮像装置の構成と処理について説明する。
 以下の実施例において説明する撮影処理以外の画像処理は、撮像装置に限らず、PC等の情報処理装置において実行することも可能である。
 図1に示す撮像装置としての画像処理装置100は、制御部101、記憶部102、コーデック103、入力部104、出力部105、撮像部106、画像処理部120を有する。
 撮像部106は、可視光の全波長領域の入射光量に基づく電気信号出力を行うW(ホワイト)画素配列撮像素子を有する第1撮像部107と、RGBのカラーフィルタ、例えばベイヤ配列からなるカラーフィルタを有し、各画素単位でRGB各色の入力光対応の信号を出力するRGB画素配列撮像素子を有する第2撮像部108によって構成される。
 第1撮像部107と、第2撮像部108は、所定間隔、離れた位置に設定される2つの撮像部であり、それぞれの撮影画像は異なる視点からの画像となる。これらの2つの画像は、静止画である場合は、同一タイミングの静止画として撮影される。動画である場合は、各撮像部の撮影フレームは、同期した撮影フレーム、すなわち同一タイミングで順次撮影される連続した画像フレームとなる。
 なお、これらの撮影タイミングの制御は制御部101によって行われる。
 しかし、これらの2つの撮像部107,108は、上述のように、所定間隔離れた位置に設定される2つの撮像部であり、それぞれの撮影画像は異なる視点からの画像となる。すなわち視差を持つ画像となる。
 従って、2つの画像の対応画素、すなわち同一位置の画素には同一の被写体画像が撮影されず、視差に応じた被写体ずれが発生する。
 本開示の画像処理装置100は、画像処理部120においてこのずれを考慮して画像補正、具体的には偽色を低減させる画像処理を行なう、この処理の詳細については後述する。
 制御部101は、画像の撮影、撮影画像に対する信号処理、画像の記録処理、表示処理等、撮像装置100において実行する各種の処理を制御する。制御部101は、例えば記憶部102に格納された様々な処理プログラムに従った処理を実行するCPU等を備え、プログラムを実行するデータ処理部として機能する。
 記憶部102は、撮影画像の格納部、さらに、制御部101において実行する処理プログラムや、各種パラメータの記憶部、さらにデータ処理時のワークエリアとして機能するRAM,ROM等によって構成される。
 コーデック103は、撮影画像の圧縮、伸長処理等の符号化、復号処理を実行する。
 入力部104は、例えばユーザ操作部であり、撮影開始、終了、様々なモード設定等の制御情報を入力する。
 出力部105は表示部、スピーカ等によって構成され、撮影画像、スルー画等の表示、音声出力等に利用される。
 画像処理部120は、撮像部106から入力する2枚の画像ホワイト-RAW(W-RAW)画像111、RGB-RAW画像112、さらに処理パラメータとしてのセンサノイズ特性(σ)113を入力し、偽色を減少させる画像処理を実行して、RGB画像150を生成して出力する。
 前述したように、撮像部106は、可視光の全波長領域の入射光量に基づく電気信号出力を行うW(ホワイト)画素配列撮像素子を有する第1撮像部107と、RGBのカラーフィルタ、例えばベイヤ配列からなるカラーフィルタを有し、各画素単位でRGB各色の入力光対応の信号を出力するRGB画素配列撮像素子を有する第2撮像部108によって構成される。
 この2つの撮像部107,108の画素配列(フィルタ配列)について図2を参照して説明する。
 図2(a)は、一般的なカラー画像の撮影に用いられるベイヤ配列を示している。
 ベイヤ配列は、RGB各色の波長光を選択的に透過するRGBフィルタによって構成される。
 2×2の4画素中の対角上に2つのG画素が設定され、残りにR、B画素が1zずつ配置される。
 このベイヤ配列型のRGB画素配列は、図1に示す第2撮像部108に用いられる画素配列である。画像撮影処理によって、各画素単位でRGBのいずれかの画素値が設定される。この信号処理前の画像が、図1に示すRGB-RAW画像112である。
 RGB-RAW画像は、各画素にR,G,Bのいずれか1つの画素値が設定されている。その後の信号処理として実行されるデモザイク処理によって、全ての画素にRGBの3信号を設定する処理が行われる。
 通常の単眼カメラでは、このような処理によってカラー画像の生成が行われるが、この処理において、このような処理を行なうと、前述したように、本来の被写体にはない色が出力画像中に出現する偽色が発生することがある。
 本開示の画像処理装置では、図1に示す画像処理部120内における画像処理によって、この偽色を減少させる処理を行なう。
 この具体的処理については後段で説明する。
 図2(b)は、図1の第1撮像部107の画素配列(フィルタ配列)を示す図である。全画素が、可視光の全波長領域の入射光量に基づく電気信号出力を行うW(ホワイト)画素によって構成される。
 図1の第1撮像部107は、全画素についてRGBの全ての波長光を入射するW画素を全画素位置に配列したW画素配列撮像素子による撮像画像としてのW-RAW画像111を生成して画像処理部120に入力する。
 画像処理部120は、第1撮像部107からW-RAW画像111、第2撮像部108からRGB-RAW画像112を入力し、さらに、偽色を減少させる補正処理に適用するパラメータであるセンサノイズ特性(σ)113を入力して、偽色を減少させるための画像補正処理を行なう。
 なお、センサノイズ特性(σ)113は、撮像部106の第1撮像部107、第2撮像部108において用いられる撮像素子のノイズ特性であり、例えば、制御部101によって予め取得され、記憶部102に格納される。
 なお、ここでは、第1撮像部107、第2撮像部108において用いられる撮像素子のノイズ特性を共通の値(σ)として示しているが、各撮像部の撮像素子各々の特性、σ1,σ2を用いる構成としてもよい。
  [2.画像処理部の構成と、偽色低減処理について]
 次に、図3以下を参照して、図1に示す画像処理装置100の画像処理部120の構成と処理について説明する。
 図3は、画像処理装置100の画像処理部120の構成を示すブロック図である。
 図3に示ように、画像処理部120は、現像処理部121、動きベクトル検出部122、位置合わせ部123、周波数対応パラメータ算出部124、位置ずれ対応パラメータ125、画像補正部126、信号変換部127を有する。
 画像処理部120は、図1に示す第2撮像部108の撮影画像であるRGB画像に発生する偽色を低減させる処理を実行して、偽色の低減されたRGB画像150を出力する。
 画像処理部120に対する入力信号は、以下の各信号である。
 (1)第1撮像部107から入力するW画像111、
 (2)第2撮像部108から入力するRGB-RAW画像112、
 (3)センサノイズ特性(σ)113、
 まず、現像処理部121は、第2撮像部108から入力するRGB-RAW画像112に対する現像処理を実行する。具体的には、例えば以下の処理を実行する。
 (a)撮像素子を構成する回路に基づいて発生するDCオフセットやノイズ信号に基づくオフセット成分を除去するクランプ処理、
 (b)RGB-RAW画像の各画素に設定されたRGBの単一信号値に基づいて、各画素にRGBの3信号を設定するデモザイク処理、
 (c)白の被写体に対するRGB値を揃えるホワイトバランス処理、
 (d)RGB値のYUV値への変換処理、
 これらの処理を実行する。
 なお、これらの処理は、いずれも既存技術を適用して実行可能である。
 現像処理部121における現像処理によって、RGB-RAW画像112は、YUV画像130に変換される。
 YUV画像130は、全画素にY(輝度),U(色差),V(色差)の3つの画素値が設定された画像である。
 次に、動きベクトル(MV:Motion Vector)検出部122の処理について説明する。
 動きベクトル検出部122は、第1撮像部107からW画像111を入力するとともに、現像処理部121が、第2撮像部108の撮影画像であるRGB-RAW画像112に基づいて生成した、YUV画像130中のY信号(輝度信号)を入力する。
 動きベクトル検出部122は、これらの2つの信号(W信号,Y信号)に基づいて、2つの画像の位置ずれに相当する動きベクトル(MV:Motion Vector)を検出する。
 前述したように、図1に示す画像処理装置100の撮像部106に構成される第1撮像部107と、第2撮像部108は、所定間隔離れた位置に設定される2つの撮像部であり、それぞれの撮影画像は異なる視点からの画像となる。すなわち、視差を持つ画像となる。
 従って、2つの画像の対応画素、すなわち同一位置の画素には同一の被写体画像が撮影されず、視差に応じた被写体ずれが発生する。
 動きベクトル検出部122は、これらの2つの信号(W信号,Y信号)に基づいて、2つの画像の位置ずれに相当する動きベクトル(MV:Motion Vector)を検出する。
 具体的には、2つの画像(W画像、Y画像)の対応点をもとめ、その対応点を結ぶベクトルを動きベクトル(MV)として算出する。
 動きベクトル検出部122の生成した動きベクトル(MV)は、位置合わせ部123に入力される。
 位置合わせ部123は、動きベクトル検出部122の生成した動きベクトル(MV)を入力するとともに、現像処理部121が、RGB-RAW画像112に基づいて生成したYUV画像130を入力する。
 位置合わせ部123は、YUV画像130を、動きベクトル(MV)の大きさと方向に従って各画素位置を移動させて、W画像、すなわち、第1撮像部107の撮影画像であるW-RAW画像111と同一視点位置から撮影されたと同様のYUV画像を生成する。
 この処理によって、YUV画像130は、第1撮像部107と同一視点から撮影されたとみなされるYUV画像に変換される。
 位置合わせ部123の生成した位置合わせ処理後のYUV画像は、位置ずれ対応パラメータ算出部125に入力される。
 さらに、色差信号UVは、画像補正部126に入力される。
 次に、周波数対応パラメータ算出部124の処理について説明する。
 周波数対応パラメータ算出部124は、第1撮像部107の撮影画像であるW-RAW画像111と、センサノイズ特性(σ)113を入力し、これらの入力データに基づいて、偽色補正に利用するための補正パラメータである周波数対応ブレンド率設定パラメータを算出して画像補正部126に出力する。
 なお、センサノイズ特性(σ)113は、撮像部106の第1撮像部107において用いられる撮像素子のノイズ特性情報、具体的には、第1撮像部107において用いられる撮像素子の出力信号中に含まれるノイズ強度を示すデータである。
 このセンサノイズ特性(σ)113は、例えば、制御部101によって予め取得され、記憶部102に格納され、制御部101の制御によって記憶部102から取得され、周波数対応パラメータ算出部124に入力される。
 周波数対応パラメータ算出部124の具体的構成と処理について、図4、図5を参照して説明する。
 図4は、周波数対応パラメータ算出部124の具体的構成を示す図である。
 図4に示すように、周波数対応パラメータ算出部124は、第1撮像部107の撮影画像であるW-RAW画像111と、センサノイズ特性(σ)113を入力し、これらの入力データに基づいて、偽色補正に利用するための補正パラメータである周波数対応ブレンド率設定パラメータを算出して画像補正部126に出力する。
 図4に示すように、周波数対応パラメータ算出部124は、隣接画素画素画素値差分絶対値算出部151、ダイナミックレンジ(DR)算出部152、周波数パラメータ算出部153、加算部154、ブレンド率算出部155を有する。
 これらの各処理部の具体的処理について、図5を参照して説明する。
 図5(a)は、周波数対応パラメータ算出部124において算出する周波数対応ブレンド率設定パラメータの算出領域の設定例について説明する図である。
 周波数対応パラメータ算出部124において算出する周波数対応ブレンド率設定パラメータは、各画素対応のパラメータである。
 パラメータ算出処理は、第1撮像部107の撮影画像であるW-RAW画像111を用いて実行する。パラメータ算出対象画素を(x,y)の位置の画素とすると、そのパラメータ算出対象画素(x,y)の周囲画素領域の画素値を用いてパラメータの算出処理を実行する。
 図5(a)に示す例は、パラメータ算出対象画素(x,y)の周囲画素領域として、パラメータ算出対象画素(x,y)を中心画素とした9×9画素の画素領域をパラメータ算出に適用する画素領域とした例である。
 なお、この画素領域の大きさは、様々な設定が可能である。
 図5(b)に、周波数対応パラメータ算出部124によるパラメータ算出処理の具体的手順を示す。
 周波数対応パラメータ算出部124における周波数対応ブレンド率設定パラメータの算出処理は、以下の手順(ステップS01~S03)に従って行われる。
  (ステップS01)
 ステップS01,S02の処理は、図4に示す隣接画素画素画素値差分絶対値算出部151と、ダイナミックレンジ(DR)算出部152と、周波数パラメータ算出部153において実行する処理である。
 まず、ステップS01において、水平方向の周波数パラメータ(activity)[actHOR]を算出する。
 この処理は、パラメータ算出対象画素(x,y)を中心としたパラメータ算出領域に含まれる水平方向の画素の画素値を利用した処理である。
 図5(a)に示すパラメータ算出領域設定例では、パラメータ算出対象画素(x,y)と、パラメータ算出対象画素(x,y)の左側の4画素と、右側の4画素の計9画素の画素値を利用して、水平方向の周波数パラメータ(activity)[actHOR]を算出する。
 水平方向の周波数パラメータ(activity)[actHOR]の算出は、以下の(式1)に従って実行する。
Figure JPOXMLDOC01-appb-M000001
 なお、上記(式1)は、第1撮像部107の撮影画像であるW-RAW画像111の画素位置(x,y)の水平方向周波数パラメータ(activity)[actHOR]の算出式である。
 上記(式1)において、Wx-i,yは、W-RAW画像111の画素位置(x-i,y)の画素値であり、Wx-i+1,yは、W-RAW画像111の画素位置(x-i+1,y)の画素値である。
 iは、パラメータ算出領域の画素位置(x座標)を示す変数であり、図4(a)の設定の場合、i=4~-4となる。
 なお、ダイナミックレンジ(DR)や、センサノイズ特性(σ)113、すなわち、第1撮像部107の撮像素子のノイズ強度等を考慮してパラメータを調整する設定としてもよい。
 上記(式1)は、図4(a)に示す領域設定とした場合、パラメータ算出対象画素(x,y)の水平方向にある9画素の画素値Wx-4,y~Wx+4,y、これら9画素の隣接画素値の差分絶対値を加算して、9画素のダイナミックレンジ(DR)で除算した値を算出する式であり、この値を画素位置(x,y)の水平方向の周波数パラメータ(activity)[actHOR]とするものである。
  (ステップS02)
 次に、垂直方向の周波数パラメータ(activity)[actVER]を算出する。
 この処理は、パラメータ算出対象画素(x,y)を中心としたパラメータ算出領域に含まれる垂直方向の画素の画素値を利用した処理である。
 図4(a)に示すパラメータ算出領域設定例では、パラメータ算出対象画素(x,y)と、パラメータ算出対象画素(x,y)の上側の4画素と、下側の4画素の計9画素の画素値を利用して、垂直方向の周波数パラメータ(activity)[actVER]を算出する。
 垂直方向の周波数パラメータ(activity)[actVER]の算出は、以下の(式2)に従って実行する。
Figure JPOXMLDOC01-appb-M000002
 なお、上記(式2)は、第1撮像部107の撮影画像であるW-RAW画像111の画素位置(x,y)の垂直方向周波数パラメータ(activity)[actVER]の算出式である。
 上記(式2)において、Wx,y-iは、W-RAW画像111の画素位置(x,y-i)の画素値であり、Wx,y-i+1は、W-RAW画像111の画素位置(x,y-i+1)の画素値である。
 iは、パラメータ算出領域の画素位置(y座標)を示す変数であり、図4(a)の設定の場合、i=4~-4となる。
 なお、ダイナミックレンジ(DR)や、センサノイズ特性(σ)113、すなわち、第1撮像部107の撮像素子のノイズ強度等を考慮してパラメータを調整する設定としてもよい。
 上記(式2)は、図4(a)に示す領域設定とした場合、パラメータ算出対象画素(x,y)の垂直方向にある9画素の画素値Wx,y-4~Wx,y+4、これら9画素の隣接画素値の差分絶対値を加算して、9画素のダイナミックレンジ(DR)で除算した値を算出する式であり、この値を画素位置(x,y)の垂直方向の周波数パラメータ(activity)[actVER]とするものである。
  (ステップS03)
 ステップS03の処理は、図4に示す加算部154、ブレンド率算出部155の実行する処理である。
 ステップS03では、以下の処理を実行する。
 上記のステップS01で算出した水平方向の周波数パラメータ(activity)[actHOR]と、
 ステップS02で算出した垂直方向の周波数パラメータ(activity)[actVER]、
 これらの2方向のパラメータを用いて、以下の(式3)に従って、周波数対応ブレンド率設定パラメータ[ratioFreq]を算出する。
 なお、上記(式3)において、
 αは、予め規定したパラメータ算出係数であり、例えば、
 act=actHOR+actVER
 上記式によって算出されるactの値の最大値をαとする。
 水平方向の周波数パラメータ(activity)[actHOR]と、垂直方向の周波数パラメータ(activity)[actVER]との加算値(act)と、パラメータ算出係数(α)のいずれか小さい値を選択し、この選択値を、パラメータ算出係数(α)で除算した値を、画素位置(x,y)の周波数対応ブレンド率設定パラメータ[ratioFreq]として算出する。
 なお、パラメータ算出係数(α)の一例として、例えば、α=5を用いることができる。
 上記(式3)に従って算出される周波数対応ブレンド率設定パラメータ[ratioFreq]は0~1の範囲の値となる。
 周波数対応ブレンド率設定パラメータ[ratioFreq]は、
 画素値が細かく変化する高周波領域では大きな値、すなわち1に近い値となり、、
 画素値の変化が少ない平坦な画像領域、すなわち低周波領域では小さな値、すなわち0に近い値となる。
 周波数対応パラメータ算出部124は、上述した処理に従って、周波数対応ブレンド率設定パラメータ[ratioFreq]を算出する。
 なお、周波数対応パラメータ算出部124は、周波数対応ブレンド率設定パラメータ[ratioFreq]を、第1撮像部107の撮影画像であるW-RAW画像111を構成する全画素について算出する。
 算出パラメータは、画像補正部126に入力される。
 次に、図3に示す位置ずれ対応パラメータ算出部125の構成と処理について説明する。
 図3に示す位置ずれ対応パラメータ算出部125は、第1撮像部107の撮影画像であるW-RAW画像111と、位置合わせ部123が生成した位置合わせ後のYUV画像、すなわち、第1撮像部107の撮影視点から撮影したと同等のYUV画像と、センサノイズ特性(σ)113を入力し、これらの入力データに基づいて、偽色補正に利用するための補正パラメータである位置ずれ対応ブレンド率設定パラメータを算出して画像補正部126に出力する。
 なお、センサノイズ特性(σ)113は、撮像部106の第2撮像部108において用いられる撮像素子のノイズ特性情報、具体的には、第2撮像部108において用いられる撮像素子の出力信号中に含まれるノイズ強度を示すデータである。
 このセンサノイズ特性(σ)113は、例えば、制御部101によって予め取得され、記憶部102に格納され、制御部101の制御によって記憶部102から取得され、位置ずれ対応パラメータ算出部125に入力される。
 位置ずれ対応パラメータ算出部125の具体的構成と処理について、図6を参照して説明する。
 図6に示すように、位置ずれ対応パラメータ算出部125は、第1撮像部107の撮影画像であるW-RAW画像111と、位置合わせ部123が生成した位置合わせ後YUV画像161、すなわち、第1撮像部107の撮影視点から撮影したと同等の位置合わせ後YUV画像161と、センサノイズ特性(σ)113を入力し、これらの入力データに基づいて、偽色補正に利用するための補正パラメータである位置ずれ対応ブレンド率設定パラメータ202を算出して画像補正部126に出力する。
 まず、位置ずれ対応パラメータ算出部125の信号変換部171が、位置合わせ後YUV画像161の各画素のYUV信号をW(ホワイト)信号に変換する信号変換処理を実行する。
 具体的には、図7に示す式、すなわち、下記式(式4)に従って、YUV信号をW(ホワイト)信号に変換する。
Figure JPOXMLDOC01-appb-M000004
 なお、上記(式4)において、α,α,αは、分光モデル係数であり、予め規定された変換パラメータである。
 位置合わせ後YUV画像161に基づいて信号変換部171が生成したYUV画像ベースW画像162は、第2領域単位画素値加算部173と、乗算部175に出力される。
 第2領域単位画素値加算部173は、YUV画像ベースW画像162について、予め規定した画素領域(n×n画素、nは例えば3,5,7,9等)単位で、画素値加算処理を実行し、算出した加算画素値(B)を領域単位画素値比(A/B)算出部174に出力する。
 一方、第1領域単位画素値加算部172は、第1撮像部107の撮影画像であるW-RAW画像111について、第2領域単位画素値加算部173で適用した画素領域(n×n画素、nは例えば9)と同じ画素領域単位で、画素値加算処理を実行し、算出した加算画素値(A)を領域単位画素値比(A/B)算出部174に出力する。
 領域単位画素値比(A/B)算出部174は、W-RAW画像111の領域単位加算画素値(A)と、YUV画像ベースW画像162の領域単位加算画素値(B)との領域単位加算画素値比(A/B)を算出して乗算部175に出力する。
 乗算部175は、信号変換部171が位置合わせ後YUV画像161に基づいて生成したYUV画像ベースW画像162と、領域単位画素値比(A/B)算出部174が算出した領域単位加算画素値比(A/B)を入力する。
 乗算部175は、YUV画像ベースW画像162の構成画素の画素値に、領域単位加算画素値比(A/B)を乗算する処理を実行して、画素値を変換する。
 なお、各画素の位置が含まれる領域の領域単位加算画素値比(A/B)を組み合わせて乗算処理を実行する。
 この乗算処理は、YUV画像ベースW画像162の画素値レベルを、第1撮像部107の撮影画像であるW-RAW画像111のW画素の画素値レベルに合わせる処理として実行される。
 乗算部175は、このレベル調整により、画素値調整YUV画像ベースW画像163を生成して差分算出部176に出力する。
 画素値調整YUV画像ベースW画像163のW画素値は、偽色が発生していない画素領域では、第1撮像部107の撮影画像であるW-RAW画像111のW画素の画素値とほぼ同一になる。
 しかし、偽色発生領域においては、画素値調整YUV画像ベースW画像163のW画素値と、W-RAW画像111のW画素の画素値とに差分が発生する。
 差分算出部176は、この差分(diff)を検出する。
 差分算出部176は、第1撮像部107の撮影画像であるW-RAW画像111と、乗算部175の出力である画素値調整YUV画像ベースW画像163を入力し、これら2つの画像の同一座標位置の対応画素の画素値の差分を算出する。
 算出された各画素対応の差分値からなる差分画像164が、フィルタ処理部177に入力される。
 フィルタ処理部177は、各画素にW-RAW画像111と、画素値調整YUV画像ベースW画像163の画素値の差分値が設定された差分画像164を入力し、この差分画像に対して、所定領域単位(例えばn×n画素、n=3,5,7,9等)でフィルタリング処理を行なう。適用フィルタは、例えば、所定画素領域の画素値の中間値を取得して新たな画素値とするメディアンフィルタである。
 差分画素値からなる差分画像164のフィルタリング結果画像は、位置ずれ対応ブレンド率算出部178に入力される。
 ブレンド率算出部178は、差分画素値からなる差分画像164のフィルタリング結果画像の各画素値(フィルタリング後の差分画素値)に基づいて、位置ずれ対応ブレンド率設定パラメータ(ratioERR)202を算出して、画像補正部126に出力する。
 ブレンド率算出部178が入力する「差分画素値からなる差分画像164のフィルタリング結果画像の各画素値(フィルタリング後の差分画素値)」と、ブレンド率算出部178が出力する「位置ずれ対応ブレンド率設定パラメータ(ratioERR)202」との対応関係を示すグラフの例を図8に示す。
 図8に示すグラフは、
 横軸が入力値である「差分画素値からなる差分画像164のフィルタリング結果画像の各画素値(フィルタリング後の差分画素値)」、
 縦軸が、出力値となる「位置ずれ対応ブレンド率設定パラメータ(ratioERR)202」である。
 図8に示すグラフは、入出力値の対応関係を示す一例であり、予め設定したしきい値:1σ、3σを用いて、出力値を以下のように規定している。
 (a)入力値<σの場合、ブレンド率を示す出力値=0
 (b)σ≦入力値<3σの場合、ブレンド率を示す出力値=0~1の範囲で入力値に比例して増加させる設定、
 (c)3σ≦入力値の場合、ブレンド率を示す出力値=1
 ブレンド率算出部178は、例えば図8に示す入出力対応関係規定データに従って、入力値である「差分画素値からなる差分画像164のフィルタリング結果画像の各画素値(フィルタリング後の差分画素値)」の値に基づいて、出力値、すなわち、「位置ずれ対応ブレンド率設定パラメータ(ratioERR)202」を算出し、算出値を画像補正部126に出力する。
 なお、ブレンド率算出部178の算出する位置ずれ対応ブレンド率設定パラメータ[ratioErr]は0~1の範囲の値となる。
 位置ずれ対応ブレンド率設定パラメータ[ratioErr]は、
 位置ずれが大きい(=偽色が多い)画素領域では、大きな値、すなわち、1に近い値となり、
 位置ずれが小さい(=偽色が少ない)画素領域では、小さな値、すなわち、0に近い値となる。
 なお、基本的にW-RAW画像111と、画素値調整YUV画像ベースW画像163は、位置合わせ後の画像であり、本来、位置ずれは解消されているはずである。しかし、画素位置によって、それぞれの画素値(W画素値)に差分が発生する。この差分は偽色であると考えられ、本来の画素位置の画素値と異なる画素位置に出力されるべき画素とであるとの解釈の下に、「位置ずれ対応パラメータ」として説明している。
 従って、「位置ずれが大きい」とは「偽色が多い」ことに相当し、「位置ずれが小さい」とは「偽色が少ない」ことに相当する。
 なお、図8に示す入出力値の対応関係例は一例であり、この他の様々な設定が可能である。
  [3.画像補正部の実行する画像特性に応じた画像処理について]
 次に、図3に示す画像処理部120の画像補正部126の処理について、図9以下を参照して説明する。
 図9に示すように、画像補正部126は、以下の各データを入力する。
 (a)第1撮像部107の撮影画像であるW-RAW画像111、
 (b)位置合わせ部123の生成した位置合わせ後YUV画像161、
 (c)周波数対応パラメータ算出部124の生成した周波数対応ブレンド率設定パラメータ[ratioFreq]、
 (d)位置ずれ対応パラメータ算出部125の生成した位置ずれ対応ブレンド率設定パラメータ[ratioErr]、
 画像補正部126は、これらのデータを入力し、偽色を低減させた補正画像(YUV画像)の画素値を構成する色差信号UVの出力信号値である補正後UV信号(Uout,Vout)203を生成して、図3に示す画像処理部120内の信号変換部127に出力する。
 画像補正部126は、例えば、図9(a)に示す出力信号算出式に従って、補正後UV信号(Uout,Vout)を生成する。
Figure JPOXMLDOC01-appb-M000005
 上記(式5)に示すLPFは、ローパスフィルタである。
 LPF(U)は、位置合わせ部123の生成した位置合わせ後YUV画像161の画素値信号Uに対するローパスフィルタの適用処理である。
 LPF(V)は、位置合わせ部123の生成した位置合わせ後YUV画像161の画素値信号Vに対するローパスフィルタの適用処理である。
 LPF(W)は、第1撮像部107の撮影画像であるW-RAW画像111の画素値信号Wに対するローパスフィルタの適用処理である。
 上記(式5)は、具体的には、例えば、以下の画素値補正処理を実行する式である。
 例えば(式5)中の補正後U信号(Uout)の算出式に示す「LPF(U)」は、YUV画像161の画素信号Uに対してローパスフィルタを適用して、偽色画素値を周囲画素の画素値によって平滑化して、偽色を低減させる。
 しかし、この平滑化によって、画像の「ぼけ」が発生してしまう。このぼけを解消するために、第1撮像部107の撮影画像であるW-RAW画像111の画素値信号Wをブレンドする。すなわち、「W/LPF(W)」を乗算して、画像の「ぼけ」を解消させる。
 (式5)中の補正後V信号(Vout)の算出式についても同様であり、「LPF(V)」は、YUV画像161の画素信号Vに対してローパスフィルタを適用して、偽色画素値を周囲画素の画素値によって平滑化して、偽色を低減させる。
 しかし、この平滑化によって、画像の「ぼけ」が発生してしまう。このぼけを解消するために、第1撮像部107の撮影画像であるW-RAW画像111の画素値信号Wをブレンドする。すなわち、「W/LPF(W)」を乗算して、画像の「ぼけ」を解消させる。
 なお、図9(a)出力信号算出式や、上記(式5)に示す式は、画像補正部126における補正後UV信号(Uout,Vout)203の算出処理において、
 (1)位置合わせ部123の生成した位置合わせ後YUV画像161と、
 (2)第1撮像部107の撮影画像であるW-RAW画像111、
 これらの2つの画像のブレンド処理が行われることを示している。
 実際的な処理としては、上記(式5)に示す式に含まれるローパスフィルタ(LPF)を画像特性に応じて切り替えて、補正後UV信号(Uout,Vout)203を算出する。
 画像補正部126は、補正後UV信号(Uout,Vout)203を算出する際に、画像領域単位の特性、
 (1)周波数特性
 (2)位置ずれ特性
 これらの特性に応じて、異なるブレンド率、すなわち、位置合わせ後YUV画像161とW-RAW画像111とのブレンド率を変更して、最終的な補正後UV信号(Uout,Vout)203を算出する。
 このブレンド率を決定するパラメータとなるのが、
 (1)周波数対応パラメータ算出部124の生成した周波数対応ブレンド率設定パラメータ[ratioFreq]、
 (2)位置ずれ対応パラメータ算出部125の生成した位置ずれ対応ブレンド率設定パラメータ[ratioErr]、
 これらのパラメータである。
 これらのパラメータを用いた具体的な処理例の説明の前に、画像領域単位の画像特性に応じて、画像補正部126が、位置合わせ後YUV画像161とW-RAW画像111とのブレンド率をどのように設定すれるかについて、図10を参照して説明する。
 図10には、以下の各データを対応付けて示している。
 (a)画像領域の特性
 (b)RGBセンサ出力画像とWセンサ出力画像とのブレンド率設定例
 なお、(b)に示すRGBセンサ出力画像は、位置合わせ後YUV画像161に相当し、Wセンサ出力画像は、W-RAW画像111に相当する。
 図10には、以下の3種類((1)~(3))の代表的な画像領域特性を例示している。
 (1)周波数=低域、位置ずれ=小
 (2)周波数=高域、位置ずれ=小
 (3)周波数=低域~広域、位置ずれ=大
 (1)周波数=低域、位置ずれ=小
 この画像特性を有する画像領域は、低周波数領域、すなわち、画素値変化の少ない平坦な画像領域であり、かつ、位置ずれ=小、すなわち、本来の画素位置対応の画素値以外の画素値が出力されている「位置ずれ」(=偽色発生と推定)が小さい画像領域である。
 このような画像特性を有する画像領域については、図10の(1)(b)の欄に示すように、RGBセンサ出力画像(位置合わせ後YUV画像161)のブレンド率を高くし、Wセンサ出力画像(W-RAW画像111)のブレンド率を小さくした設定とする。
 このような設定のブレンド率に従ったブレンド処理によって、補正後UV信号(Uout,Vout)203を算出する。
 (2)周波数=高域、位置ずれ=小
 この画像特性を有する画像領域は、高周波数領域、すなわち、画素値変化の激しい画像領域であり、かつ、位置ずれ=小、すなわち、本来の画素位置対応の画素値以外の画素値が出力されている「位置ずれ」(=偽色発生と推定)が小さい画像領域である。
 このような画像特性を有する画像領域については、図10の(2)(b)の欄に示すように、RGBセンサ出力画像(位置合わせ後YUV画像161)と、Wセンサ出力画像(W-RAW画像111)のブレンド率を、ほぼ同等にする。
 このような設定のブレンド率に従ったブレンド処理によって、補正後UV信号(Uout,Vout)203を算出する。
 (3)周波数=低域~広域、位置ずれ=大
 この画像特性を有する画像領域は、低周波数領域~高周波領域、すなわち、画素値変化の少ない平坦な画像領域から、高周波数領域、すなわち、画素値変化の激しい画像領域の様々な周波数領域であり、かつ、位置ずれ=大、すなわち、本来の画素位置対応の画素値以外の画素値が出力されている「位置ずれ」(=偽色発生と推定)が大きい画像領域である。
 このような画像特性を有する画像領域については、図10の(3)(b)の欄に示すように、RGBセンサ出力画像(位置合わせ後YUV画像161)のブレンド率を小さくし、Wセンサ出力画像(W-RAW画像111)のブレンド率を大きくした設定とする。
 このような設定のブレンド率に従ったブレンド処理によって、補正後UV信号(Uout,Vout)203を算出する。
 図10に示すような画像特性に応じたブレンド率で、位置合わせ後YUV画像161とW-RAW画像111とのブレンド処理を実現するための具体的処理の一例として、先に説明した図9(a)に示す式、すなわち、前述の(式5)として示す出力信号算出式に適用するローパスフィルタ(LPF)を、画像特性に応じて切り替える処理が有効となる。
 図11を参照して、前述の(式5)として示す出力信号算出式に適用するローパスフィルタ(LPF)を、画像特性に応じて切り替える処理理の一例について説明する。
 図11に示す処理例は、前述の(式5)として示す出力信号算出式に適用するローパスフィルタ(LPF)を、画像特性、すなわち、
 (1)周波数対応パラメータ算出部124の生成した周波数対応ブレンド率設定パラメータ[ratioFreq]、
 (2)位置ずれ対応パラメータ算出部125の生成した位置ずれ対応ブレンド率設定パラメータ[ratioErr]、
 これらのパラメータの値に応じて切り替える処理例について説明する図である。
 図11には、横軸に、位置ずれ対応パラメータ算出部125の生成した位置ずれ対応ブレンド率設定パラメータ[ratioErr]、縦軸に周波数対応パラメータ算出部124の生成した周波数対応ブレンド率設定パラメータ[ratioFreq]、これらの各軸を設定し、各パラメータの値に応じて利用する3種類の異なるローパスフィルタ(LPF)の適用例を示している。
 3つのローパスフィルタ(LPF~LPF)の違いは、カットオフ周波数の差であり、LPFのカットオフ周波数が最も高く、LPFのカットオフ周波数が最も低い。
 例えば、各ローパスフィルタとして、以下の設定のローパスフィルタが適用可能である。
 LPFは3×3(画素)の移動平均フィルタ、
 LPFは13×13(画素)の移動平均フィルタ、
 LPFは25×25(画素)の移動平均フィルタ、
 このような設定の移動平均フィルタを、上記3つのローパスフィルタ(LPF~LPF)として適用することができる。
 なお、移動平均フィルタは、補正対象画素を中心とする画素領域(n×n,n=3,13,25等)の全画素の平均画素値を算出し、その算出画素値を補正画素値として設定する処理である。
 例えば、3×3の移動平均フィルタの係数設定は、以下の(式6)に示す設定となる。
Figure JPOXMLDOC01-appb-M000006
 上記行列は、補正対象画素を中心とする画素領域(n×n,n=3)にある9個の画素の画素値の平均値を算出して補正対象画素の補正画素値とする処理を行なうローパスフィルタの係数設定である。
 LPFは3×3(画素)の移動平均フィルタ、
 LPFは13×13(画素)の移動平均フィルタ、
 LPFは25×25(画素)の移動平均フィルタ、
 このような設定とした場合、LPFを適用すれば、より小さい画素領域(3×3)を処理単位とした平滑化処理が行われ、LPFを適用すれば、より画素領域(13×13)を処理単位としたの平滑化処理が行われ、LPFを適用すれば、より大きい画素領域(25×25)を処理単位とした平滑化処理が行われることになる。
 図11に示す例は、先に図10を参照して説明したと同様、画像特性に応じて異なる処理を実行する例であり、前述の(式5)として示す出力信号算出式に適用するローパスフィルタ(LPF)を、画像特性に応じて切り替える処理例である。
 画像特性に応じたローパスフィルタ(LPF)の適用態様は以下の設定となる。
 (1)周波数=低域、位置ずれ=小、すなわち、図11に示す領域(1)である。
 周波数対応ブレンド率設定パラメータ:ratioFreq<Thf1
 位置ずれ対応ブレンド率設定パラメータ:ratioErr<The1
 これらの条件を満たす領域である。なお、Thはしきい値を示す。
 この画像特性を有する画像領域は、低周波数領域、すなわち、画素値変化の少ない平坦な画像領域であり、かつ、位置ずれ=小、すなわち、本来の画素位置対応の画素値以外の画素値が出力されている「位置ずれ」(=偽色発生と推定)が小さい画像領域である。
 このような画像特性を有する画像領域については、前述の(式5)の出力信号算出式のLPFとして、カットオフ周波数が最も高いローパスフィルタ(LPF)を適用して補正後UV信号(Uout,Vout)203を算出する。
 このローパスフィルタ(LPF)適用処理により、RGBセンサ出力画像(位置合わせ後YUV画像161)のブレンド率を高くし、Wセンサ出力画像(W-RAW画像111)のブレンド率を小さくした設定の補正後UV信号(Uout,Vout)203が算出される。
 (2)周波数=高域、位置ずれ=大、すなわち、図11に示す領域(2)である。
 周波数対応ブレンド率設定パラメータが、Thf2≦ratioFreq
 位置ずれ対応ブレンド率設定パラメータが、The1≦ratioErr
 これらの条件を満たす領域である。なお、Thはしきい値を示す。
 この画像特性を有する画像領域は、高周波数領域、すなわち、画素値変化の大きい画像領域であり、かつ、位置ずれ=大、すなわち、本来の画素位置対応の画素値以外の画素値が出力されている「位置ずれ」(=偽色発生と推定)が大きい画像領域である。
 このような画像特性を有する画像領域については、前述の(式5)の出力信号算出式のLPFとして、カットオフ周波数が最も低いローパスフィルタ(LPF)を適用して補正後UV信号(Uout,Vout)203を算出する。
 このローパスフィルタ(LPF)適用処理により、RGBセンサ出力画像(位置合わせ後YUV画像161)のブレンド率を低くし、Wセンサ出力画像(W-RAW画像111)のブレンド率を高くした設定の補正後UV信号(Uout,Vout)203が算出される。
 (3)その他の領域、すなわち、図11に示す領域(3)であり(1),(2)以外の領域である。
 この画像特性を有する画像領域については、前述の(式5)の出力信号算出式のLPFとして、カットオフ周波数が中程度のローパスフィルタ(LPF)を適用して補正後UV信号(Uout,Vout)203を算出する。
 このローパスフィルタ(LPF)適用処理により、RGBセンサ出力画像(位置合わせ後YUV画像161)と、Wセンサ出力画像(W-RAW画像111)のブレンド率がほぼ同程度の補正後UV信号(Uout,Vout)203が算出される。
 図12は、図11の処理についてまとめた図であり、以下の各データの対応データを示している。
 (a)画像領域の特性
 (b)パラメータの値
 (c)適用フィルタ
 (d)補正後UV値(Uout,Vout
 (e)RGBセンサ出力画像と、Wセンサ出力画像とのブレント率設定例
 図12のエントリ(1)は、図11に示す領域(1)に対応し、以下の画像特性、および、補正処理態様となる。
 (a)画像領域の特性:周波数=低、位置ずれ=小
 (b)パラメータの値:周波数対応ブレンド率設定パラメータ=ratioFreq<Thf1、位置ずれ対応ブレンド率設定パラメータ=ratioErr<The1
 (c)適用フィルタ:LPF
 (d)補正後UV値(Uout,Vout):Uout=U=LPF(U)、Vout=V=LPF(V)、
 (e)RGBセンサ出力画像と、Wセンサ出力画像とのブレント率設定例:RGBセンサ出力>Wセンサ出力、
 なお、(d)のLPF(U)、LPF(V)は、前述の(式5)におけるLPFに、LPFを適用して、補正後UV信号(Uout,Vout)を算出する処理を示す。
 図12のエントリ(3)は、図11に示す領域(3)に対応し、以下の画像特性、および、補正処理態様となる。
 (a)画像領域の特性:周波数=高、位置ずれ=大
 (b)パラメータの値:周波数対応ブレンド率設定パラメータが、Thf2≦ratioFreq、位置ずれ対応ブレンド率設定パラメータが、The1≦ratioErr
 (c)適用フィルタ:LPF
 (d)補正後UV値(Uout,Vout):Uout=U=LPF(U)、Vout=V=LPF(V)、
 (e)RGBセンサ出力画像と、Wセンサ出力画像とのブレント率設定例:RGBセンサ出力<Wセンサ出力、
 図12のエントリ(2)は、図11に示す領域(2)に対応し、以下の画像特性、および、補正処理態様となる。
 (a)画像領域の特性:(1)、(3)以外、
 (b)パラメータの値:(1),(3)以外、
 (c)適用フィルタ:LPF
 (d)補正後UV値(Uout,Vout):Uout=U=LPF(U)、Vout=V=LPF(V)、
 (e)RGBセンサ出力画像と、Wセンサ出力画像とのブレント率設定例:RGBセンサ出力≒Wセンサ出力、
 このように画像特性に応じて適用フィルタを変更することで、画像特性に応じたブレンド率、すなわち、RGBセンサ出力画像(位置合わせ後YUV画像161)と、Wセンサ出力画像(W-RAW画像111)とのブレンド率を変更して最終的な補正後UV信号(Uout,Vout)203を算出する。
 なお、図11、図12を参照して説明した画像特性に応じたローパスフィルタ(LPF)の適用処理例は一例であり、その他にも、様々な設定が可能である。
 例えば図13には、画像特性と、各画像特性に応じて適用する4つの異なるローパスフィルタ(LPF~LPF)の適用領域の例を示している。
 4つのローパスフィルタ(LPF~LPF)の違いは、カットオフ周波数の差であり、LPFのカットオフ周波数が最も高く、LPFのカットオフ周波数が最も低い。
 図13に示すように、周波数対応ブレンド率設定パラメータ[ratioFreq]、または、位置ずれ対応ブレンド率設定パラメータ[ratioErr]が、1に近いほど、カットオフ周波数の低いLPF、例えばLPF等のLPFを適用する。
 また、周波数対応ブレンド率設定パラメータ[ratioFreq]、または、位置ずれ対応ブレンド率設定パラメータ[ratioErr]が、0に近いほど、カットオフ周波数の高いLPF、例えばLPF等のLPFを適用する。
 図14には、さらに異なる領域対応フィルタ適用例を示している。図14には、画像特性と、各画像特性に応じて適用する5つの異なるローパスフィルタ(LPF~LPF)の適用領域の例を示している。
 5つのローパスフィルタ(LPF~LPF)の違いは、カットオフ周波数の差であり、LPFのカットオフ周波数が最も高く、LPFのカットオフ周波数が最も低い。
 図14に示すように、周波数対応ブレンド率設定パラメータ[ratioFreq]、または、位置ずれ対応ブレンド率設定パラメータ[ratioErr]が、1に近いほど、カットオフ周波数の低いLPF、例えばLPF等のLPFを適用する。
 また、周波数対応ブレンド率設定パラメータ[ratioFreq]、または、位置ずれ対応ブレンド率設定パラメータ[ratioErr]が、0に近いほど、カットオフ周波数の高いLPF、例えばLPF等のLPFを適用する。
  [4.画像特性に応じて複数の異なるローパスフィルタを組み合わせて利用した画像処理について]
 次に、図15以下を参照して、画像補正部126において実行する補正後UV信号(Uout,Vout)203の生成処理のもう1つの実施例について説明する。
 以下に説明する実施例は、画像特性に応じて、複数の異なるローパスフィルタを組み合わせて利用した画像処理を行なう例である。
 以下に説明する処理例は、上述した画像領域単位の画像特性に応じた画像のブレンド処理を実現する具体的な処理例の1つである。すなわち、画像補正部126において実行する補正後UV信号(Uout,Vout)203の生成処理の1つの具体例であり、画像特性に応じて、複数の異なるローパスフィルタを組み合わせて利用した処理例である。
 図15に示すように、画像補正部126は、以下の各データを入力する。
 (a)第1撮像部107の撮影画像であるW-RAW画像111、
 (b)位置合わせ部123の生成した位置合わせ後YUV画像161、
 (c)周波数対応パラメータ算出部124の生成した周波数対応ブレンド率設定パラメータ[ratioFreq]、
 (d)位置ずれ対応パラメータ算出部125の生成した位置ずれ対応ブレンド率設定パラメータ[ratioErr]、
 画像補正部126は、これらのデータを入力し、偽色を低減させた補正画像(YUV画像)の画素値を構成する色差信号UVの出力信号値である補正後UV信号(Uout,Vout)203を生成して、図3に示す画像処理部120内の信号変換部127に出力する。
 画像補正部126は、例えば、図15(a)に示す出力信号算出式に従って、補正後UV信号(Uout,Vout)を生成する。
 図15(a)に示す出力信号算出式は、先に説明した(式5)、すなわち、図9(a)に示す出力信号算出式をベースとして作成された式である。
 図15(a)に示す出力信号算出式は、周波数対応ブレンド率設定パラメータ[ratioFreq]と、位置ずれ対応ブレンド率設定パラメータ[ratioErr]を適用して画像領域特性に応じて画像のブレンド率を変更して、補正後UV信号(Uout,Vout)を生成するための式となる。
 画像補正部126は、図15(a)に示す出力信号算出式、すなわち、以下に示す(式7)に従って、補正後UV信号(Uout,Vout)を生成する。
Figure JPOXMLDOC01-appb-M000007
 なお、上記(式7)において、
 U,U,U、およびV,V,Vは、複数の異なるローパスフィルタ(LPF)を適用した画素値変換結果として得られるUV値である。
 図16を参照して、上記(式7)の具体的な構成について説明する。
 図16(a)は、図15(a)に示す式と同様の式、すなわち上記(式7)に示す補正後UV信号(Uout,Vout)算出式である。
 図16(b),(c)を参照して、図16(a)に示す式のU,U,U、およびV,V,Vについて説明する。
 図16(b)に示すように、Un,Vn(n=0~3)は、以下の(式8)によって算出される。
Figure JPOXMLDOC01-appb-M000008
 上記(式8)は、先に説明した(式5)、すなわち、図9(a)を参照して説明した出力信号算出式と同様の2つの画像、すなわち、
 (a)第1撮像部107の撮影画像であるW-RAW画像111、
 (b)位置合わせ部123の生成した位置合わせ後YUV画像161、
 これらの画像のブレンド処理を実行する式である。
 しかし、Un,Vn(n=0~3)のnの値によって適用するローパスフィルタが異なる。
 U,Vは、ローパスフィルタLPFを、入力データである位置合わせ部123の生成した位置合わせ後YUV画像161のUV画素値に適用して得られるUV値である。
 U,Vは、ローパスフィルタLPFを、入力データである位置合わせ部123の生成した位置合わせ後YUV画像161のUV画素値に適用して得られるUV値である。
 U,Vは、ローパスフィルタLPFを、入力データである位置合わせ部123の生成した位置合わせ後YUV画像161のUV画素値に適用して得られるUV値である。
 これらのローパスフィルタについて、図16(c)を参照して説明する。
 図16(c)に示すように、入力データである位置合わせ部123の生成した位置合わせ後YUV画像161のUV画素値と、ローパスフィルタ(LPF~LPF)の適用結果として得られるフィルタ処理後のUV値(U,U,U、およびV,V,V)との対応関係は、以下の通りである。
 U=LPF(U)
 V=LPF(V)
 U=LPF(U)
 V=LPF(V)
 U=LPF(U)
 V=LPF(V)
 3つのローパスフィルタ(LPF~LPF)の違いは、カットオフ周波数の差であり、LPFのカットオフ周波数が最も高く、LPFのカットオフ周波数が最も低い。
 例えば、各ローパスフィルタとして、以下の設定のローパスフィルタが適用可能である。
 LPFは3×3(画素)の移動平均フィルタ、
 LPFは13×13(画素)の移動平均フィルタ、
 LPFは25×25(画素)の移動平均フィルタ、
 このような設定の移動平均フィルタを、上記3つのローパスフィルタ(LPF~LPF)として適用することができる。
 なお、前述したように、移動平均フィルタは、補正対象画素を中心とする画素領域(n×n,n=3,13,25等)の全画素の平均画素値を算出し、その算出画素値を補正画素値として設定する処理である。
 例えば、3×3の移動平均フィルタの係数設定は、先に説明した(式6)に示す設定となる。
 以下の設定の3種類のローパスフィルタ(LPF)、すなわち、
 LPFは3×3(画素)の移動平均フィルタ、
 LPFは13×13(画素)の移動平均フィルタ、
 LPFは25×25(画素)の移動平均フィルタ、
 このような設定のローパスフィルタを画像に適用することで、以下のような平滑化処理が実行される。
 LPFを適用すれば、より小さい画素領域(3×3)を処理単位とした平滑化処理が行われ、LPFを適用すれば、より画素領域(13×13)を処理単位としたの平滑化処理が行われ、LPFを適用すれば、より大きい画素領域(25×25)を処理単位とした平滑化処理が行われることになる。
 前述したように、
 周波数対応ブレンド率設定パラメータ[ratioFreq]は、
 画素値が細かく変化する高周波領域では大きな値、すなわち1に近い値となり、、
 画素値の変化が少ない平坦な画像領域、すなわち低周波領域では小さな値、すなわち0に近い値となる。
 また、位置ずれ対応ブレンド率設定パラメータ[ratioErr]は、
 位置ずれが大きい(=偽色が多い)画素領域では、大きな値、すなわち、1に近い値となり、
 位置ずれが小さい(=偽色が少ない)画素領域では、小さな値、すなわち、0に近い値となる。
 例えば、上記(式7)、すなわち、
 Uout=(1-ratioErr)((1-ratioFreq)×U+ratioFreq×U)+ratioErr×U
 Vout=(1-ratioErr)((1-ratioFreq)×V+ratioFreq×V)+ratioErr×V
    ・・・・・(式7)
 上記(式7)に従って算出される補正後UV信号(Uout,Vout)が、画像特性に応じてどのように設定されるかについて、図17を参照して説明する。
 図17には、横軸に位置ずれ(偽色量に相当)、縦軸に周波数の各軸を示し、かつ、代表的な複数の画像特性に応じた領域例1~7を示している。
 以下、領域例1~7に対応する画像特性(位置ずれと周波数)に応じて、上記(式7)に従って算出される補正後UV信号(Uout,Vout)が、どのような設定となるかについて、説明する。
 (領域例1)位置ずれが少ない(偽色が少ない)画素領域:ratioErr=0、かつ、低周波領域:ratioFreq=0
 このように、位置ずれが少なく、かつ画素値の変化が少ない低周波領域では、
 Uout=U
 Vout=V
 上記設定となる。
 すなわち、3つのローパスフィルタ(LPF,LPF,LPF)の中で、最も高いカットオフ周波数を持つLPFを、入力UV値(U,V)に適用した画素値が、補正後UV信号(Uout,Vout)として設定される。
 (領域例2)位置ずれが中程度(偽色が中程度)の画素領域:ratioErr=0.5、かつ、低周波領域:ratioFreq=0
 このように、位置ずれが中程度であり、かつ画素値の変化が少ない低周波領域では、
 Uout=0.5×U+0,5×U
 Vout=0.5×V+0.5×V
 上記設定となる。
 すなわち、3つのローパスフィルタ(LPF,LPF,LPF)の中で、最も高いカットオフ周波数を持つLPFを、入力UV値(U,V)に適用した画素値と、最も低いカットオフ周波数を持つLPFを、入力UV値(U,V)に適用した画素値との平均値が、補正後UV信号(Uout,Vout)として設定される。
 (領域例3)位置ずれが大きい(偽色が多い)画素領域:ratioErr=1、かつ、低周波領域~高周波領域:ratioFreq=0~1
 このように、位置ずれが大きい画素領域では、低周波~高周波の全領域で、
 Uout=U
 Vout=V
 上記設定となる。
 すなわち、3つのローパスフィルタ(LPF,LPF,LPF)の中で、最も低いカットオフ周波数を持つLPFを、入力UV値(U,V)に適用した画素値が、補正後UV信号(Uout,Vout)として設定される。
 (領域例4)位置ずれが少ない(偽色が少ない)画素領域:ratioErr=0、かつ、中程度の周波数領域:ratioFreq=0.5
 このように、位置ずれが少なく、かつ画素値の変化が中程度の周波数領域では、
 Uout=0.5×U+0.5×U
 Vout=0.5×V+0.5×V
 すなわち、3つのローパスフィルタ(LPF,LPF,LPF)の中で、最も高いカットオフ周波数を持つLPFを、入力UV値(U,V)に適用した画素値と、中程度のカットオフ周波数を持つLPFを、入力UV値(U,V)に適用した画素値との平均値が、補正後UV信号(Uout,Vout)として設定される。
 (領域例5)位置ずれが中程度(偽色が中程度)の画素領域:ratioErr=0.5、かつ、中程度の周波数領域:ratioFreq=0.5
 このように、位置ずれが中程度で、かつ画素値の変化が中程度の周波数領域では、
 Uout=0.5×(0.5×U+0.5×U)+0.5×U
 Vout=0.5×(0.5×V+0.5×V)+0.5×V
 上記設定となる。
 すなわち、3つのローパスフィルタ(LPF,LPF,LPF)の中で、最も高いカットオフ周波数を持つLPFを、入力UV値(U,V)に適用した画素値と、中程度のカットオフ周波数を持つLPFを、入力UV値(U,V)に適用した画素値との平均値と、最も低いカットオフ周波数を持つLPFを、入力UV値(U,V)に適用した画素値との平均値が、補正後UV信号(Uout,Vout)として設定される。
 (領域例6)位置ずれが少ない(偽色が少ない)画素領域:ratioErr=0、かつ、高周波領域:ratioFreq=1
 このように、位置ずれが少なく、かつ画素値が細かく変化する高周波領域では、
 Uout=U
 Vout=V
 上記設定となる。
 すなわち、3つのローパスフィルタ(LPF,LPF,LPF)の中で、中程度のカットオフ周波数を持つLPFを、入力UV値(U,V)に適用した画素値が、補正後UV信号(Uout,Vout)として設定される。
 (領域例7)位置ずれが中程度(偽色が中程度)の画素領域:ratioErr=0.5、かつ、高周波領域:ratioFreq=1
 このように、位置ずれが中程度で、かつ画素値が細かく変化する高周波領域では、
 Uout=0.5×U+0.5×U
 Vout=0.5×V+0.5×V
 すなわち、3つのローパスフィルタ(LPF,LPF,LPF)の中で、中程度のカットオフ周波数を持つLPFを、入力UV値(U,V)に適用した画素値と、最も低いカットオフ周波数を持つLPFを、入力UV値(U,V)に適用した画素値との平均値が、補正後UV信号(Uout,Vout)として設定される。
 本実施例において、画像補正部126は、このように、図15(a)に示す出力信号算出式(式7)に従って、補正後UV信号(Uout,Vout)203を生成する。
 補正後UV信号(Uout,Vout)203の生成処理に際して、画像補正部126が領域の特徴に応じて実行する処理との対応をまとめると以下のようになる。
 位置ずれが多い(偽色が多いと推定される)領域では、カットオフ周波数の低いローパスフィルタLPFを用いて、より広範囲の周囲画素(例えば25×25画素)の画素値に基づいて平滑化する処理を実行する。
 位置ずれが少ない(偽色が少ないと推定される)領域では、
 高周波成分の多い領域では、カットオフ周波数が中程度のローパスフィルタLPFを用いて、中程度の範囲の周囲画素(例えば13×13画素)の画素値に基づいて平滑化する処理を実行する。
 また、高周波成分の少ない低周波領域では、カットオフ周波数が高いローパスフィルタLPFを用いて、小さい範囲の周囲画素(例えば3×3画素)の画素値に基づいて平滑化する処理を実行する。
 位置ずれが中程度(偽色がややあると推定される)領域では、上記の位置ずれが多い(偽色が多いと推定される)領域に対する処理と、位置ずれが少ない(偽色が少ないと推定される)領域に対する処理との中間的な処理を実行する。
 画像補正部126は、このように画像領域の特性に応じて補正後UV信号(Uout,Vout)203を生成し、生成信号を、図3に示す画像処理部120内の信号変換部127に出力する。
 信号変換部127は、画像補正部126の生成した補正後UV信号(Uout,Vout)203と、第1撮像部107の撮影画像であるW-RAW画像111を入力する。
 信号変換部127は、これらの入力信号に基づいてく信号変換を実行して、RGB画像150を生成して出力する。
 信号変換部127は、W-RAW画像111のW信号Y(輝度)信号とし、補正後UV信号(Uout,Vout)203のUV信号との組み合わせからなるYUV信号をRGB信号に変換する処理を実行する。
 この信号変換処理は、既存の変換式に従って行われる。
 信号変換部127の生成したRGB画像150は、例えば表示部に表示される。あるいは、記憶部に格納される。あるいは、外部の他の情報処理装置に出力される。
 なお、記憶部格納処理や、外部出力処理の前処理として圧縮処理等の符号化処理を実行する場合もある。
 なお、YUV信号からRGB信号への必須ではなく、YUV信号のまま、表示装置への出力、記憶部に対する格納、あるいは外部出力を行う構成としてもよい。
  [5.画像処理装置の実行する画像処理の処理シーケンスについて]
 次に、図18に示すフローチャートを参照して画像処理装置の実行する画像処理の処理シーケンスについて説明する。
 図18に示すフローチャートは、例えば記憶部に格納された処理プログラムに従った処理を実行するCPU等を備えた制御部(データ処理部)の制御の下で実行される。
 以下、図18に示す各ステップの処理について、順次、説明する。
  (ステップS101a,101b)
 ステップS101a,101bは、画像撮影処理である。
 図1に示す撮像部106の第1撮像部107と、第2撮像部108において2枚の画像が撮影される。
 ステップS101aは、先に図2(a)を参照して説明したベイヤ配列等のRGB画素配列を持つ撮像素子を有する第2撮像部108において実行されるRGB画像の撮影処理である。
 ステップS101bは、先に図2(b)を参照して説明したホワイト(W)画素配列を持つ撮像素子を有する第1撮像部107において実行れるホワイト(W)画像の撮影処理である。
  (ステップS102)
 次に、ステップS102において、ステップS101aで第2撮像部108が撮影したRGB画像の現像処理を実行する。
 この処理は、図3に示す画像処理部120の現像処理部121において実行される。
 先に説明したように、現像処理部121は、第2撮像部108から入力するRGB-RAW画像112に対する現像処理を実行する。具体的には、例えば以下の処理を実行する。
 (a)撮像素子を構成する回路に基づいて発生するDCオフセットやノイズ信号に基づくオフセット成分を除去するクランプ処理、
 (b)RGB-RAW画像の各画素に設定されたRGBの単一信号値に基づいて、各画素にRGBの3信号を設定するデモザイク処理、
 (c)白の被写体に対するRGB値を揃えるホワイトバランス処理、
 (d)RGB値のYUV値への変換処理、
 これらの処理を実行する。
  (ステップS103)
 次に、ステップS103において動きベクトル(MV)の検出処理を実行する。
 この処理は、図3に示す画像処理部120の動きベクトル検出部122において実行される。
 動きベクトル検出部122は、第1撮像部107からW画像111を入力するとともに、現像処理部121が、第2撮像部108の撮影画像であるRGB-RAW画像112に基づいて生成した、YUV画像130中のY信号(輝度信号)を入力する。
 動きベクトル検出部122は、これらの2つの信号(W信号,Y信号)に基づいて、2つの画像の位置ずれに相当する動きベクトル(MV:Motion Vector)を検出する。
 前述したように、図1に示す画像処理装置100の撮像部106に構成される第1撮像部107と、第2撮像部108は、所定間隔離れた位置に設定される2つの撮像部であり、それぞれの撮影画像は異なる視点からの画像となる。すなわち、視差を持つ画像となる。
 従って、2つの画像の対応画素、すなわち同一位置の画素には同一の被写体画像が撮影されず、視差に応じた被写体ずれが発生する。
 動きベクトル検出部122は、これらの2つの信号(W信号,Y信号)に基づいて、2つの画像の位置ずれに相当する動きベクトル(MV:Motion Vector)を検出する。
 具体的には、2つの画像(W画像、Y画像)の対応点をもとめ、その対応点を結ぶベクトルを動きベクトル(MV)として算出する。
 動きベクトル検出部122の生成した動きベクトル(MV)は、位置合わせ部123に入力される。
  (ステップS104)
 次に、ステップS104において位置合わせ処理を実行する。
 この処理は、図3に示す画像処理部120の位置合わせ部123の実行する処理である。
 位置合わせ部123は、動きベクトル検出部122の生成した動きベクトル(MV)を入力するとともに、現像処理部121が、RGB-RAW画像112に基づいて生成したYUV画像130を入力する。
 位置合わせ部123は、YUV画像130を、動きベクトル(MV)の大きさと方向に従って各画素位置を移動させて、W画像、すなわち、第1撮像部107の撮影画像であるW-RAW画像111と同一視点位置から撮影されたと同様のYUV画像を生成する。
 この処理によって、YUV画像130は、第1撮像部107と同一視点から撮影されたとみなされるYUV画像に変換される。
  (ステップS105)
 次に、ステップS105において、周波数対応パラメータ算出処理を実行する。
 この処理は、図3に示す画像処理部120の周波数対応パラメータ算出部124の実行する処理である。
 先に図4を参照して説明したように、周波数対応パラメータ算出部124は、第1撮像部107の撮影画像であるW-RAW画像111と、センサノイズ特性(σ)113を入力し、これらの入力データに基づいて、偽色補正に利用するための補正パラメータである周波数対応ブレンド率設定パラメータを算出して画像補正部126に出力する。
 周波数対応パラメータ算出部124は、先にら図5を参照して説明したように、第1撮像部107の撮影画像であるW-RAW画像111を構成する全画素について、周波数対応ブレンド率設定パラメータ[ratioFreq]を算出し、算出パラメータを、画像補正部126に入力する。
  (ステップS106)
 次に、ステップS106において、位置ずれ対応パラメータ算出処理を実行する。
 この処理は、図3に示す画像処理部120の位置ずれ対応パラメータ算出部125の実行する処理である。
 先に図3、図6~図8を参照して説明したように、位置ずれ対応パラメータ算出部125は、第1撮像部107の撮影画像であるW-RAW画像111と、位置合わせ部123が生成した位置合わせ後のYUV画像、すなわち、第1撮像部107の撮影視点から撮影したと同等のYUV画像と、センサノイズ特性(σ)113を入力し、これらの入力データに基づいて、偽色補正に利用するための補正パラメータである位置ずれ対応ブレンド率設定パラメータを算出して画像補正部126に出力する。
 なお、第1撮像部107の撮影画像であるW-RAW画像111と、位置合わせ部123が生成した位置合わせ後のYUV画像は、本来、位置ずれは解消されているはずである。しかし、画素位置によって、それぞれの画素値(W画素値)に差分が発生する。この差分は偽色であると考えられ、本来の画素位置の画素値と異なる画素位置に出力されるべき画素とであるとの解釈の下に、「位置ずれ対応パラメータ」として説明している。
 従って、「位置ずれが大きい」とは「偽色が多い」ことに相当し、「位置ずれが小さい」とは「偽色が少ない」ことに相当する。
 位置ずれ対応パラメータ算出部125は、先に説明した図6の構成に従い、位置ずれ対応ブレンド率設定パラメータ[ratioErr]を算出する。
 位置ずれ対応ブレンド率設定パラメータ[ratioErr]は、
 位置ずれが大きい(=偽色が多い)画素領域では、大きな値、すなわち、1に近い値となり、
 位置ずれが小さい(=偽色が少ない)画素領域では、小さな値、すなわち、0に近い値となる。
 位置ずれ対応パラメータ算出部125の算出した位置ずれ対応ブレンド率設定パラメータ[ratioErr]は、図3に示す画像処理部120内の画像補正部126に入力される。
  (ステップS107)
 ステップS107~S108の処理は、図3に示す画像処理部120の画像補正部126の実行する処理である。
 画像補正部126は、以下の各データを入力する。
 (a)第1撮像部107の撮影画像であるW-RAW画像111、
 (b)位置合わせ部123の生成した位置合わせ後YUV画像161、
 (c)周波数対応パラメータ算出部124の生成した周波数対応ブレンド率設定パラメータ[ratioFreq]、
 (d)位置ずれ対応パラメータ算出部125の生成した位置ずれ対応ブレンド率設定パラメータ[ratioErr]、
 画像補正部126は、これらのデータを入力し、偽色を低減させた補正画像(YUV画像)の画素値を構成する色差信号UVの出力信号値である補正後UV信号(Uout,Vout)203を生成して、図3に示す画像処理部120内の信号変換部127に出力する。
 画像補正部126は、まず、ステップS107において、入力データを適用して、複数の異なるローパスフィルタ(LPF,LPF,LPF)、具体的には、それぞれカットオフ周波数の異なるローパスフィルタを適用して、異なるUV画、すなわち、先に、図15~図17を参照して説明した以下の各UV画を生成する。、
 U=LPF(U)
 V=LPF(V)
 U=LPF(U)
 V=LPF(V)
 U=LPF(U)
 V=LPF(V)
 3つのローパスフィルタ(LPF~LPF)の違いは、カットオフ周波数の差であり、LPFのカットオフ周波数が最も高く、LPFのカットオフ周波数が最も低い。
 例えば、各ローパスフィルタとして、以下の設定のローパスフィルタが適用可能である。
 LPFは3×3(画素)の移動平均フィルタ、
 LPFは13×13(画素)の移動平均フィルタ、
 LPFは25×25(画素)の移動平均フィルタ、
 このような設定の移動平均フィルタを、上記3つのローパスフィルタ(LPF~LPF)として適用することができる。
  (ステップS108)
 次に、画像補正部126は、ステップS108において、ステップS107で算出したU~U,V~Vと、
 (1)周波数対応パラメータ算出部124の生成した周波数対応ブレンド率設定パラメータ[ratioFreq]、
 (2)位置ずれ対応パラメータ算出部125の生成した位置ずれ対応ブレンド率設定パラメータ[ratioErr]、
 これら2つのブレンド率設定パラメータを適用して、補正後UV信号(Uout,Vout)203を算出する。

 この補正後UV信号(Uout,Vout)の算出処理は、先に説明したように、例えば、以下の(式7)、すなわち、
 Uout=(1-ratioErr)((1-ratioFreq)×U+ratioFreq×U)+ratioErr×U
 Vout=(1-ratioErr)((1-ratioFreq)×V+ratioFreq×V)+ratioErr×V
    ・・・・・(式7)
 上記(式7)に従って算出される。
 あるいは、図9(a)に示す前述した(式5)を適用し、画像特性に応じて適用するフィルタを変更する処理としてもよい。
 なお、先に、説明したように、画像補正部126が領域の特徴に応じて実行する補正後UV信号(Uout,Vout)の算出処理は、以下のような態様で実行される。
 (a)位置ずれが多い(偽色が多いと推定される)領域では、カットオフ周波数の低いローパスフィルタLPFを優先的に用いて、より広範囲の周囲画素(例えば25×25画素)の画素値に基づいて平滑化する処理を実行する。
 (b)位置ずれが少ない(偽色が少ないと推定される)領域では、
 高周波成分の多い領域では、カットオフ周波数が中程度のローパスフィルタLPFを優先的に用いて、中程度の範囲の周囲画素(例えば13×13画素)の画素値に基づいて平滑化する処理を実行する。
 また、高周波成分の少ない低周波領域では、カットオフ周波数が高いローパスフィルタLPFを優先的に用いて、小さい範囲の周囲画素(例えば3×3画素)の画素値に基づいて平滑化する処理を実行する。
 (c)位置ずれが中程度(偽色がややあると推定される)領域では、上記の位置ずれが多い(偽色が多いと推定される)領域に対する処理と、位置ずれが少ない(偽色が少ないと推定される)領域に対する処理との中間的な処理を実行する。
 画像補正部126は、このように画像領域の特性に応じて補正後UV信号(Uout,Vout)203を生成し、生成信号を、図3に示す画像処理部120内の信号変換部127に出力する。
  (ステップS109)
 ステップS109の処理は、図3に示す画像処理部120の信号変換部127の実行する処理である。
 信号変換部127は、画像補正部126の生成した補正後UV信号(Uout,Vout)203と、第1撮像部107の撮影画像であるW-RAW画像111を入力する。
 信号変換部127は、これらの入力信号に基づいてく信号変換を実行して、RGB画像150を生成して出力する。
 信号変換部127は、W-RAW画像111のW信号Y(輝度)信号とし、補正後UV信号(Uout,Vout)203のUV信号との組み合わせからなるYUV信号をRGB信号に変換する処理を実行する。
 この信号変換処理は、既存の変換式に従って行われる。
 信号変換部127の生成したRGB画像150は、例えば表示部に表示される。あるいは、記憶部に格納される。あるいは、外部の他の情報処理装置に出力される。
 なお、記憶部格納処理や、外部出力処理の前処理として圧縮処理等の符号化処理を実行する場合もある。
 なお、YUV信号からRGB信号への必須ではなく、YUV信号のまま、表示装置への出力、記憶部に対する格納、あるいは外部出力を行う構成としてもよい。
 このような処理により、画像特性に応じた最適な偽色低減処理が実行され、偽色の少ない高品質な補正画像を生成することが可能となる。
  [6.画像処理装置のその他の構成例について]
 次に、画像処理装置のその他の構成例について説明する。
 上述した実施例では、例えば図3に示す画像処理部120が、第2撮像部108の撮影画像であるRGB-RAW画像112を現像処理部121に入力し、RGB-RAW画像112の弦象処理によって生成されたYUV画像130を適用しはた画像処理を実行する構成としている。
 この現像処理の実行タイミングは、例えば、画像処理部120の処理が完了した後としてもよい。あるいは現像処理部の一部の処理を画像処理部120の処理が完了した後に実行する構成等、様々な設定が可能である。
 また、図3に示す画像処理部120の最終段の処理として、信号変換部127によるYUV信号からRGB信号への信号変換を実行する構成としているが、前述したように、この処理は、必須ではなく、YUV信号のまま、表示装置への出力、記憶部に対する格納、あるいは外部出力を行う構成としてもよい。
  [7.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1) カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
 前記画像処理部は、
 前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、
 前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、
 前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像補正部を有する画像処理装置。
 (2) 前記カラー画像は、RGB配列撮像素子によって撮影されたRGB画像であり、
 前記位置ずれ対応パラメータ算出部は、
 前記ホワイト(W)画像と、前記RGB画像に基づいて生成されるYUV画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出し、
 前記画像補正部は、
 前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記YUV画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する(1)に記載の画像処理装置。
 (3) 前記画像補正部は、
 異なるカットオフ周波数を有する複数の異なるローパスフィルタ(LPF)を、画像領域単位で選択適用して補正画素値を算出する(1)または(2)に記載の画像処理装置。
 (4) 前記画像補正部は、
 (a)前記カラー画像の領域単位でローパスフィルタ(LPF)を適用したLPF適用カラー画素値と、
 (b)前記ホワイト(W)画像の画素値を、前記ホワイト(W)画像の領域単位でローパスフィルタ(LPF)を適用した値で除算した除算W画素値と、
 を算出し、算出した2つの値を乗算して補正画素値を算出する(1)~(3)いずれかに記載の画像処理装置。
 (5) 前記画像補正部は、
 前記カラー画像の領域単位で適用するローパスフィルタ(LPF)を、
 高周波領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
 低周波領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する(1)~(4)いずれかに記載の画像処理装置。
 (6) 前記画像補正部は、
 前記カラー画像の領域単位で適用するローパスフィルタ(LPF)を、
 位置ずれが大きい領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
 位置ずれが小さい領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する(1)~(5)いずれかに記載の画像処理装置。
 (7) 前記画像補正部は、
 (a)前記YUV画像の領域単位でローパスフィルタ(LPF)を適用したLPF適用YUV画素値と、
 (b)前記ホワイト(W)画像の画素値を、前記ホワイト(W)画像の領域単位でローパスフィルタ(LPF)を適用した値で除算した除算W画素値と、
 を算出し、算出した2つの値を乗算して補正画素値を算出する(2)に記載の画像処理装置。
 (8) 前記画像補正部は、
 前記YUV画像の画像領域単位で、以下の補正画素値算出式、
 Uout=LPF(U)×(W/LPF(W))
 Vout=LPF(V)×(W/LPF(W))
 上記補正画素値式に従って算出されるUV値(Uout,Vout)を補正画素値として算出する(2)に記載の画像処理装置。
 (9) 前記画像補正部は、
 前記補正画素値算出式に適用するローパスフィルタ(LPF)を、
 高周波領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
 低周波領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する(8)に記載の画像処理装置。
 (10) 前記画像補正部は、
 前記補正画素値算出式に適用するローパスフィルタ(LPF)を、
 位置ずれが大きい領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
 位置ずれが小さい領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する(8)または(9)に記載の画像処理装置。
 (11) 前記画像処理部は、
 前記カラー画像と、前記ホワイト(W)画像の位置合わせを実行する位置合わせ部を有し、
 前記位置ずれ対応パラメータ算出部は、
 前記ホワイト(W)画像と、前記位置合わせ部の生成した位置合わせ後のカラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する(1)~(10)いずれかに記載の画像処理装置。
 (12) 前記画像処理部は、
 前記カラー画像と、前記ホワイト(W)画像を入力し、両画像間の動きベクトルを検出する動きベクトル検出部を有し、
 前記位置合わせ部は、前記動きベクトルを利用して、前記カラー画像と、前記ホワイト(W)画像の位置合わせを実行する(11)に記載の画像処理装置。
 (13) 前記動きベクトル検出部は、
 前記カラー画像の撮像部と、前記ホワイト(W)画像の撮像部との撮影位置のずれに応じた視差に基づく画像の位置ずれに相当する動きベクトルを検出する(12)に記載の画像処理装置。
 (14) 全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
 RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
 前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
 前記画像処理部は、
 前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、
 前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、
 前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像補正部を有する撮像装置。
 (15) 画像処理装置において実行する画像処理方法であり、
 前記画像処理装置は、
 カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
 前記画像処理部が、
 前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
 前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
 前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像処理方法。
 (16) 撮像装置において実行する画像処理方法であり、
 前記撮像装置は、
 全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
 RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
 前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
 前記第1撮像部と、前記第2撮像部において、ホワイト(W)画像とカラー画像を撮影し、
 前記画像処理部において、
 前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
 前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
 前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像処理方法。
 (17) 画像処理装置において画像処理を実行させるプログラムであり、
 前記画像処理装置は、
 カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
 前記プログラムは、前記画像処理部に、
 前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
 前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
 前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する処理を実行させるプログラム。
 (18) 撮像装置において画像処理を実行させるプログラムであり、
 前記撮像装置は、
 全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
 RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
 前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
 前記プログラムは、
 前記第1撮像部と、前記第2撮像部において、ホワイト(W)画像とカラー画像を撮影させ、
 前記画像処理部に、
 前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
 前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
 前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する処理を実行させるプログラム。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例の構成によれば、カラー画像における画像領域単位の画像特性に応じた偽色補正を行う装置、方法が実現される。
 具体的には、カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有する。画像処理部は、ホワイト(W)画像を入力し、画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、ホワイト(W)画像と、カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、ホワイト(W)画像と、カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する。
 これらの処理により、カラー画像における画像領域単位の画像特性に応じた偽色補正を行う装置、方法が実現され、偽色を除去または低減した高品質な画像を生成して出力することが可能となる。
 100 画像処理装置
 101 制御部
 102 記憶部
 103 コーデック
 104 入力部
 105 出力部
 106 撮像部
 107 第1撮像部
 108 第2撮像部
 111 W-RAW画像
 112 RGB-RAW画像
 113 センサノイズ特性(σ)
 120 画像処理部
 121 現像処理部
 122 動きベクトル検出部
 123 位置合わせ部
 124 周波数対応パラメータ算出部
 125 位置ずれ対応パラメータ算出部
 126 画像補正部
 127 信号変換部
 150 RGB画像
 151 隣接画素画素値差分絶対値算出部
 152 ダイナミックレンジ(DR)算出部
 153 周波数パラメータ算出部
 154 加算部
 155 ブレンド率算出部
 161 位置合わせ後YUV画像
 162 YUV画像ベースW画像
 163 画素値調整YUV画像ベースW画像
 164 差分画像
 171 信号変換部
 172 第1領域単位画素値加算部
 173 第2領域単位画素値加算部
 174 領域単位画素非算出部
 175 乗算部
 176 差分算出部
 201 周波数対応ブレンド率設定パラメータ
 202 位置ずれ対応ブレンド比率設定パラメータ
 203 補正後UV信号

Claims (18)

  1.  カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
     前記画像処理部は、
     前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、
     前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、
     前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像補正部を有する画像処理装置。
  2.  前記カラー画像は、RGB配列撮像素子によって撮影されたRGB画像であり、
     前記位置ずれ対応パラメータ算出部は、
     前記ホワイト(W)画像と、前記RGB画像に基づいて生成されるYUV画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出し、
     前記画像補正部は、
     前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記YUV画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する請求項1に記載の画像処理装置。
  3.  前記画像補正部は、
     異なるカットオフ周波数を有する複数の異なるローパスフィルタ(LPF)を、画像領域単位で選択適用して補正画素値を算出する請求項1に記載の画像処理装置。
  4.  前記画像補正部は、
     (a)前記カラー画像の領域単位でローパスフィルタ(LPF)を適用したLPF適用カラー画素値と、
     (b)前記ホワイト(W)画像の画素値を、前記ホワイト(W)画像の領域単位でローパスフィルタ(LPF)を適用した値で除算した除算W画素値と、
     を算出し、算出した2つの値を乗算して補正画素値を算出する請求項1に記載の画像処理装置。
  5.  前記画像補正部は、
     前記カラー画像の領域単位で適用するローパスフィルタ(LPF)を、
     高周波領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
     低周波領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する請求項1に記載の画像処理装置。
  6.  前記画像補正部は、
     前記カラー画像の領域単位で適用するローパスフィルタ(LPF)を、
     位置ずれが大きい領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
     位置ずれが小さい領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する請求項1に記載の画像処理装置。
  7.  前記画像補正部は、
     (a)前記YUV画像の領域単位でローパスフィルタ(LPF)を適用したLPF適用YUV画素値と、
     (b)前記ホワイト(W)画像の画素値を、前記ホワイト(W)画像の領域単位でローパスフィルタ(LPF)を適用した値で除算した除算W画素値と、
     を算出し、算出した2つの値を乗算して補正画素値を算出する請求項2に記載の画像処理装置。
  8.  前記画像補正部は、
     前記YUV画像の画像領域単位で、以下の補正画素値算出式、
     Uout=LPF(U)×(W/LPF(W))
     Vout=LPF(V)×(W/LPF(W))
     上記補正画素値式に従って算出されるUV値(Uout,Vout)を補正画素値として算出する請求項2に記載の画像処理装置。
  9.  前記画像補正部は、
     前記補正画素値算出式に適用するローパスフィルタ(LPF)を、
     高周波領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
     低周波領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する請求項8に記載の画像処理装置。
  10.  前記画像補正部は、
     前記補正画素値算出式に適用するローパスフィルタ(LPF)を、
     位置ずれが大きい領域では、カットオフ周波数が相対的に低いローパスフィルタを優先適用し、
     位置ずれが小さい領域では、カットオフ周波数が相対的に高いローパスフィルタを優先適用する請求項8に記載の画像処理装置。
  11.  前記画像処理部は、
     前記カラー画像と、前記ホワイト(W)画像の位置合わせを実行する位置合わせ部を有し、
     前記位置ずれ対応パラメータ算出部は、
     前記ホワイト(W)画像と、前記位置合わせ部の生成した位置合わせ後のカラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する請求項1に記載の画像処理装置。
  12.  前記画像処理部は、
     前記カラー画像と、前記ホワイト(W)画像を入力し、両画像間の動きベクトルを検出する動きベクトル検出部を有し、
     前記位置合わせ部は、前記動きベクトルを利用して、前記カラー画像と、前記ホワイト(W)画像の位置合わせを実行する請求項11に記載の画像処理装置。
  13.  前記動きベクトル検出部は、
     前記カラー画像の撮像部と、前記ホワイト(W)画像の撮像部との撮影位置のずれに応じた視差に基づく画像の位置ずれに相当する動きベクトルを検出する請求項12に記載の画像処理装置。
  14.  全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
     RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
     前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
     前記画像処理部は、
     前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出部と、
     前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出部と、
     前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像補正部を有する撮像装置。
  15.  画像処理装置において実行する画像処理方法であり、
     前記画像処理装置は、
     カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
     前記画像処理部が、
     前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
     前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
     前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像処理方法。
  16.  撮像装置において実行する画像処理方法であり、
     前記撮像装置は、
     全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
     RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
     前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
     前記第1撮像部と、前記第2撮像部において、ホワイト(W)画像とカラー画像を撮影し、
     前記画像処理部において、
     前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
     前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
     前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する画像処理方法。
  17.  画像処理装置において画像処理を実行させるプログラムであり、
     前記画像処理装置は、
     カラー画像と、全画素をホワイト(W)画素配列としたW配列撮像素子によって撮影されたホワイト(W)画像を入力して、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
     前記プログラムは、前記画像処理部に、
     前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
     前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
     前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する処理を実行させるプログラム。
  18.  撮像装置において画像処理を実行させるプログラムであり、
     前記撮像装置は、
     全画素をホワイト(W)画素配列としたW配列撮像素子を有し、ホワイト(W)画像を撮影する第1撮像部と、
     RGB画素配列を有するRGB配列撮像素子を有し、カラー画像を撮影する第2撮像部と、
     前記ホワイト(W)画像と、前記カラー画像を入力し、カラー画像に含まれる偽色を低減させる画像処理を実行する画像処理部を有し、
     前記プログラムは、
     前記第1撮像部と、前記第2撮像部において、ホワイト(W)画像とカラー画像を撮影させ、
     前記画像処理部に、
     前記ホワイト(W)画像を入力し、ホワイト(W)画像の画像領域単位の周波数対応パラメータを算出する周波数対応パラメータ算出処理と、
     前記ホワイト(W)画像と、前記カラー画像を入力し、入力した2つの画像の画像領域単位の位置ずれ対応パラメータを算出する位置ずれ対応パラメータ算出処理と、
     前記周波数対応パラメータと、位置ずれ対応パラメータとの値に応じて、前記ホワイト(W)画像と、前記カラー画像のブレンド比率を制御したブレンド処理を実行して、補正画素値を算出する処理を実行させるプログラム。
PCT/JP2016/086062 2016-03-09 2016-12-05 画像処理装置、撮像装置、および画像処理方法、並びにプログラム Ceased WO2017154293A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/070,952 US11202045B2 (en) 2016-03-09 2016-12-05 Image processing apparatus, imaging apparatus, image processing method, and program
CN201680083059.9A CN108702494B (zh) 2016-03-09 2016-12-05 图像处理装置、成像装置、图像处理方法和存储介质
JP2018504003A JP6825617B2 (ja) 2016-03-09 2016-12-05 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
EP16893617.7A EP3429197B1 (en) 2016-03-09 2016-12-05 Image processing apparatus, imaging apparatus, image processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-045224 2016-03-09
JP2016045224 2016-03-09

Publications (1)

Publication Number Publication Date
WO2017154293A1 true WO2017154293A1 (ja) 2017-09-14

Family

ID=59789299

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/086062 Ceased WO2017154293A1 (ja) 2016-03-09 2016-12-05 画像処理装置、撮像装置、および画像処理方法、並びにプログラム

Country Status (5)

Country Link
US (1) US11202045B2 (ja)
EP (1) EP3429197B1 (ja)
JP (1) JP6825617B2 (ja)
CN (1) CN108702494B (ja)
WO (1) WO2017154293A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019111529A1 (ja) * 2017-12-08 2019-06-13 ソニーセミコンダクタソリューションズ株式会社 画像処理装置および画像処理方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022011506A1 (zh) * 2020-07-13 2022-01-20 深圳市汇顶科技股份有限公司 图像处理的方法和图像处理装置
CN114205487B (zh) * 2020-08-28 2025-12-02 超威半导体公司 内容自适应镜头阴影校正方法和装置
US11910121B2 (en) * 2021-01-26 2024-02-20 Zf Friedrichshafen Ag Converting dual-context video data to full color video
JP7653853B2 (ja) * 2021-07-12 2025-03-31 富士フイルム株式会社 画像処理装置
CN113870146B (zh) * 2021-10-15 2024-06-25 中国大恒(集团)有限公司北京图像视觉技术分公司 一种彩色相机图像边缘伪彩的校正方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013026672A (ja) * 2011-07-15 2013-02-04 Toshiba Corp 固体撮像装置及びカメラモジュール
JP2013219705A (ja) * 2012-04-12 2013-10-24 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2013239904A (ja) * 2012-05-15 2013-11-28 Sony Corp 画像処理装置と画像処理方法およびプログラム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6614471B1 (en) 1999-05-10 2003-09-02 Banctec, Inc. Luminance correction for color scanning using a measured and derived luminance value
JP4501855B2 (ja) * 2005-12-22 2010-07-14 ソニー株式会社 画像信号処理装置、撮像装置、および画像信号処理方法、並びにコンピュータ・プログラム
JP4144630B2 (ja) * 2006-04-14 2008-09-03 ソニー株式会社 撮像装置
JP5106870B2 (ja) * 2006-06-14 2012-12-26 株式会社東芝 固体撮像素子
JP5326943B2 (ja) * 2009-08-31 2013-10-30 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP5454075B2 (ja) * 2009-10-20 2014-03-26 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP5724185B2 (ja) * 2010-03-04 2015-05-27 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP2012257193A (ja) * 2011-05-13 2012-12-27 Sony Corp 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP2013066146A (ja) * 2011-08-31 2013-04-11 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US8837853B2 (en) * 2011-09-06 2014-09-16 Sony Corporation Image processing apparatus, image processing method, information recording medium, and program providing image blur correction
US9699429B2 (en) * 2012-03-27 2017-07-04 Sony Corporation Image processing apparatus, imaging device, image processing method, and program for reducing noise or false colors in an image
EP2843947B1 (en) * 2012-04-24 2020-11-04 Sony Corporation Image processing device, image processing method, and program
JP6019964B2 (ja) * 2012-09-10 2016-11-02 株式会社リコー 画像処理装置及びそれを搭載した撮像装置、並びに画像処理方法
JP2015035782A (ja) * 2013-08-09 2015-02-19 オリンパス株式会社 画像処理装置、撮像装置、顕微鏡システム、画像処理方法及び画像処理プログラム
KR102144394B1 (ko) 2013-08-20 2020-08-13 한화테크윈 주식회사 영상 정합 장치 및 이를 이용한 영상 정합 방법
US9826177B2 (en) * 2013-10-29 2017-11-21 Hitachi Kokusai Electric Inc. Video signal noise elimination circuit and video signal noise elimination method
JP6276569B2 (ja) * 2013-12-02 2018-02-07 株式会社メガチップス 画素補間処理装置、撮像装置、プログラムおよび集積回路
JP5771677B2 (ja) * 2013-12-24 2015-09-02 オリンパス株式会社 画像処理装置、撮像装置、プログラム及び画像処理方法
US9344639B2 (en) 2014-08-12 2016-05-17 Google Technology Holdings LLC High dynamic range array camera
US9654700B2 (en) * 2014-09-16 2017-05-16 Google Technology Holdings LLC Computational camera using fusion of image sensors
JP6598507B2 (ja) * 2015-05-11 2019-10-30 キヤノン株式会社 撮像装置、撮像システム、信号処理方法
US9712792B2 (en) * 2015-08-10 2017-07-18 Samsung Electronics Co., Ltd. RGB-RWB dual images by multi-layer sensors towards better image quality
JP7024782B2 (ja) * 2017-03-27 2022-02-24 ソニーグループ株式会社 画像処理装置と画像処理方法および撮像装置
US11363245B2 (en) * 2017-11-06 2022-06-14 Eizo Corporation Image processing device, image processing method, and image processing program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013026672A (ja) * 2011-07-15 2013-02-04 Toshiba Corp 固体撮像装置及びカメラモジュール
JP2013219705A (ja) * 2012-04-12 2013-10-24 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2013239904A (ja) * 2012-05-15 2013-11-28 Sony Corp 画像処理装置と画像処理方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3429197A4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019111529A1 (ja) * 2017-12-08 2019-06-13 ソニーセミコンダクタソリューションズ株式会社 画像処理装置および画像処理方法
CN110012215A (zh) * 2017-12-08 2019-07-12 索尼半导体解决方案公司 图像处理装置和图像处理方法
CN110012215B (zh) * 2017-12-08 2022-08-16 索尼半导体解决方案公司 图像处理装置和图像处理方法

Also Published As

Publication number Publication date
JPWO2017154293A1 (ja) 2019-01-10
CN108702494A (zh) 2018-10-23
US11202045B2 (en) 2021-12-14
EP3429197A4 (en) 2019-03-06
EP3429197B1 (en) 2020-05-06
US20210076017A1 (en) 2021-03-11
EP3429197A1 (en) 2019-01-16
CN108702494B (zh) 2020-12-04
JP6825617B2 (ja) 2021-02-03

Similar Documents

Publication Publication Date Title
CN103202022B (zh) 图像处理设备及其控制方法
US8547451B2 (en) Apparatus and method for obtaining high dynamic range image
JP6825617B2 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP6711396B2 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
CN102778201A (zh) 图像处理设备、图像处理方法和程序
JP2010141663A (ja) 撮像装置
US8427560B2 (en) Image processing device
JP4869653B2 (ja) 画像処理装置
JP2003123063A (ja) 画像処理装置
US6747698B2 (en) Image interpolating device
CN101511032A (zh) 图像信号处理设备、图像信号处理方法和成像设备
JP2003224859A (ja) 画像処理装置、画像処理方法およびプログラム
JP4320807B2 (ja) カメラ信号処理装置及びカメラ信号処理方法
JP2005260675A (ja) 画像処理装置およびプログラム
JP2005354585A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
US7499086B2 (en) Image signal processing apparatus, image signal processing circuit, image signal processing method, program, and recording medium
JP5494249B2 (ja) 画像処理装置、撮像装置及び画像処理プログラム
JP7183015B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP4269367B2 (ja) カメラ信号処理装置及びカメラ信号処理方法
JP4269366B2 (ja) カメラ信号処理装置及びカメラ信号処理方法
US9635330B2 (en) Image processing device, image processing method, and program
JP4269369B2 (ja) カメラ信号処理装置及びカメラ信号処理方法
JP5242750B2 (ja) 画像処理装置
JP4269368B2 (ja) カメラ信号処理装置及びカメラ信号処理方法
JP4269370B2 (ja) カメラ信号処理装置及びカメラ信号処理方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2018504003

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016893617

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2016893617

Country of ref document: EP

Effective date: 20181009

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16893617

Country of ref document: EP

Kind code of ref document: A1