WO2008056565A1 - Image picking-up system and image processing program - Google Patents
Image picking-up system and image processing program Download PDFInfo
- Publication number
- WO2008056565A1 WO2008056565A1 PCT/JP2007/071088 JP2007071088W WO2008056565A1 WO 2008056565 A1 WO2008056565 A1 WO 2008056565A1 JP 2007071088 W JP2007071088 W JP 2007071088W WO 2008056565 A1 WO2008056565 A1 WO 2008056565A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- noise reduction
- unit
- noise
- target pixel
- imaging system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4015—Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/84—Camera processing pipelines; Components thereof for processing colour signals
- H04N23/843—Demosaicing, e.g. interpolating colour pixel values
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/134—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/135—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
- H04N25/136—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements using complementary colours
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/60—Noise processing, e.g. detecting, correcting, reducing or removing noise
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/21—Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20192—Edge enhancement; Edge preservation
Definitions
- Imaging system image processing program
- the present invention relates to an imaging system and an image processing program for performing noise reduction processing on a video signal captured from an imaging system.
- An imaging system includes an imaging device, an analog circuit associated with the imaging device, an A / D converter, and the like.
- a video signal obtained from this imaging system generally contains a noise component, and this noise component can be reduced by adding a fixed pattern noise and a random noise.
- the fixed pattern noise is noise mainly caused by an image sensor such as a defective pixel.
- random noise is generated in an image sensor and an analog circuit, and is close to white noise characteristics! /, And has characteristics! /.
- the noise amount N is calculated using statically given constant terms a, b, c and the signal level D converted into a density value.
- N ab eD
- a technique for estimating the noise amount N for the signal level D from this function and controlling the frequency characteristics of filtering based on the estimated noise amount N is disclosed. Appropriate noise reduction processing is applied to the level.
- Japanese Patent Laid-Open No. 2006-23959 describes a technique for estimating the amount of noise in units of blocks based on a noise model and controlling the noise reduction processing in units of blocks. Further, the publication describes that in estimating the amount of noise, a region similar to the target pixel is selected in the block and the average value of the selected region is used. As a result, it is possible to perform space-noisy noise reduction processing that suppresses the influence of the edge portion, and a high-quality video signal can be obtained.
- JP 2006-246080 discloses an edge called a bilateral filter. A technique that combines a conservative smoothing process and a sharpening process is described! As a result, it is possible to obtain an image in which the deterioration of the edge component is small while reducing the noise.
- the bilateral filter described in the above Japanese Patent Application Laid-Open No. 2006-246080 is based on the distance and signal difference between the target pixel and the neighboring pixel, and the weighting factor related to the neighboring pixel is obtained by filtering.
- the processing is performed.
- the parameters of the Gaussian function are given statically.
- the amount of noise changes dynamically according to the signal level, it is impossible to calculate the optimum weighting factor according to the amount of noise generated, and there is a problem that the accuracy of noise reduction is inferior.
- the present invention has been made in view of the above circumstances, and is highly accurate optimized for shooting conditions.
- the purpose of this project is to provide an image capture system system that makes Nana noisy low reduction processing possible, and to provide an image image processing program. It is said to be the target. .
- the present invention has a high degree of accuracy in the noise reduction reduction processing even if it is applied to a complicated complicated edge structure structure.
- a low-degradation imaging system that has a high level of reliability and reliability that is stable, stable, and reliable. The purpose of this is to provide this. .
- the captured image system system is based on whether the captured image system is a system.
- This is a captured image system system that performs noise reduction low reduction processing for the captured video image signal signal.
- the image program processing program according to the present invention is not limited to the computer system.
- Image processing for image processing that allows noise noise low reduction processing to be performed on the captured video signal.
- a local local area extraction step that extracts the local local area including the neighboring pixels In the above-mentioned local area of the above-mentioned local area, the above-mentioned noteworthy feature pixel element is subjected to appropriate noise reduction and reduction processing suitable for application.
- the noisy low reduction step was performed by the eleventh noisy low reduction step and the eleventh noisy low reduction step described above. Based on the note-of-interest pixel value, the above-described step of estimating the noise amount related to the above-mentioned note-of-interest pixel element is estimated. In addition, the above-mentioned eleventh noise reduction / reduction / reduction step, and the noise reduction / reduction processing process performed by the noise reduction / reduction processing step, noisysiness estimation step Based on the estimated amount of noise, the above noise reduction process is performed for the above noted pixel elements. 22nd noisysy Low Reduction Step Brief Description of Drawings
- FIG. 1 A block diagram showing a configuration of an imaging system according to Embodiment 1 of the present invention.
- FIG. 5 A diagram showing Gb color signals separated in the local region of the first embodiment.
- FIG. 7 A diagram showing the arrangement of color difference line sequential complementary color filters in the local region of the first embodiment.
- FIG. 8 A diagram showing Cy color signals separated in the local region of the first embodiment.
- [Sen 12] A block diagram showing a configuration example of a first noise reduction unit that synthesizes a weighting factor from three components in the first embodiment.
- FIG. 14 is a block diagram showing a configuration example of a first noise reduction unit that synthesizes a weighting factor from one component in the first embodiment.
- Noise obtained by simplifying the noise model shown in FIG. 16 in Embodiment 1 above 18] A method for calculating the noise amount from the simplified noise model shown in FIG. 17 in Embodiment 1 above. Diagram for explaining.
- a block diagram showing a configuration of a second noise reduction unit in the first embodiment A block diagram showing the configuration of the imaging system in which the imaging unit is a separate body in Embodiment 1 above.
- Sono 21 is a flowchart showing the overall flow of processing by the image processing program in the first embodiment.
- FIG. 22 is a flowchart showing details of the first noise reduction processing in step S4 of FIG. 21 in the first embodiment.
- FIG. 23 is a flowchart showing details of noise amount estimation processing in step S5 of FIG. 21 in the first embodiment.
- FIG. 24 is a flowchart showing details of second noise reduction processing in step S6 of FIG. 21 in the first embodiment.
- FIG. 25 A block diagram showing a configuration of an imaging system according to Embodiment 2 of the present invention.
- FIG. 26 A diagram for explaining the arrangement of the color difference line sequential complementary color filter and the field signal and local region output by mixing two pixels in the second embodiment.
- FIG. 27 is a diagram for explaining separation of the even field signal shown in FIG. 26 (B) into GC y, MgYe, MgCy, GYe color signals in the second embodiment.
- FIG. 28 A block diagram showing the configuration of the first noise reduction unit in the second embodiment.
- FIG. 29 A diagram for explaining the direction-specific regions divided by the region dividing unit in the second embodiment.
- Sono is a block diagram showing the configuration of the noise estimation unit in the second embodiment.
- FIG. 31 A block diagram showing a configuration of a second noise reduction unit in the second embodiment.
- FIG. 32 is a diagram for explaining neighboring pixels used by a second noise reduction unit in the second embodiment.
- FIG. 34 is a flowchart showing details of first noise reduction processing in step S51 of FIG. 33 in the second embodiment.
- FIG. 35 is a flowchart showing details of noise amount estimation processing in step S52 of FIG. 33 in the second embodiment.
- FIG. 36 is a flowchart showing details of second noise reduction processing in step S53 of FIG. 33 in the second embodiment.
- FIG. 37 A block diagram showing a configuration of an imaging system according to Embodiment 3 of the present invention.
- FIG. 37 A diagram showing the color filter arrangement of the first CCD in the local area of the third embodiment. 37] A diagram showing the color filter arrangement of the second CCD in the local region of the third embodiment.
- FIG. 40 A diagram showing an R color signal in a local region obtained by interpolating the output of the second CCD in the third embodiment.
- FIG. 41 A diagram showing a local area B color signal obtained by performing interpolation processing on the output of the second CCD in the third embodiment.
- FIG. 42 is a diagram showing a local region Y signal obtained by separating the G signal shown in FIG. 38, the R signal shown in FIG. 40, and the B signal shown in FIG. 41 in the third embodiment.
- FIG. 43 is a diagram showing a local region Cb signal obtained by separating the G signal shown in FIG. 38, the R signal shown in FIG. 40, and the B signal shown in FIG. 41 in the third embodiment.
- FIG. 48 is a diagram showing a 5 ⁇ 5 pixel smoothing filter in the third embodiment.
- FIG. 49 is a diagram showing a 3 ⁇ 3 pixel smoothing filter in the third embodiment.
- FIG. 51 is a flowchart showing the overall flow of processing by the image processing program in the third embodiment.
- FIG. 52 is a flowchart showing details of first noise reduction processing in step S91 of FIG. 51 in the third embodiment.
- FIG. 53 is a flowchart showing details of second noise reduction processing in step S92 of FIG. 51 in the third embodiment.
- FIGS. 1 to 24 show Embodiment 1 of the present invention.
- FIG. 1 is a block diagram showing the configuration of an imaging system.
- FIG. 2 shows the arrangement of Bayer-type primary color filters in a local region.
- Fig. 3 shows the R color signal separated in the local region
- Fig. 4 shows the Gr color signal separated in the local region
- Fig. 5 shows the! /
- Fig. 6 is a diagram showing the Gb color signal separated in the local region
- Fig. 6 is a diagram showing the B color signal separated in the local region
- Fig. 7 is a diagram showing the arrangement of the color difference line sequential complementary color filter in the local region
- Fig. 8 is a diagram showing the local color region.
- Fig. 9 shows the Cy color signal separated in the region !
- Fig. 9 shows the Cy color signal separated in the region !
- Fig. 9 shows the Cy color signal separated in the region !
- Fig. 9 shows the Cy color signal separated in the region !
- Fig. 9 shows the Ye color signal separated in the local region
- Fig. 10 shows the G color signal separated in the local region
- Fig. 11 shows the Mg color signal separated in the local region
- Fig. 12 shows the first noise that synthesizes the weighting factor from the three components.
- Fig. 13 is a block diagram showing a configuration example of a first noise reduction unit that synthesizes a weighting factor from two components.
- Fig. 14 shows a first noise reduction unit that synthesizes a weighting factor from one component.
- Fig. 15 is a block diagram showing the configuration of the noise estimation unit
- Fig. 16 is a diagram showing the relationship of the estimated noise amount to the signal level
- Fig. 17 is the noise shown in Fig. 16.
- FIG. 20 is a block diagram showing the configuration of an imaging system in which the imaging unit is a separate unit
- FIG. 21 is a flowchart showing the flow of the entire processing by the image processing program
- FIG. 22 is in S4 of FIG. Details of the first noise reduction process Flowchart, Fig. 23 S5 flow chart, Figure 24 showing details of the noise amount estimation processing in the FIG. 21 is a Furochi Yato, showing a second noise reduction processing details in S6 in FIG 21.
- the imaging system includes a lens system 100, an aperture 101, a CCD 102, a temperature sensor 103, an amplification unit 104, an A / D conversion unit 105, a notch 106, Pre-white balance unit 107, photometric evaluation unit 108, in-focus detection unit 109, AF motor 110, color signal separation unit 111 as color signal separation means, buffer 112, and extraction as local region extraction means Unit 113, a first noise reduction unit 114 as a first noise reduction unit, a noise estimation unit 115 as a noise estimation unit, a second noise reduction unit 116 as a second noise reduction unit, and a signal processing unit 117 , An output unit 118, a control unit 119 that is a collecting unit and a signal control unit, and an external I / F unit 120.
- An analog video signal photographed and output through the lens system 100, the aperture 101, and the CCD 102 is amplified by the amplification unit 104 and converted into a digital signal by the A / D conversion unit 105.
- the video signal from the A / D conversion unit 105 is transferred to the color signal separation unit 111 via the buffer 106.
- the buffer 106 is also connected to the pre-white balance unit 107, the photometric evaluation unit 108, and the focus point detection unit 109.
- the pre-white balance unit 107 is connected to the amplification unit 104, the photometric evaluation unit 108 is connected to the aperture 101, the CCD 102, and the amplification unit 104, and the focus detection unit 109 is connected to the AF motor 110.
- a signal from the color signal separation unit 111 is connected to the extraction unit 113 via the buffer 112.
- the extraction unit 113 is connected to the first noise reduction unit 114, the noise estimation unit 115, and the second noise reduction unit 116.
- the first noise reduction unit 114 is connected to the noise estimation unit 115 and the second noise reduction unit 116.
- the noise estimation unit 115 is connected to the second noise reduction unit 116.
- the second noise reduction unit 116 is connected to the output unit 118 such as a memory card via the signal processing unit 117.
- the control unit 119 includes, for example, a microcomputer, and includes an amplification unit 104, an A / D conversion unit 105, a pre-white balance unit 107, a photometric evaluation unit 108, a focus detection unit 109, and a color signal separation unit 111.
- the extraction unit 113, the first noise reduction unit 114, the noise estimation unit 115, the second noise reduction unit 116, the signal processing unit 117, and the output unit 118 are bidirectionally connected to control them. ing.
- the external I / F unit 120 is also connected to the control unit 119 bidirectionally.
- the external I / F unit 120 is an interface including a power switch, a shirt button, a mode button for switching various modes at the time of shooting, and the like.
- a signal from the temperature sensor 103 is also connected to the control unit 119.
- the temperature sensor 103 is disposed in the vicinity of the CCD 102 and is used to substantially measure the temperature of the CCD 102.
- the user Before shooting, the user can set shooting conditions such as ISO sensitivity via the external I / F unit 120.
- the lens system 100 forms an optical image of the subject on the imaging surface of the CCD 102.
- the aperture 101 changes the brightness of the optical image formed on the imaging surface of the CCD 102 by defining the passing range of the subject light beam formed by the lens system 100.
- the CCD 102 photoelectrically converts an optical image to be formed and outputs it as an analog video signal.
- a single-plate CCD having a Bayer primary color filter arranged on the front surface is assumed as the CCD 102.
- the Bayer-type primary color filter has 2 X 2 pixels as a basic unit, and one red (R) and one blue (B) filter is left at each diagonal pixel position in the basic unit.
- a green (Gr, Gb) filter is arranged at each pixel position diagonally.
- the green filter Gr and the green filter Gb are distinguished from each other by the force S having the same optical characteristics, and in the present embodiment, they are distinguished for convenience of processing.
- the green filter in the same line as the red (R) filter is Gr
- the green filter in the same line as the blue (B) filter is Gb.
- the analog signal output from the CCD 102 in this way is amplified by a predetermined amount by the amplifying unit 104, converted into a digital signal by the A / D conversion unit 105, and transferred to the buffer 106.
- the digitized video signal The video signal stored in the buffer 106 is transferred to the pre-white balance unit 107, the photometric evaluation unit 108, and the in-focus detection unit 109, respectively.
- the pre-white balance unit 107 calculates a simple white balance coefficient by accumulating (that is, cumulatively adding) signals of a level within a predetermined range for each color signal.
- the prewhite balance unit 107 transfers the calculated simple white balance coefficient to the amplifying unit 104, and multiplies the gain for each color signal to perform simple white balance processing.
- the photometric evaluation unit 108 Based on the video signal, the photometric evaluation unit 108 considers the set ISO sensitivity, the shutter speed at the limit of camera shake, etc., and the aperture value of the aperture 101, the electronic shutter speed of the CCD 102, and the amplification unit 104. The gain is controlled so as to achieve proper exposure.
- the focus detection unit 109 detects the edge intensity in the video signal, and controls the AF motor 110 so that the edge intensity is maximized to obtain a focus signal.
- the imaging system enters the main imaging mode.
- the video signal is transferred to the buffer 106 as in the pre-imaging.
- This main imaging is performed based on the simple white balance coefficient obtained by the pre-white balance unit 107, the exposure condition obtained by the photometric evaluation unit 108, and the focusing condition obtained by the focus detection unit 109. These shooting conditions are transferred to the control unit 119.
- the video signal in the buffer 106 obtained by the main imaging is transferred to the color signal separation unit 111.
- the color signal separation unit 111 separates the transferred video signal into color signals for each color filter used in the CCD 102 based on the control of the control unit 119. That is, in the present embodiment, the color signal separation unit 111 performs an R color signal as shown in FIG. 3, a Gr color signal as shown in FIG. 4, a Gb color signal as shown in FIG. Separated into 4 types: B color signal as shown in 6. Then, the color signal separation unit 111 transfers each separated color signal to the buffer 112 ⁇ .
- Extraction unit 113 is a target for which noise reduction processing is performed based on the control of control unit 119. Local regions including pixels and neighboring pixels located in the vicinity of the target pixel are sequentially extracted and transferred to the first noise reduction unit 114, the noise estimation unit 115, and the second noise reduction unit 116, respectively.
- the pixel value of interest is C when the local region force is 5 pixels.
- the first noise reduction unit 114 Based on the control of the control unit 119, the first noise reduction unit 114 performs predetermined applicable noise reduction processing on the pixel of interest in the local area transferred from the extraction unit 113, and the noise reduction processing is performed.
- the target pixel value C ′ made is transferred to the noise estimation unit 115 and the second noise reduction unit 116.
- the noise estimation unit 115 controls the local region transferred from the extraction unit 113, the target pixel value subjected to the noise reduction processing transferred from the first noise reduction unit 114, and the control Based on the shooting conditions transferred from the unit 119, the noise amount N related to the target pixel is estimated. The noise estimation unit 115 then reduces the estimated noise amount to the second noise reduction.
- the second noise reduction unit 116 transfers the target pixel value C ′ subjected to noise reduction processing transferred from the first noise reduction unit 114 and the noise estimation unit 115.
- the target pixel (target pixel value C) from the extraction unit 113 is determined based on the amount of noise N
- the second noise reduction process is performed, and the target pixel value C ⁇ after the noise reduction process is calculated.
- the second noise reduction unit 116 transfers the calculated pixel value C ⁇ to the signal processing unit 117. To send.
- the signal processing unit 117 Based on the control of the control unit 119, the signal processing unit 117 performs known interpolation processing, enhancement processing, compression processing, and the like on the video signal after noise reduction, and outputs the processed video signal to the output unit 118 Transfer.
- the output unit 118 records and stores the video signal in a recording medium such as a memory card.
- the first noise reduction unit 114 is a bit shift unit 200 that is a weighting factor calculation unit and a bit shift unit, a first buffer 201, a difference component calculation unit 202 that is a weighting factor calculation unit, and a second noise reduction unit. 203, a difference factor table 204 that also serves as a weighting factor calculation means, a table means, and a first table means, an ascending order accumulation unit 205, and an isolated point table 206 that is a weighting factor calculation means and is a third table means.
- a coordinate table 207 which is weighting factor calculating means and second table means, a weighting factor synthesizing unit 208 which is weighting factor calculating means and synthesizing means, and a fine lettering ⁇ 209 which is a finelettering means. ing.
- the extraction unit 113 is connected to the bit shift unit 200 and the filtering unit 209.
- the bit shift unit 200 is connected to the second buffer 203 via the first buffer 201 and the difference component calculation unit 202.
- the second buffer 203 is connected to the difference component table 204 and the ascending order accumulation unit 205.
- the ascending order accumulation unit 205 is connected to the isolated point table 206.
- the difference component table 204, the isolated point table 206, and the coordinate table 207 are connected to the weight coefficient synthesis unit 208.
- the weight coefficient synthesis unit 208 is connected to the filtering unit 209.
- the filtering unit 209 is connected to the noise estimation unit 115 and the second noise reduction unit 116.
- the control unit 119 includes a bit shift unit 200, a difference component calculation unit 202, a difference component table 204, an ascending order accumulation unit 205, an isolated point table 206, a coordinate table 207, a weight coefficient synthesis unit 2 08, a filtering unit. It is connected to 209 in both directions to control them.
- the bit shift unit 200 Based on the control of the control unit 119, the bit shift unit 200 performs a process of extracting a higher-order bit component having a predetermined number of bits from the target pixel value and the neighboring pixel value in the local region from the extraction unit 113. .
- the A / D conversion unit 105 performs digitization with 12-bit gradation.
- the bit shift unit 200 removes a minute fluctuation component by, for example, performing bit shift processing on the lower 7 bits, converts it to a 5-bit signal, and transfers it to the first buffer 201. To do.
- the difference component calculation unit 202 reads the signal of the local region on which the bit shift processing has been performed from the first buffer 201, and, as shown in the following Equation 1, the pixel value C in the local region and the target pixel Calculate the absolute value ⁇ of the difference component from the value C.
- the difference component calculation unit 202 supplies the calculated absolute value ⁇ of the difference component to the second buffer 203.
- the difference component table 204 reads the absolute value ⁇ of the difference component from the second notch 203, and obtains the first weighting coefficient wl corresponding to the absolute value ⁇ of the difference component. Find by referring to the table.
- the table recorded in the difference component table 204 is calculated in advance based on, for example, a function formula shown in the following formula 2.
- the difference component table 204 Will be 32 table sizes.
- the difference component table 204 transfers the obtained first weighting factor wl to the weighting factor synthesizing unit 208.
- the ascending order accumulating unit 205 is configured to generate a difference from the second buffer 203 based on the control of the control unit 119.
- the integrated value R is calculated by integrating from the minimum value to the predetermined number m.
- This integrated value R is obtained by adding the absolute value ⁇ of the difference component from the m neighboring pixels whose pixel values are close to the target pixel in the local region. A large integrated value with high correlation between pixels and neighboring pixels indicates a high possibility of isolated points.
- the ascending order accumulation unit 205 transfers the calculated accumulated value R and the absolute value ⁇ of the difference component from the second buffer 203 to the isolated point table 206.
- the isolated point table 206 refers to the second weighting factor w2 corresponding to the integrated value R and the mixing factor ⁇ corresponding to the absolute value ⁇ of the difference component.
- the table for the second weighting coefficient w 2 recorded by the isolated point table 206 is calculated in advance based on a function equation as shown in the following equation 4.
- the table for the mixing coefficient ⁇ recorded by the isolated point table 206 is calculated in advance based on a function equation as shown in Equation 5 below.
- the range of values that the mixing coefficient ⁇ can take is 0-1.
- This mixing coefficient ⁇ determines the mixing ratio between the first weighting coefficient wl and the second weighting coefficient w2.
- the isolated point table 206 transfers the obtained second weighting coefficient w2 and mixing coefficient ⁇ to the weighting coefficient combining unit 208.
- the coordinate table 207 is obtained by referring to the third weighting coefficient w3 corresponding to the coordinate value (i, j) of the pixel in the local region based on the control of the control unit 119.
- the table for the third weighting coefficient w3 recorded in the coordinate table 207 is calculated in advance based on a function formula as shown in the following formula 6, for example.
- M3 ⁇ 4 42
- X means the X coordinate of the pixel of interest, and
- the coordinate table 207 since the local area is an area of 5 ⁇ 5 pixels, the coordinate table 207 has a table size of 25 pieces.
- the coordinate table 207 uses the obtained third weighting coefficient w3 as the weighting coefficient synthesizing unit 20.
- the weighting factor synthesis unit 208 Based on the control of the control unit 119, the weighting factor synthesis unit 208, the first weighting factor wl from the difference component table 204, the second weighting factor w2 from the isolated point table 206, and the mixing coefficient Based on ⁇ and the third weighting factor w3 from the coordinate table 207, the weighting factor w is calculated as shown in Equation 7 below.
- the weighting factor synthesis unit 208 transfers the calculated weighting factor w to the filtering unit 209.
- the filtering unit 209 uses the weighting factor w from the weighting factor synthesis unit 208 for the local region from the extraction unit 113 to perform a filtering process as shown in Equation 8 below. To calculate the target pixel value C ′ from which noise has been reduced.
- the filtering process performed by the filtering unit 209 includes a process of normalizing by the sum of the weighting factors w.
- the filtering unit 209 performs noise estimation on the target pixel value C ′ subjected to noise reduction.
- the first noise reduction unit 114 having the configuration shown in FIG. 12 is configured to perform the filtering process by synthesizing three weighting factors, and is not limited to this. Absent. For example, a configuration of the first noise reduction unit 114 in which the types of weighting factors to be used are reduced is possible.
- FIG. 13 shows a configuration example in which the ascending order accumulation unit 205 and the isolated point table 206 are removed from the configuration of the first noise reduction unit 114 as shown in FIG. 12, and two weighting factors are combined. It is exactly what is shown.
- the weighting factor synthesizing unit 208 calculates the weighting factor w based on the following formula 9.
- FIG. 14 shows the configuration of the first noise reduction unit 114 shown in FIG. 12, and includes an ascending order integration unit 205, an isolated point table 206, a coordinate table 207, and a weighting factor synthesis unit 208.
- This example shows a configuration that uses a single weighting factor.
- the difference component table 204 is connected to the filtering unit 209.
- the first noise reduction unit 114 uses wl as the weighting coefficient w.
- the noise estimation unit 115 includes a gain calculation unit 300 that is a collection unit, a standard value provision unit 301 that is a provision unit, a parameter ROM 302 that is a parameter recording unit, and a parameter selection unit 303 that is a parameter selection unit.
- An interpolation unit 304 as an interpolation unit, a correction unit 305 as an interpolation unit and a correction unit, a buffer 306, and an isolated point detection unit 307 as an isolated point detection unit.
- Extraction unit 113 is connected to isolated point detection unit 307 via buffer 306.
- the first noise reduction unit 114, the gain calculation unit 300, the standard value giving unit 301, and the parameter ROM 302 are connected to the parameter selection unit 303.
- the parameter selection unit 303 is connected to the interpolation unit 304 and the correction unit 305. Further, the interpolation unit 304 and the isolated point detection unit 307 are connected to the correction unit 305.
- the correction unit 305 is connected to the second noise reduction unit 116.
- the control unit 119 is bi-directionally connected to and controls the gain calculation unit 300, the standard value assigning unit 301, the parameter selection unit 303, the interpolation unit 304, the correction unit 305, and the isolated point detection unit 307. It ’s going to be.
- the first noise reduction unit 114 transfers the target pixel value C ′ that has undergone noise reduction by the filtering process to the parameter selection unit 303.
- the gain calculation unit 300 obtains the amplification amount in the amplification unit 104 based on the ISO sensitivity and exposure condition information transferred from the control unit 119, and transfers the obtained amplification amount to the parameter selection unit 303.
- the control unit 119 acquires the temperature information of the CCD 102 from the temperature sensor 103 and transfers the acquired temperature information to the parameter selection unit 303.
- the parameter selection unit 303 includes a target pixel value C ′ from which noise has been reduced from the first noise reduction unit 114, gain information from the gain calculation unit 300, and temperature information from the control unit 119.
- the parameter for estimating the noise amount is selected based on and.
- FIG. 16 is a plot of noise amount N estimated against signal level L. As shown in the figure, the amount of noise N increases with a signal curve L in a quadratic curve, for example. When the change in the noise amount N as shown in FIG. 16 is modeled using a quadratic function, for example, the following equation 10 is obtained. ⁇ .
- N a L 2 + / 3 L + ⁇
- ⁇ , ⁇ , and ⁇ are constant terms that determine the shape of the quadratic function.
- Figure 16 shows a plot of the amount of noise for three ISO sensitivities 100, 200, and 400 related to gain at a certain temperature as an example.
- the individual curves shown in FIG. 16 have a force S having a curved shape as shown in Equation 10 and its constant terms ⁇ , ⁇ , and ⁇ differ depending on the ISO sensitivity related to the gain. Furthermore, the constant terms ⁇ , / 3, ⁇ vary depending on the temperature. Therefore, when the noise model is formulated with the temperature t and the gain g, and taking into account the dependence on the temperature t and gain g, the following equation 11 is obtained.
- N a L 2 + ⁇ L + ⁇
- ⁇ , / 3, and ⁇ are constant terms that determine the function shape of the quadratic function, and are constant terms that depend on the temperature t and the gain g as described above.
- Equation 11 a plurality of functions as shown in Equation 11 are written according to the combination of the temperature t and the gain g. Recording and calculating the amount of noise by calculation each time is cumbersome in terms of processing. For this
- n is the number of the inflection point from the one with the lowest signal level L
- a correction coefficient k for deriving another noise model from the above-described reference noise model is also prepared. This correction factor k depends on each noise model and gt gt
- the correction coefficient k is stored in advance in the parameter ROM 302.
- the correction coefficient k corresponding to the temperature t and the gain g is searched from the parameter ROM 302, and the searched correction coefficient k is used as the reference gt gt noise model. This is done by multiplying.
- signal level 1 belongs to the interval between (L, N) and (L, N), for example.
- the reference noise amount in the reference noise model is obtained by linear interpolation as shown in Equation 12 below.
- N k -N
- the parameter selection unit 303, the interpolation unit 304, and the correction unit 305 estimate the noise amount as follows.
- the parameter selection unit 303 also sets the target pixel value C ′ force from which noise has been reduced from the first noise reduction unit 114 to the signal level 1 and the gain information from the gain calculation unit 300.
- the gain g is set from the information, and the temperature t is set from the temperature information from the control unit 119.
- the parameter selection unit 303 is the coordinate data of the section to which the signal level 1 belongs (L
- the data is transferred to the interpolation unit 304.
- the parameter selection unit 303 sets the correction coefficient k corresponding to the gain g and the temperature t.
- the search is performed from the gt parameter ROM 302, and the searched correction coefficient k is transferred to the correction unit 305.
- the interpolation unit 304 is based on the signal level 1 from the parameter selection unit 303 and the coordinate data (L, N) and (L, N) of the section.
- the interpolation unit 304 transfers the calculated reference noise amount N to the correction unit 305.
- the correction unit 305 uses the equation 13 based on the correction coefficient k from the parameter selection unit 303 and the reference noise amount N from the interpolation unit 304 based on the control of the control unit 119.
- the extraction unit 113 transfers the local area to the buffer 306 based on the control of the control unit 119.
- the isolated point detection unit 307 detects whether or not the pixel of interest in the local region is an isolated point with respect to the local region on the buffer 306. This detection is performed based on the magnitude relationship between the pixel of interest and the surrounding eight neighboring pixels of the pixel of interest.
- the local region of the present embodiment is a force S that is a local region of 5 ⁇ 5 pixels as shown in FIGS. 3 to 6, and in such a local region, either of Equation 14 or Equation 15 is used.
- the isolated point detection unit 307 determines that an isolated point has been detected, and if Formula 14 does not hold and Formula 15 does not hold, it is determined that no isolated point is detected! / Get ready! c> c and c> c and c> c and c> c
- Equation 14 shows that the target pixel value C is larger than any of the surrounding eight neighboring pixels.
- Equation 15 shows that the target pixel value C is smaller than any of the surrounding 8 neighboring pixels.
- the isolated point detection unit 307 transfers such an isolated point detection result to the correction unit 305.
- the correction unit 305 estimated the corrected noise amount N with respect to the target pixel value C.
- information such as temperature t and gain g is obtained for each photographing and used to calculate the amount of noise.
- the present invention is not limited to this.
- arbitrary information may be recorded in advance in the standard value giving unit 301, and the calculation process may be omitted by reading out and using the information recorded in the standard value giving unit 301 when calculating the noise amount. Is possible. By adopting such a configuration, it becomes possible to increase the processing speed and power saving.
- the second noise reduction unit 116 includes a range setting unit 400 serving as a noise range setting unit, a switching unit 401, a first smoothing unit 402 serving as a first smoothing unit, and a second smoothing serving as a second smoothing unit. Part 403 is provided!
- First noise reduction unit 114 and noise estimation unit 115 are connected to range setting unit 400.
- Range setting section 400 is connected to switching section 401, first smoothing section 402, and second smoothing section 4003.
- the extraction unit 113 is connected to the switching unit 401.
- switching The unit 401 is connected to the first smoothing unit 402 and the second smoothing unit 403.
- the first smoothing unit 402 and the second smoothing unit 403 are connected to the signal processing unit 117.
- the control unit 119 is bi-directionally connected to the range setting unit 400, the switching unit 401, the first smoothing unit 402, and the second smoothing unit 403, and controls them.
- the first noise reduction unit 114 sets the target pixel value C ′ from which the first noise reduction has been performed.
- the noise estimation unit 115 transfers the noise amount N estimated for the target pixel to the range setting unit 400 ⁇ .
- Range setting section 400 sets the upper limit Up and the lower limit Low of the allowable range related to the noise amount based on the control of control section 119 as shown in Equation 16 below.
- range setting unit 400 transfers upper limit Up and lower limit Low of the set allowable range to switching unit 401.
- the range setting unit 400 uses the noise amount N and the first noise reduction.
- the switching unit 401 Based on the control of the control unit 119, the switching unit 401 receives the target pixel value C from the extraction unit 113.
- the target pixel value C is set to the allowable range transferred from the range setting unit 400.
- the switching unit 401 determines that the target pixel value C is “belonging to the noise range”.
- the target pixel value C is transferred to the first smoothing unit 402, and other determinations are made.
- the target pixel value C is transferred to the second smoothing unit 403.
- the first smoothing unit 402 receives the pixel value C of interest from the switching unit 401.
- the target pixel value C ′ subjected to the first noise reduction from the range setting unit 400 is substituted into the target pixel value C ′′ subjected to the second noise reduction.
- the first smoothing unit 402 transfers the target pixel value C ′′ subjected to the second noise reduction processing to the signal processing unit 117.
- the second smoothing unit 403 receives the target pixel value C from the switching unit 401.
- the target pixel value C is corrected based on the noise amount N from the range setting unit 400.
- the second smoothing unit 403 receives the target pixel value C force S "beyond the noise range.
- the pixel value of interest c ⁇ that has undergone the noise reduction processing is calculated.
- the second smoothing unit 403 indicates that the target pixel value C is “below the noise range! /,”.
- the target pixel value C is corrected as shown in Equation 19 below, and the second
- the pixel value of interest C "that has been subjected to noise reduction processing is calculated.
- the second smoothing unit 403 transfers the pixel value of interest C ′′ that has been subjected to the second noise reduction calculated by Equation 18 or Equation 19 to the signal processing unit 117.
- a force using a Bayer-type primary color filter as an image sensor is taken as an example.
- the present invention is not limited to such a configuration.
- a configuration using a color difference line sequential complementary color filter as shown in FIG. 7 may be employed, or a configuration of a two-plate image sensor or a three-plate image sensor may be employed.
- the color signal separation unit 111 converts the video signal from the image sensor into a Cy (cyan) as shown in FIG.
- the lens system 100 the aperture 101, the CCD 102, the temperature sensor 103, the amplification unit 104, the A / D conversion unit 105, the pre-white balance unit 107, the photometric evaluation unit 108, the in-focus detection unit 10 9, AF
- the imaging system is not necessarily limited to such a configuration.
- the imaging unit may be a separate body. That is, the imaging system shown in FIG. 20 reads and processes a video signal captured by a separate imaging unit and recorded on a recording medium such as a memory card as unprocessed raw data from the recording medium. It has become a thing.
- transmission of various information of the imaging system from a separate imaging unit is not limited to being performed via a recording medium, but may be performed via a communication line or the like.
- the imaging system shown in FIG. 20 is different from the imaging system shown in FIG. 1 in that the lens system 100, aperture 101, CCD 102, temperature sensor 103, amplifier 104, A / D converter 105, pre-white balance.
- the unit 107, the photometric evaluation unit 108, the in-focus detection unit 109, and the AF motor 110 are omitted, and an input unit 500 and a header information analysis unit 501 are added. Since the other basic configuration of the imaging system shown in FIG. 20 is the same as that shown in FIG. 1, the same name and reference numeral is assigned to the same configuration, and the description is omitted as appropriate. Only the differences will be explained.
- Input unit 500 is connected to buffer 106 and header information analysis unit 501.
- the control unit 119 is bi-directionally connected to the input unit 500 and the header information analysis unit 501, and controls them.
- the video signal and header information stored in a recording medium such as a memory card are transferred to the input unit 50.
- the video signal is the buffer 106 header information Are transferred to the header information analysis unit 501 respectively.
- the header information analysis unit 501 Based on the header information transferred from the input unit 500, the header information analysis unit 501 extracts information at the time of shooting (that is, the exposure condition and the temperature of the image sensor as described above) and controls the control unit 119. Forward.
- the subsequent processing is the same as that of the imaging system as shown in FIG.
- force based on hardware processing is not limited to such a configuration.
- the video signal from the CCD 102 is recorded as raw raw data on a recording medium such as a memory card, and accompanying information such as imaging conditions (for example, the temperature of the image sensor at the time of shooting from the control unit 119). And exposure conditions) are recorded on the recording medium as header information.
- the computer can execute an image processing program, which is separate software, and cause the computer to read information on the recording medium for processing.
- the transmission of various information from the imaging unit to the computer is not limited to being performed via a recording medium, but may be performed via a communication line or the like.
- step S1 a video signal is read, and header information such as the temperature of the image sensor and exposure conditions is read.
- the video signal is color signal separated for each color of the color filter used in the image sensor (step S 2).
- step S3 a local region centered on the target pixel is extracted.
- the first noise reduction process is performed on the target pixel (step S 4).
- the amount of noise related to the target pixel is estimated (step S 5).
- the second noise reduction process is performed on the target pixel (step S6).
- step S7 it is determined whether or not the processing for all local regions has been completed.
- step S7 it is determined whether or not the processing for all the local regions has been completed.
- step S3 the processing as described above is performed for the unprocessed local region.
- step S 8 it is further determined whether or not the processing for all the color signals has been completed. If it is determined that all the color signals have been processed! /, NA! /, The process returns to step S 2 to process V and V for the unprocessed color signals. Processing as described above is performed.
- step S9 If it is determined that all the color signals have been processed, known interpolation processing, enhancement processing, compression processing, and the like are performed (step S9).
- step S 10 the processed video signal is output (step S 10), and this process ends.
- the first weighting factor wl corresponding to the absolute value ⁇ of the difference component is obtained from the table (step S 22).
- an integrated value R obtained by integrating the minimum value force up to a predetermined number m is calculated (step S 23).
- the second weighting factor w2 corresponding to the integrated value R and the mixing factor ⁇ corresponding to the absolute value ⁇ of the difference component are obtained from the table (step S24).
- a third weighting factor w3 corresponding to the coordinate value in the local region is obtained from the table (step S25).
- the weighting coefficient w is calculated (step S26).
- step S 28 the target pixel value subjected to the first noise reduction is output (step S 28), and the process returns to the process shown in FIG.
- step S5 details of the noise amount estimation processing in step S5 will be described with reference to FIG.
- step S30 When this processing is started, first, information such as temperature and gain is set from the read header information.
- a necessary parameter does not exist in the header information, a predetermined standard value is assigned (step S30).
- step S32 the coordinate data of the section of the reference noise model to which the target pixel value subjected to the first noise reduction belongs and the correction coefficient corresponding to the temperature and the gain are selected.
- step S an interpolation process as shown in Equation 12 is performed to obtain a reference noise amount (step S).
- Equation 14 and Equation 15 is performed to detect whether or not the target pixel is an isolated point (step S34).
- the amount of noise is calculated by performing correction processing as shown in Equation 13. If it is detected that the target pixel is an isolated point, the calculated noise amount is further multiplied by a predetermined correction coefficient (step S35).
- step S36 the calculated amount of noise is output (step S36), and the process returns to the process shown in FIG.
- step S41 it is determined whether or not the pixel value of interest belongs within the allowable range.
- step S42 if it is determined that the target pixel value falls within the allowable range, the processing shown in Formula 17 is performed (step S42).
- step S41 If it is determined in step S41 that the target pixel value does not belong to the allowable range, Formula 1 is used depending on whether the target pixel value is above or below the noise range.
- step S43 The processing shown in FIG. 8 or Equation 19 is performed (step S43).
- step S44 the pixel value of interest subjected to the second noise reduction is output (step S44), and FIG. Return to the processing shown in.
- the video signal to be processed may be a plurality of video signals (so-called moving image video signals) captured in a time-series manner rather than just a still image video signal.
- Embodiment 1 it is possible to perform highly accurate noise reduction processing optimized for the shooting situation, and a high-quality video signal can be obtained.
- the first noise reduction processing obtains the weighting coefficient based on the signal level difference, the influence of the edge component can be effectively suppressed, and the weighting coefficient is obtained based on the coordinate position. Therefore, it is possible to reduce the occurrence of side effects in the filtering process, and to detect isolated points from the signal level difference and obtain the weighting factor based on the detection results of isolated points, so that isolated point noise is effectively suppressed can do.
- the weight coefficient is obtained from the table, the processing speed can be increased.
- the weighting coefficient is obtained from the video signal subjected to the bit shift processing, the table size can be reduced, and the cost of the imaging system can be reduced.
- minute noise components are removed by bit shift, the stability and reliability of processing can be improved.
- the noise amount is estimated using a model, the noise amount can be estimated with high accuracy. Furthermore, since interpolation processing is easy to implement, the system can be constructed at low cost. Since the amount of noise for isolated point noise is set appropriately, it is possible to perform highly accurate noise reduction processing for various types of noise.
- the second noise reduction process is a process for making a determination regarding the noise reduction process based on the amount of noise, it is possible to perform an optimal noise reduction process. In addition, discontinuity due to noise reduction processing can be prevented, and high-quality video signals can be generated.
- an image sensor with a Bayer-type primary color filter in front it has a high affinity with conventional imaging systems and is suitable for many imaging systems. Can be used.
- noise reduction processing is performed independently for each color signal, it is possible to prevent the mutual noise from diffusing and to obtain a high-quality video signal.
- FIGS. 25 to 36 show Embodiment 2 of the present invention.
- FIG. 25 is a block diagram showing the configuration of an imaging system.
- FIG. 26 is a color difference line sequential complementary color filter arranged and mixed by two pixels.
- Fig. 27 is a diagram for explaining the field signal and the local region.
- Fig. 27 is a diagram for explaining the separation of the even field signal shown in Fig. 26 (B) into the GCy, MgYe, MgCy, and GYe color signals.
- Fig. 28 Is a block diagram showing the configuration of the first noise reduction unit
- FIG. 29 is a diagram for explaining the region by direction divided by the region division unit
- FIG. 30 is a block diagram showing the configuration of the noise estimation unit
- FIG. 32 is a block diagram illustrating the configuration of the second noise reduction unit
- FIG. 32 is a diagram for explaining the neighboring pixels used by the second noise reduction unit
- FIG. 33 is a flowchart illustrating the overall flow of processing by the image processing program
- 35 is a flowchart showing details of the reduction processing
- FIG. 35 is a flowchart showing details of the noise amount estimation processing in step S52 of FIG. 33
- FIG. 36 is a flowchart showing details of the second noise reduction processing in step S53 of FIG. is there.
- a buffer 603 and a frame synthesizing unit 604 as signal recording means are added to the imaging system shown in FIG.
- the estimation unit 115 and the second noise reduction unit 116 are changed to a first noise reduction unit 600 as a first noise reduction unit, a noise estimation unit 601 as a noise estimation unit, and a second noise reduction unit 602 as a second noise reduction unit.
- Each is replaced. Since the other basic configuration is the same as that of the first embodiment described above, the same configuration is denoted by the same name and reference numeral, description thereof is omitted as appropriate, and only different portions will be mainly described.
- Extraction unit 113 is connected to first noise reduction unit 600, noise estimation unit 601, and second noise reduction unit 602.
- the first noise reduction unit 600 is connected to the noise estimation unit 601.
- the noise estimation unit 601 is connected to the second noise reduction unit 602.
- the second noise reduction unit 602 is bidirectionally connected to the buffer 603.
- the nota 603 is connected to the frame synthesis unit 604. It has been continued.
- the frame synthesis unit 604 is connected to the signal processing unit 117.
- the control unit 119 is connected in both directions to the first noise reduction unit 600, the noise estimation unit 601, the second noise reduction unit 602, and the frame synthesis unit 604, and these are also controlled. .
- the CCD 102 is a single-plate CCD having a color difference line sequential complementary color filter arranged on the front surface. Furthermore, in this embodiment, a moving image composed of a plurality of video signals taken in time series is assumed as the video signal.
- FIG. 26A shows the configuration of the color difference line sequential complementary color filter.
- This color difference line sequential complementary filter uses 2 X 2 pixels as a basic unit, and cyan (Cy) and yellow (Y e) are 2 X 2 pixels on the same line, magenta (Mg) and green (G) are 2 X They are placed on the same other line of 2 pixels. However, the positions of magenta (Mg) and green (G) are configured to be reversed for each line.
- the output from the CCD 102 is divided into an even field signal as shown in FIG. 26 (B) and an odd field signal as shown in FIG. 26 (C). These are output alternately in time series.
- FIG. 26 (B) shows an even field signal and a target pixel by mixing two pixels
- the even field signal is a signal in which two pixels are mixed in the vertical direction between the (2n-l) line and the 2n line.
- the odd field signal is shown in Fig. 26 (B).
- n is an integer greater than or equal to 1.
- G + Cy hereinafter referred to as GCy
- Mg + Ye hereinafter referred to as MgYe
- Cy hereinafter referred to as MgCy
- GYe G + Ye
- the nother 106 records video signals for 2 frames, that is, 4 fields. At this time, the video signal on the buffer 106 is overwritten from the past in time series and replaced with a new video signal.
- the color signal separation unit 111 separates the field signal into four types of color signals of GCy, MgYe, MgCy, and GYe, for example, as shown in FIG. 1 Transfer to 12.
- FIG. 27 shows a device for separating the even field signal shown in FIG. 26 (B).
- the following buffer 112 records four types of color signals for two frames, that is, for four fields. Similarly to the buffer 106 described above, the color signal of the buffer 112 is overwritten from the past in time series and replaced with a new color signal.
- the extraction unit 113 converts a local region including a target pixel to be subjected to noise reduction processing and a neighboring pixel existing in the vicinity of the target pixel into a plurality of fields. Signals, for example, three field signals in this embodiment are sequentially extracted and transferred to the first noise reduction unit 600, the noise estimation unit 601 and the second noise reduction unit 602.
- the extraction unit 113 extracts 5 ⁇ 3 pixels centered on the pixel of interest from each color signal force of one field, as shown in FIG. 27, and collects these for three fields.
- Fig. 32 (A) shows the state of a local region distributed in two-dimensional space and time (that is, distributed three-dimensionally). Note that the coordinate position of the pixel of interest differs by one line between the even field signal and the odd field signal.
- the first noise reduction unit 600 receives the pixel of interest from the extraction unit 113 based on the control of the control unit 119. Then, a predetermined applicable noise reduction process is performed on the image, and the target pixel value subjected to the noise reduction process is transferred to the noise estimation unit 601 and the second noise reduction unit 602.
- the noise estimation unit 601 receives the local region from the extraction unit 113, the target pixel value subjected to the noise reduction processing from the first noise reduction unit 600, and the control unit 119.
- the amount of noise related to the pixel of interest is estimated using the above shooting conditions.
- the noise estimation unit 601 transfers the estimated noise amount to the second noise reduction unit 602.
- the second noise reduction unit 602 includes a noise amount from the noise estimation unit 601 and a video signal that has been subjected to noise reduction processing in the past in a time series from the buffer 603. Is used to perform noise reduction processing on the pixel of interest from the extraction unit 113.
- the second noise reduction unit 602 transfers the pixel value of interest after the noise reduction processing to the buffer 603.
- the frame synthesizing unit 604 reads out the even field signal subjected to the noise reduction processing and the odd field signal subjected to the noise reduction processing from the buffer 603, and outputs one frame signal. Synthesize. Further, in the present embodiment, when synthesizing the frame signal, the frame synthesizing unit 604 simultaneously converts the luminance signal Y and the color difference signals Cb and Cr as shown in the following Expression 20.
- frame synthesizing section 604 transfers the video signal synthesized with the frame signal and further converted into luminance signal Y and color difference signals Cb and Cr to signal processing section 117.
- the signal processing unit 117 Under the control of the control unit 119, the signal processing unit 117 performs known enhancement processing, compression processing, and the like on the video signal after noise reduction, and transfers the processed video signal to the output unit 118.
- the output unit 118 sequentially records video signals on a recording medium such as a memory card or a disk medium. And save.
- the first noise reduction unit 600 includes an area dividing unit 700 as an area dividing unit, a first buffer 701, a variance calculating unit 702 as a variance calculating unit, a second buffer 703, and an area selecting unit.
- An area selection unit 704 and an average value calculation unit 705 serving as an average value calculation unit are provided.
- the extraction unit 113 is connected to the first buffer 701 via the region division unit 700.
- the first notifier 701 is connected to the variance calculation unit 702 and the region selection unit 704.
- the variance calculation unit 702 is connected to the region selection unit 704 via the second buffer 703.
- the area selection unit 704 is connected to the average value calculation unit 705.
- the average value calculation unit 705 is connected to the noise estimation unit 601 and the second noise reduction unit 602.
- the control unit 119 is bidirectionally connected to the region dividing unit 700, the variance calculating unit 702, the region selecting unit 704, and the average value calculating unit 705, and controls them.
- the region dividing unit 700 extracts part of the local region from the extraction unit 113, in this embodiment, the video signal at the time t of the current field signal, and sets the pixel of interest. As a base point, it is divided into a plurality of directional areas in a predetermined direction.
- FIG. 29 shows an example of the direction-specific region in the even field signal.
- Each direction area is composed of 4 pixels including the pixel of interest (thus, pixels located on the boundary line between the two direction areas are included in both of these two direction areas).
- the pixel of interest is included in all directional areas).
- the video signal divided into the direction-specific regions is transferred to the first buffer 701.
- the variance calculation unit 702 Based on the control of the control unit 119, the variance calculation unit 702 sequentially reads the direction-specific regions and calculates the variance value of each direction-specific region.
- the variance calculation unit 702 transfers the calculated variance value to the second buffer 703.
- the region selection unit 704 reads the direction-specific region dispersion value from the second buffer 703, and selects the direction-specific region that gives the minimum dispersion value.
- the area selection unit 704 reads the video signal belonging to the selected direction-specific area from the first buffer 701. The video signal is transferred to the average value calculation unit 705 ⁇ .
- the average value calculation unit 705 calculates the average value of the direction-specific regions transferred from the region selection unit 704.
- the average value calculation unit 705 outputs the calculated average value to the target pixel value C "(in the case of an even field signal) or C"
- This noise estimation unit 601 adds a noise table unit 800 as noise table means to the noise estimation unit 115 shown in FIG. 15 of Embodiment 1 described above, and a parameter ROM 302, a parameter selection unit 303, and an interpolation unit.
- the configuration is omitted from 304! Since the other basic configuration is the same as that of the noise estimation unit 115 shown in FIG. 15, the same name is assigned to the same configuration and the description thereof is omitted as appropriate, and only different portions will be mainly described. .
- the first noise reduction unit 600, the gain calculation unit 300, and the standard value assigning unit 301 are connected to a noise table unit 800.
- the noise table unit 800 and the isolated point detection unit 307 are connected to the correction unit 3 05.
- the control unit 119 is also connected bidirectionally to the noise table unit 800, and is also controlled.
- the first noise reduction unit 600 is a pixel value C "(for even field signal) or C", for which noise reduction has been performed based on the control of the control unit 119 (for odd field signal).
- Gain calculation section 300 obtains the amplification amount in amplification section 104 based on the ISO sensitivity and exposure condition information transferred from control section 119, and transfers the obtained amplification amount to noise table section 800.
- control unit 119 acquires the temperature information of the CCD 102 from the temperature sensor 103, and transfers the acquired temperature information to the noise table unit 800.
- the noise table unit 800 is based on the target pixel value that has undergone noise reduction from the first noise reduction unit 600, gain information from the gain calculation unit 300, and temperature information from the control unit 119. To determine the amount of noise.
- This noise table unit 800 has temperature, signal level, gain and This is a look-up table for recording the relationship between the noise amount and constructed by the same means as in the first embodiment.
- the noise table unit 800 transfers the obtained noise amount N to the correction unit 305.
- the noise amount N corrected by the correction unit 305 is the noise amount N of the target pixel value (even field signal) or the target pixel value (odd number).
- the noise amount N is transferred to the second noise reduction unit 602.
- the second noise reduction unit 602 includes a previous local region extraction unit 900 as a previous local region extraction unit, a first difference unit 901 as a first difference unit, a buffer 902, and a motion estimation as a motion amount estimation unit. 903, a difference component selection unit 904 as a difference component selection unit, a motion compensation unit 905 as a motion amount compensation unit, and a second difference unit 906 as a second difference unit.
- Extraction unit 113 is connected to first difference unit 901 and second difference unit 906.
- the buffer 603 is connected to the first difference unit 901 via the previous local region extraction unit 900.
- the first difference unit 9001 is connected to the buffer 902.
- the nota 902 is connected to the motion estimation unit 903 and the motion compensation unit 905.
- the noise estimation unit 601 is connected to the motion estimation unit 903.
- the motion estimation unit 903 is connected to the motion compensation unit 905 via the difference component selection unit 904.
- the motion compensation unit 905 is connected to the second difference unit 906.
- the second difference unit 906 is connected to the buffer 603.
- control unit 119 is bidirectionally connected to the previous local region extraction unit 900, the first difference unit 901, the motion estimation unit 903, the difference component selection unit 904, the motion compensation unit 905, and the second difference unit 906. I have come to control these.
- the previous local region extraction unit 900 uses a local region related to the current pixel of interest (Fig. 32) from a plurality of video signals that have been subjected to past noise reduction processing in time series from the buffer 603. At least one video signal existing in the same position as (A) is extracted as a previous local area (see Fig. 32 (B)). (It is an area that is distributed in space and time (that is, distributed in three dimensions).) Book In the embodiment, it is assumed that the number of front local regions extracted by the front local region extraction unit 900 is one. The previous local region extraction unit 900 transfers the extracted previous local region to the first difference unit 9001.
- the first difference unit 901 receives a local region from the extraction unit 113 based on the control of the control unit 119.
- FIG. 32A shows the pixel arrangement of the local area from the extraction unit 113
- FIG. 32B shows the pixel arrangement of the front local area from the front local area extraction unit 900.
- the pixel value of interest is an even field signal.
- the technology can be applied.
- the first difference unit 901 performs difference processing between the unprocessed local region and the previous local region subjected to the second noise reduction processing.
- This difference processing is time-dependent as “between the current field (time t) and the current finale (time ijt)”, “current finale (time ijt) and the previous one (final time ijt— 1). It is performed for the three types of “between” and “between the current finale (time ijt) and the two previous financials (time ijt-2)”. Further, the difference is performed between a reference area having a predetermined size and a comparison area. In the present embodiment, the difference is performed between I X 5 pixel sizes, that is, lines in the X coordinate direction. That is, the first difference unit 901 performs difference processing as shown in the following Equation 21.
- i means a coordinate in the X-coordinate direction
- i 04 in the present embodiment. Therefore, each of the three kinds of difference components, d ", — ⁇ is calculated by 5.
- Each of C is an unprocessed pixel value, and C" is subjected to a second noise reduction process. Each pixel value means.
- the first difference unit 901 transfers the calculated three types of difference components, — 1 , — 2 to the buffer 902.
- the motion estimation unit 903 reads three kinds of difference components, d ", — 2 from the buffer 902, and the noise of the target pixel value ⁇ from the noise estimation unit 601. Then, the motion estimation unit 903 calculates the absolute value of the difference component and the noise amount N.
- the difference component is determined to be the difference component related to the motion pixel caused by the motion, and a label is added. After that, the motion estimation unit 903 selects the difference information between the label information and the noise amount N.
- the difference component selection unit 904 reads the label information related to the difference component from the motion estimation unit 903, and determines that the motion amount is the minimum (the difference component related to the motion pixel). (Ie, one of the three types of difference components, d ", which is the smallest number). The difference component selection unit 904 transfers the selection information and the noise amount N to the motion compensation unit 905.
- the motion compensation unit 905 reads the selection information from the difference component selection unit 904 based on the control of the control unit 119, and buffers the difference component of the type that minimizes the amount of motion based on the read selection information. Read from 902. After this, the selected difference component (the difference component with the smallest amount of motion) will be denoted by d. The motion compensation unit 905 performs compensation processing on the difference component d related to the target pixel position in the difference component d based on the noise amount N from the difference component selection unit 904, and calculates d ′.
- This compensation processing is performed when the difference component d exceeds the noise amount N by the following formula:
- the motion compensation unit 905 transfers the difference component d ′ 2 related to the target pixel position after the compensation processing to the second difference unit 906.
- the second difference unit 906 Based on the control of the control unit 119, the second difference unit 906 performs the following between the target pixel value ⁇ from the extraction unit 113 and the difference component d ′ after compensation processing from the motion compensation unit 905. As shown in Equation 25
- the difference process is performed to calculate the target pixel value C "t after the second noise reduction process.
- the second difference unit 906 buffers the calculated pixel value C ′ after the second noise reduction processing.
- the configuration using the color difference line sequential complementary color filter as the image pickup device has been described as an example.
- the configuration is not limited to this configuration.
- a configuration using a Bayer primary color filter as shown in FIG. 2 can be adopted, or a configuration of a two-plate image sensor or a three-plate image sensor can be adopted! / ,.
- force that employs a configuration in which processing according to direction is used for the first noise reduction processing and a plurality of time-series video signals are used for the second noise reduction processing It is not limited to.
- a filtering process using an appropriate weighting factor as described with reference to FIG. 12 or noise reduction in one image as described with reference to FIG. It is also possible to apply processing.
- the filtering process using the weighting factor it is only necessary to calculate the weighting factor based on the spatial relationship or the pixel value relationship between the target pixel and the neighboring pixel.
- the weighting factor should be calculated based on the temporal relationship between the two.
- the imaging unit is a separate unit, and a plurality of video signals captured by the separate imaging unit is recorded as raw data as unprocessed raw data.
- the accompanying information such as the temperature and exposure conditions of the image sensor at the time of shooting is taken in via the recording medium etc. through the recording medium etc., and the processing as described above is performed. Is also possible.
- force based on hardware processing is not limited to such a configuration.
- a plurality of video signals from the CCD 102 are recorded on the recording medium as raw raw data, and accompanying information such as imaging conditions (for example, the temperature and exposure of the image sensor at the time of shooting from the control unit 119) Condition) is recorded on the recording medium as header information.
- imaging conditions for example, the temperature and exposure of the image sensor at the time of shooting from the control unit 119
- the computer to execute an image processing program, which is separate software, and cause the computer to read the information on the recording medium for processing.
- the transmission of various information from the imaging unit to the computer is not limited to being performed via a recording medium, but may be performed via a communication line or the like.
- FIG. 33 the same number of steps is assigned to the processing steps that are basically the same as the processing shown in FIG. 21 of the first embodiment described above.
- step S1 a plurality of video signals are read, and header information such as the temperature and exposure conditions of the image sensor is read.
- the read video signal is divided into an even field signal as shown in FIG.
- step S50 Separated into odd field signals as shown in (C) (step S50).
- the field signal is separated into color signals for each color of the color filter used in the image sensor (step S2).
- step S3 a local region including the target pixel is extracted.
- a first noise reduction process is performed on the target pixel (step S51).
- step S52 the amount of noise related to the target pixel is estimated.
- the second noise reduction process is performed on the target pixel (step S 53).
- step S7 it is determined whether or not the processing for all local regions has been completed.
- Step S3 Return and perform the processing as described above for the unprocessed local region.
- step S8 it is further determined whether or not the processing for all the color signals is completed. If it is determined that all the color signals have been processed! /, NA! /, The process returns to step S2 to process the unprocessed color signals as described above. Perform the following process.
- step S54 If it is determined that all the color signals have been processed, the even field signal and the odd field signal are combined to calculate a frame signal (step S54).
- step S55 it is determined whether or not the processing for all video signals has been completed.
- the process returns to step S50 and the above-described processing is performed for the unprocessed video signals.
- step S 51 details of the first noise reduction processing in step S 51 will be described.
- step S60 a part of the local region is divided into a predetermined number of direction-specific regions with the target pixel as a base point.
- the average value of the selected direction-specific regions is calculated (step S63).
- the average value is output as the target pixel value subjected to the first noise reduction (step S64), and the process returns to the process shown in FIG.
- step S 52 details of the noise amount estimation processing in step S 52 will be described with reference to FIG. In FIG. 35, the same number of steps is assigned to processing steps that are basically the same as the noise amount estimation processing shown in FIG. 23 of the first embodiment described above.
- information such as temperature and gain is set from the read header information.
- a predetermined standard value is assigned (step S30).
- step S35 If it is detected that the target pixel is an isolated point, the obtained noise amount is further multiplied by a predetermined correction coefficient (step S35).
- step S36 the calculated noise amount is output (step S36), and the process returns to the process shown in FIG.
- step S53 details of the second noise reduction processing in step S53 will be described.
- a video signal subjected to noise reduction processing existing at the same position as the local region related to the current pixel of interest is extracted as a previous local region (step S81) .
- step S83 the absolute value of the difference component and the amount of noise are sequentially compared for each pixel, and the difference component that gives the absolute value greater than the amount of noise is the difference component related to the motion pixel caused by the motion. Judgment is made (step S83).
- the type of the difference component that minimizes the number determined to be the difference component related to the motion pixel is selected (step S84).
- Equation 22, Equation 23, or Equation 2 is used.
- step S85 the difference process between the target pixel value and the difference component after the compensation process is performed as shown in Formula 25, and the target pixel value after the second noise reduction process is acquired (step S86).
- step S87 the target pixel value subjected to the second noise reduction is output (step S87), and the process returns to the process shown in FIG.
- the first noise reduction process is performed by selecting an area where the variance value is minimized, the influence of the edge component can be suppressed even in a complex edge area.
- the accuracy of estimating the amount of noise in the stage can be improved.
- the first noise reduction process is relatively simple, so that the cost can be reduced.
- the noise amount is estimated using a model, the noise amount can be estimated with high accuracy. At this time, since the look-up table is used when obtaining the noise amount, the noise amount can be estimated at high speed. Since the amount of noise for the isolated point noise is set appropriately, it is possible to perform highly accurate noise reduction processing for various types of noise.
- the second noise reduction process is a process for making a determination regarding the noise reduction process based on the amount of noise, it is possible to perform an optimal noise reduction process.
- the second noise reduction process uses a past video signal in time series, a more effective noise reduction process can be performed. Since the past video signal or the current video signal is selected based on the amount of motion, it is possible to perform noise reduction processing with few side effects even in a region where the amount of motion is large.
- an image sensor having a color difference line sequential complementary color filter arranged in front it can be applied to many image pickup systems because of its high affinity with conventional image pickup systems.
- noise reduction processing is performed independently for each color signal, it is possible to prevent mutual noise from diffusing and obtain a high-quality video signal.
- FIGS. 37 to 53 show Embodiment 3 of the present invention
- FIG. 37 is a block diagram showing the configuration of the imaging system
- FIG. 38 shows the color filter arrangement of the first CCD in the local region
- FIG. Fig. 40 shows the color filter arrangement of the second CCD in the local area
- Fig. 40 shows the R color signal in the local area obtained by interpolating the output of the second CCD
- Fig. 41 shows the interpolation of the output of the second CCD.
- Fig. 42 shows the obtained B color signal in the local region.
- Fig. 42 shows the local region Y obtained by separating the G signal shown in Fig. 38, the R signal shown in Fig. 40, and the B signal shown in Fig. 41.
- FIG. 43 shows the local region Cb signal obtained by separating the G signal shown in Fig. 38, the R signal shown in Fig. 40, and the B signal shown in Fig. 41
- Fig. 44 shows the signal.
- Fig. 45 shows the local region Cr signal obtained by separating the G signal shown in Fig. 38, the R signal shown in Fig. 40, and the B signal shown in Fig. 41.
- FIG. 46 is a block diagram showing another configuration example of the first noise reduction unit
- FIG. 47 is a block diagram showing a configuration of the second noise reduction unit
- FIG. Fig. 49 shows a smoothing filter with 5 x 5 pixels
- Fig. 49 shows a smoothing filter with 3 x 3 pixels
- Fig. 50 shows what type of smoothing filter is selected according to the amount of noise.
- Fig. 51 is a flowchart showing the overall process flow by the image processing program
- Fig. 52 is a flowchart showing details of the first noise reduction process in step S91 of Fig. 51
- Fig. 53 is a second flowchart in step S92 of Fig. 51.
- 5 is a flowchart showing details of noise reduction processing.
- the imaging system of the present embodiment is the same as the imaging system shown in FIG. 1 of the first embodiment described above! /, And the CCD 102 is replaced by the first CCD 1000 and the second CCD 100: the color signal separation unit.
- first noise reduction unit 114 and second noise reduction unit 116 are luminance / chrominance separation means Y / C separation part 1002
- first noise reduction part 1003 is the first noise reduction means
- second noise reduction part is the first noise reduction part 1003. 2
- the noise reduction unit is replaced with 1004 respectively. Since the other basic configuration is the same as that of the first embodiment, the same name is assigned to the same configuration and the description is omitted as appropriate, and only different portions will be mainly described.
- the light beam that has entered through the lens system 100 and the aperture 101 has, for example, a dichroic surface. It is split into two lights with different wavelength bands and emitted in two directions by the prism system. Then, one of the divided lights reaches the first CCD 1000, and the other light reaches the second CCD 1001.
- the video signal from the first CCD 1000 and the video signal from the second CCD 1001 are amplified by the amplification unit 104, converted into a digital signal by the A / D conversion unit 105, and transferred to the buffer 106.
- the photometric evaluation unit 108 is connected to the aperture 101, the first CCD 1000, the second CCD 1001, and the amplification unit 104.
- the buffer 106 is connected to the pre-white balance unit 107, the photometric evaluation unit 108, the in-focus detection unit 109, and the Y / C separation unit 1002.
- the Y / C separation unit 1002 is connected to the notfer 112.
- the extraction unit 113 is connected to the first noise reduction unit 1003, the noise estimation unit 115, and the second noise reduction unit 1004.
- the first noise reduction unit 1003 is connected to the noise estimation unit 115 and the second noise reduction unit 1004.
- the noise estimation unit 115 is connected to the second noise reduction unit 1004.
- the second noise reduction unit 1004 is connected to the signal processing unit 117.
- the control unit 119 is connected in both directions to the Y / C separation unit 1002, the first noise reduction unit 1003, and the second noise reduction unit 1004, and also controls them.
- the temperature sensor 103 is disposed in the vicinity of the second CCD 1001, and a signal from the temperature sensor 103 is connected to the control unit 119.
- the light beam incident through the lens system 100 and the stop 101 is split by the prism system into the first light in the green wavelength band and the second light in the other wavelength bands.
- the first light is incident on the first CCD 1000 and the second light is incident on the second CCD 1001.
- the first CCD 1000 is a CCD in which only a green (G) filter as shown in FIG. 38 is arranged on the front surface, and the second CCD 1001 is a red (R) filter as shown in FIG. It is assumed that the CCD has a blue (B) filter arranged in a grid.
- a green (G) filter is not necessarily provided on the front surface of the first CCD 1000 arranged on the optical path of light in the green wavelength band. Setting You don't have to.
- the first CCD 1000 and the second CCD 1001 each generate and output a video signal.
- the video signal from the first CCD 1000 and the video signal from the second CCD 1001 are transferred to the buffer 106 via the amplifier 104 and the A / D converter 105. It is assumed that both the video signal from the first CCD 1000 and the video signal from the second CCD 1001 are recorded in the buffer 106.
- the Y / C separation unit 1002 reads the video signal from the first CCD 1000 and the video signal from the second CCD 1001 from the buffer 106 under the control of the control unit 119. Then, the Y / C separation unit 1002 performs a known interpolation process on the R filter signal and the B filter signal from the second CCD 1001 so that no missing signal as shown in FIG. 40 and FIG. Generate a number. Next, the Y / C separation unit 1002 generates the R-filter signal without missing (Fig. 40), the B-filter signal without missing (Fig. 41), and the G-filter signal from the first CCD1000 (Fig. 38). ), The luminance signal (Y) and the color difference signals (Cb, Cr) are calculated as shown in the following Expression 26.
- the Y / C separation section 1002 transfers the calculated luminance signal (Y) and color difference signals (Cb, Cr) to the notifier 112.
- the extraction unit 113 Based on the control of the control unit 119, the extraction unit 113 sequentially extracts a local region including a target pixel that is a target for noise reduction processing and a neighboring pixel that exists in the vicinity of the target pixel, Transfer to first noise reduction unit 1003, noise estimation unit 115, and second noise reduction unit 1004
- the pixel value of interest is C when the local region force is 5 pixels.
- the first noise reduction unit 1003 Based on the control of the control unit 119, the first noise reduction unit 1003 performs a predetermined applicable noise reduction process on the target pixel in the local area transferred from the extraction unit 113, and the noise reduction process is performed.
- the target pixel value is transferred to the noise estimation unit 115 and the second noise reduction unit 1004.
- the noise estimation unit 115 controls the local region transferred from the extraction unit 113, the target pixel value subjected to the noise reduction processing transferred from the first noise reduction unit 1003, and the control Based on the shooting conditions transferred from the unit 119, the amount of noise related to the target pixel is estimated. Then, the noise estimation unit 115 transfers the estimated noise amount to the second noise reduction unit 1004.
- second noise reduction unit 1004 receives the target pixel value subjected to noise reduction processing transferred from first noise reduction unit 1003, and noise transferred from noise estimation unit 115.
- the second noise reduction processing is performed on the target pixel from the extraction unit 113 based on the amount. Then, the second noise reduction unit 1004 transfers the target pixel value after the noise reduction processing to the signal processing unit 117.
- the signal processing unit 117 Based on the control of the control unit 119, the signal processing unit 117 performs enhancement processing and compression processing on the video signal after noise reduction, and transfers the processed video signal to the output unit 118. [0312]
- the output unit 118 records and stores the video signal in a recording medium such as a memory card.
- the first noise reduction unit 1003 includes a buffer 1 100 as a diffusion image recording unit, a TV norm calculation unit 1101 as a diffusion image calculation unit, a diffusion image calculation unit 1102 as a diffusion image calculation unit, and an iterative process control.
- V includes a change component calculation unit 1103 that is a means and a change component calculation means, and a diffusion control unit 1104 that is an iterative processing control means and is a stop means.
- the extraction unit 113 is connected to the buffer 1100.
- the buffer 1100 is connected to the TV norm calculation unit 1101 and the diffusion image calculation unit 1102.
- the TV norm calculation unit 1101 is connected to the diffuse image calculation unit 1102 and the change component calculation unit 1103.
- the diffusion image calculation unit 1102 is connected to the buffer 1100, the noise estimation unit 115, and the second noise reduction unit 1004.
- the change component calculation unit 1103 is connected to the diffusion image calculation unit 1102 via the diffusion control unit 1104.
- the control unit 119 includes a TV norm calculation unit 1101, a diffusion image calculation unit 1102, and a change component calculation unit.
- the diffusion control unit 1104 are bidirectionally connected to control them.
- the TV norm calculation unit 1101 calculates a total variation (TV) force rem regarding the local region stored in the buffer 1100 as shown in the following Equation 27.
- VR means the gradient of the local region R.
- the TV norm calculation unit 1101 transfers the calculated TV norm to the diffusion image calculation unit 1102 and the change component calculation unit 1103.
- diffusion image calculation section 1102 calculates a diffusion image related to the local area using the local area from buffer 1100 and the TV norm from TV norm calculation section 1101. .
- This diffusion image is the energy function E () as shown in Equation 28 below. Is repeatedly calculated as a restored image that minimizes.
- p 0 is a predetermined cost function
- ⁇ is a noise-deteriorating operator
- ⁇ is a noise-free original image
- ⁇ is a predetermined constant term
- diffusion image calculation section 1102 calculates the diffusion image based on Equation 29 below.
- ⁇ * is the adjoint operator of the degradation operator due to noise and 3 1 is the first-order partial derivative with respect to the virtual time parameter t.
- Diffusion image calculation section 1102 transfers calculated diffusion image R (t) to buffer 1100.
- TV norm calculation section 1101 recalculates the TV norm related to the local area stored in buffer 1100 based on the control of control section 119. Then, the TV norm calculation unit 1101 transfers the recalculated TV norm to the diffusion image calculation unit 1102 and the change component calculation unit 1103.
- the change component calculation unit 1103 obtains a change in the TV norm from the TV norm calculation unit 1101.
- the TV norm of the diffusion image R (t ) in the virtual time parameter t is TV (t)
- the diffusion time calculation unit 1102 updates the virtual time parameter to (t + 1) to obtain the diffusion image R (t + 1).
- the TV norm of ) is TV (t + 1) .
- the change of the TV norm is obtained as the absolute value of the difference between TV (t) and TV (t + 1) .
- the change component calculation unit 1103 transfers the calculated change in the TV norm to the diffusion control unit 1104.
- Diffusion control section 1104 receives T from change component calculation section 1103 based on the control of control section 119. By comparing the change in V norm with a predetermined threshold, it is determined that the iterative process has converged when the change in TV norm falls below the predetermined threshold, and a control signal for stopping the process is transmitted to the diffusion image calculation unit 1102 Forward to.
- the diffusion image calculation unit 1102 extracts a pixel value corresponding to the target pixel position from the diffusion image, and noise reduction is performed on the extracted pixel value.
- the noise estimation unit 115 and the second noise reduction unit 1004 As the target pixel value C ′
- diffusion image calculation unit 1102 calculates a diffusion image again for the local area stored in buffer 1100.
- the force described in the example of performing the diffusion processing based on the TV norm is not limited to such a configuration.
- PDEs partial differential equations
- the first noise reduction unit 1003 shown in FIG. 46 removes the TV norm calculation unit 1101 and calculates the diffusion image calculation unit 1102 in the configuration of the first noise reduction unit 1003 shown in FIG.
- the PDEs calculation unit 1106 as a means and the change component calculation unit 1103 are respectively replaced with a processing number calculation unit 1105 as an iterative process control means and a processing number calculation means. Since the other basic configuration is the same as that of the first noise reduction unit 1003 shown in FIG. 45, the same name is assigned to the same configuration and the description thereof is omitted as appropriate, and different parts are mainly used. I will explain only!
- the buffer 1100 is connected to the processing count calculation unit 1105 and the PDEs calculation unit 1106.
- the processing count calculation unit 1105 is connected to the diffusion control unit 1104.
- the diffusion control unit 1104 is connected to the PDEs calculation unit 1106.
- the PDEs calculation unit 1106 is connected to the nota 1100, the noise estimation unit 115, and the second noise reduction unit 1004.
- control unit 119 is connected in both directions to the processing number calculation unit 1105 and the PDEs calculation unit 1106, and controls these also.
- the PDEs calculation unit 1106 is stored in the buffer 1100 based on the control of the control unit 119.
- the non-linear diffusion equation is generally given as an equation as shown in Equation 30 below.
- c () means the energy function for obtaining the target image
- d t means the first-order partial differential with respect to the virtual time parameter t.
- the Es calculation unit 1106 transfers the calculated update image R (t) to the buffer 1100.
- the processing count calculation unit 1105 counts the number of update images R (t) written to the buffer 1100 and transfers the counted number to the diffusion control unit 1104.
- the diffusion control unit 1104 compares the number of updates from the processing count calculation unit 1105 with a predetermined threshold value, and if the number of updates exceeds a predetermined threshold value. Then, a control signal for stopping the process is transferred to the PDEs calculation unit 1106.
- the PDEs calculation unit 1106 extracts a pixel value corresponding to the target pixel position from the updated image, and the extracted pixel value is subjected to noise reduction. Transfer as pixel value C 'to noise estimation unit 115 and second noise reduction unit 1004
- the PDEs calculation unit 1106 calculates the updated image again for the local area stored in the buffer 1100.
- the second noise reduction unit 1004 includes a filter selection unit 1200 serving as a smoothing filter selection unit, a filter recording unit 1201 serving as a smoothing filter recording unit, and a smoothing unit serving as a smoothing unit. And a ging portion 1202.
- First noise reduction unit 1003, noise estimation unit 115, and filter recording unit 1201 are connected to filter selection unit 1200.
- the filter selection unit 1200 and the extraction unit 113 are connected to a smoothing unit 1202.
- the smoothing unit 1202 is connected to the signal processing unit 117.
- the control unit 119 is bi-directionally connected to the filter selection unit 1200, the filter recording unit 1201, and the smoothing unit 1202, and controls them.
- the filter selection unit 1200 reads the target pixel value C ′ from which the first noise reduction has been performed from the first noise reduction unit 1003, and the noise estimation unit 115
- the noise amount N of the target pixel is read and the average recorded in the filter recording unit 1201 is read.
- the filter recording unit 1201 includes, for example, four types (Type) having different frequency characteristics of 5 ⁇ 5 size as shown in FIGS. 48 (A) to 48 (D). A total of 8 types of smoothing filters and 4 types of smoothing filters with different frequency characteristics of 3 x 3 size as shown in Fig. 49 (A) to Fig. 49 (D). A smoothing filter is recorded.
- the Type 1 smoothing filter is a frequency characteristic filter that leaves high-frequency components, and the higher the frequency from Type 1 to Type 4, the higher the frequency.
- the filter is configured to have a frequency characteristic that further suppresses wave components.
- the filter coefficients shown in FIGS. 48 and 49 are values multiplied by 128. Therefore, the filter coefficient actually used is 1/128 of the filter coefficient shown in FIGS.
- the filter selection unit 1200 first compares the target pixel value C transferred from the first noise reduction unit 1003 with a predetermined threshold value, and if the target pixel value C 'is less than or equal to the predetermined threshold value, Five
- the filter selection unit 1200 selects the frequency characteristic type (Type) 1 to Type 4 based on the noise amount N of the pixel of interest transferred from the noise estimation unit 115! To do. This The selection is performed based on the relationship between the noise amount N and the filter type (Type) as shown in FIG. 50, for example. That is, when the amount of noise N is small, a type 1 smoothing filter is selected. As the amount of noise N increases, the type of smoothing filter to be selected is type 2, type 3, and so on. It is changed in order of Type (Type) 4. As a result, a smoothing filter having a frequency characteristic that further suppresses the high-frequency component is selected as the noise amount N increases.
- the filter selection unit 1200 transfers the smoothed finer coefficient of the selected size and frequency characteristic to the smoothing unit 1202.
- the smoothing unit 1202 Based on the control of the control unit 119, the smoothing unit 1202 performs the smoothing filter process on the local region from the extraction unit 113 using the smoothing filter coefficient from the filter selection unit 1200. Then, the smoothing unit 1202 transfers the pixel value of interest after the filtering process to the signal processing unit 117 as the pixel value of interest C ⁇ that has been subjected to the second noise reduction.
- the force S given as an example of using a two-plate CCD as an imaging system is not limited to such a configuration.
- a single-plate CCD using a Bayer primary color filter as shown in FIG. 2 or a color difference line sequential complementary filter as shown in FIG. 7 may be adopted, or a three-plate CCD may be adopted. It is also possible.
- the imaging unit is a separate unit, and the video signal captured by this separate imaging unit is processed as raw data as raw data via a recording medium or the like.
- the imaging unit it is also possible to capture the accompanying information such as the temperature and exposure conditions of the image sensor at the time of shooting through the recording medium or the like by the header section or the like, and perform the above-described processing.
- force based on hardware processing is not limited to such a configuration.
- the video signal from the first CCD 1000 and the video signal from the second CCD 1001 are recorded as unprocessed raw data on a recording medium, and accompanying information such as imaging conditions (for example, when shooting from the control unit 119)
- the image sensor temperature, exposure conditions, etc.) are recorded on the recording medium as header information.
- an image processing program which is separate software, to be executed by a computer so that the information on the recording medium is read by the computer and processed.
- each from the imaging unit to the computer The transmission of the seed information is not limited to being performed via the recording medium, but may be performed via a communication line or the like.
- FIG. 51 the same number of steps is assigned to the processing steps that are basically the same as the processing shown in FIG. 21 of the first embodiment described above.
- Step S90 a known interpolation process is performed on the R filter signal and the B filter signal in which missing pixels exist, and thereafter, the luminance signal and the color difference signal are separated as shown in Equation 26. (Step S90).
- a local region centered on the target pixel is extracted for each luminance signal and color difference signal (step S3).
- step S91 first noise reduction processing is performed on the target pixel (step S91).
- the noise amount related to the target pixel is estimated (step S5).
- a second noise reduction process is performed on the target pixel (step S92).
- step S7 it is determined whether or not the processing has been completed for all local regions.
- step S3 when it is determined that the processing for all the local regions has not been completed, the process returns to step S3 and the above-described processing is performed for the unprocessed local regions.
- step S93 it is further determined whether or not the processing has been completed for all luminance signals and color difference signals. If it is determined that the processing for all luminance signals and color difference signals is not completed, the process returns to step S90 to process the unprocessed luminance signal or color difference signal as described above. I do.
- step S9 If it is determined that all the luminance signals and color difference signals have been processed, a known enhancement process or compression process is performed (step S9).
- step S10 the processed video signal is output (step S10), and this process is terminated.
- step S10 the processed video signal is output (step S10), and this process is terminated.
- the TV norm is calculated for the diffusion image as shown in Equation 27 (step S1).
- step S104 the change component is compared with a predetermined threshold (step S104). If it is determined that the change component is larger than the predetermined threshold value, the process returns to step S101 and the above-described processing is repeated.
- step S92 the details of the second noise reduction processing in step S92 will be described.
- Step S110 When this processing is started, first, one of the smoothing filters as shown in FIG. 48 and FIG. 49 is selected based on the target pixel value subjected to the first noise reduction and the noise amount. (Step S110).
- step S111 the selected smoothing filter is read (step S111).
- the smoothing filter process is performed on the local region using the selected smoothing filter.
- the target pixel value after the filtering process is output as the target pixel value subjected to the second noise reduction (step S113), and the process returns to the process shown in FIG.
- the video signal to be processed may be a plurality of video signals (so-called moving image video signals) captured in a time-series manner rather than just a still image video signal.
- a highly accurate noise reduction process optimized for the shooting situation is performed. And a high-quality video signal can be obtained.
- the first noise reduction processing diffusion processing is performed using a TV norm or a partial differential equation.
- the TV norm is excellent in the separation performance of the edge component. Therefore, when the TV norm is used, the influence of the edge component can be suppressed even in a complicated edge region.
- the partial differential equation has a high degree of freedom of processing, various image quality adjustments can be performed by using the partial differential equation.
- the iterative process is stopped as the diffusion process shifts to a steady state, it is possible to obtain a video signal with stable image quality. Since the iterative process is stopped based on the number of repetitions of the diffusion process, the processing speed becomes constant and the operability of the system is improved.
- the second noise reduction process is a process for selecting a smoothing filter based on the amount of noise and the target pixel value subjected to the first noise reduction process
- the optimal noise reduction process is performed. Can be done.
- noise reduction processing for a specific frequency range can be easily performed, so that a subjectively preferable video signal can be obtained. Since noise reduction processing is performed independently for each luminance signal and color difference signal, optimal luminance noise reduction and color noise reduction can be performed, and a high-quality video signal can be obtained.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Description
明 細 書
撮像システム、画像処理プログラム
技術分野
[0001] 本発明は、撮像系から取り込まれた映像信号に対してノイズ低減処理を行う撮像シ ステム、画像処理プログラムに関する。
背景技術
[0002] 撮像系は、撮像素子と、この撮像素子に付随するアナログ回路および A/Dコンパ ータなどと、を備えて構成されている。この撮像系から得られる映像信号は、一般にノ ィズ成分を含有しており、このノイズ成分は、固定パターンノイズとランダムノイズとに 大另すること力でさる。
[0003] 上記固定パターンノイズは、欠陥画素などに代表されるような、主に撮像素子に起 因するノイズである。
[0004] 一方、ランダムノイズは、撮像素子およびアナログ回路にお!/、て発生するものであり 、ホワイトノイズ特性に近!/、特性を有して!/、る。
[0005] 後者のランダムノイズに関しては、例えば特開 2001— 157057号公報において、 静的に与えられる定数項 a, b, cと濃度値に変換した信号レベル Dとを用いて、ノイズ 量 Nを、 N = abeDにより関数化し、この関数から信号レベル Dに対するノイズ量 Nを推 定して、推定したノイズ量 Nに基づきフィルタリングの周波数特性を制御する技術が 開示されていて、これにより、信号レベルに対して適用的なノイズ低減処理が行われ るようになっている。
[0006] また、特開 2006— 23959号公報には、ノイズモデルに基づいてノイズ量をブロック 単位に推定し、ブロック単位にノイズ低減処理を制御する技術が記載されている。さ らに、該公報には、ノイズ量を推定するにあたりブロック内で注目画素と類似する領 域を選択して、選択された領域の平均値を用いることが記載されている。これにより、 エッジ部の影響を抑制したスペースノ リアントなノイズ低減処理を行うことが可能とな り、高品位な映像信号を得ることができる。
[0007] さらに、特開 2006— 246080号公報には、バイラテラルフィルタと呼ばれるエッジ
保存型の平滑化処理と鮮鋭化処理とを組み合わせた技術が記載されて!/、る。これに より、ノイズを低減しながらエッジ成分の劣化が小さい画像を得ることができる。
[0008] ところで近年、ノイズ等の劣化要因により劣化した画像を、非線形拡散方程式に基 づき拡散画像を算出することにより回復する技術が提案されており、例えば、 ΙΕΕΕ S IGNAL PROCESSING MAGAZINE, SEPTEMBER 2002」の第 16頁〜第 25頁に、該 技術の一例が記載されて!/、る。
[0009] しかしながら、ノイズ量は撮影時の温度,露光時間,ゲインなどの要因により動的に 変化するために、上記特開 2001— 157057号公報に記載されたような静的な定数 項を用いる技術では、撮影時のノイズ量に合わせた関数化に対応することができず、 ノイズ量の推定精度が劣ってしまっていた。また、該公報には、ノイズ量からフィルタリ ングの周波数特性を制御することが記載されて!/、るが、このフィルタリングは平坦部 分もエッジ部分も区別することなく同等に処理するために、信号レベルに基づきノィ ズ量が大であると推定された領域にあるエッジ部は劣化することになる。すなわち、原 信号とノイズとを区別した処理に対応することができず、原信号の保存性が良くない という課題がある。
[0010] これに対して、上記特開 2006— 23959号公報に記載されたものでは、注目画素と 類似する領域を選択して平均値を算出するために、エッジ成分の影響を抑制するこ と力 Sできる。しかし、ブロック内に存在するエッジ成分の割合が増加すると、選択され る類似領域が減少し、平均値の算出精度が低下する。このために、複雑なエッジ領 域においては、ノイズ量の推定精度が低下してしまうという課題がある。
[0011] さらに、上記特開 2006— 246080号公報に記載されたバイラテラルフィルタは、注 目画素と近傍画素との距離および信号差に基づき、該近傍画素に関する重み係数 を適用的に求めてフィルタリング処理を行うものである。ここで、距離および信号差に 基づき重み係数を導く過程においてはガウス関数を用いている力 S、該公報に記載の 技術では、このガウス関数のパラメータは静的に与えられる。しかし、ノイズ量は信号 レベルに応じて動的に変化するために、ノイズの発生量に応じた最適な重み係数を 算出することができず、ノイズ低減の精度が劣るという課題がある。
[0012] 本発明は上記事情に鑑みてなされたものであり、撮影状況に最適化された高精度
ななノノイイズズ低低減減処処理理をを可可能能ととすするる撮撮像像シシスステテムム、、画画像像処処理理ププロロググララムムをを提提供供すするるここととをを 目目的的ととししてていいるる。。
[[00001133]] ままたた、、本本発発明明はは、、複複雑雑ななエエッッジジ構構造造部部ににおおいいててももノノイイズズ低低減減処処理理のの精精度度がが低低下下すするる ここととののなないい、、安安定定的的かかつつ信信頼頼性性のの高高いい撮撮像像シシスステテムム、、画画像像処処理理ププロロググララムムをを提提供供すするる ここととをを目目的的ととししてていいるる。。
発発明明のの開開示示
課課題題をを解解決決すするるたためめのの手手段段
[[00001144]] 上上記記のの目目的的をを達達成成すするるたためめにに、、本本発発明明にによよるる撮撮像像シシスステテムムはは、、撮撮像像系系かからら取取りり込込まま れれたた映映像像信信号号にに対対ししててノノイイズズ低低減減処処理理をを行行うう撮撮像像シシスステテムムででああっってて、、上上記記映映像像信信号号 かかららノノイイズズ低低減減処処理理をを行行うう対対象象ででああるる注注目目画画素素とと上上記記注注目目画画素素のの空空間間的的近近傍傍にに位位置置 すするる少少ななくくとともも 11つつのの近近傍傍画画素素ととをを含含むむ局局所所領領域域をを抽抽出出すするる局局所所領領域域抽抽出出手手段段とと、、上上 記記局局所所領領域域内内ににおおいいてて上上記記注注目目画画素素にに対対ししてて適適用用的的ななノノイイズズ低低減減処処理理をを行行うう第第 11のの ノノイイズズ低低減減手手段段とと、、上上記記第第 11ののノノイイズズ低低減減手手段段にによよりりノノイイズズ低低減減処処理理ががななさされれたた注注目目画画 素素値値にに基基づづレレ、、てて上上記記注注目目画画素素にに関関すするるノノイイズズ量量をを推推定定すするるノノイイズズ推推定定手手段段とと、、上上記記 第第 11ののノノイイズズ低低減減手手段段にによよりりノノイイズズ低低減減処処理理ががななさされれたた注注目目画画素素値値とと上上記記ノノイイズズ推推定定 手手段段にによよりり推推定定さされれたたノノイイズズ量量ととにに基基づづきき上上記記注注目目画画素素にに対対ししててノノイイズズ低低減減処処理理をを行行 うう第第 22ののノノイイズズ低低減減手手段段とと、、をを具具備備ししたたももののででああるる。。
[[00001155]] ままたた、、本本発発明明にによよるる画画像像処処理理ププロロググララムムはは、、ココンンピピュューータタにに、、撮撮像像系系かからら取取りり込込ままれれ たた映映像像信信号号にに対対ししててノノイイズズ低低減減処処理理をを行行わわせせるるたためめのの画画像像処処理理ププロロググララムムででああっってて、、 ココンンピピュューータタにに、、上上記記映映像像信信号号かかららノノイイズズ低低減減処処理理をを行行うう対対象象ででああるる注注目目画画素素とと上上記記 注注目目画画素素のの空空間間的的近近傍傍にに位位置置すするる少少ななくくとともも 11つつのの近近傍傍画画素素ととをを含含むむ局局所所領領域域をを抽抽 出出すするる局局所所領領域域抽抽出出スステテッッププとと、、上上記記局局所所領領域域内内ににおおいいてて上上記記注注目目画画素素にに対対ししてて 適適用用的的ななノノイイズズ低低減減処処理理をを行行うう第第 11ののノノイイズズ低低減減スステテッッププとと、、上上記記第第 11ののノノイイズズ低低減減スス テテツツププにによよりりノノイイズズ低低減減処処理理ががななさされれたた注注目目画画素素値値にに基基づづレレ、、てて上上記記注注目目画画素素にに関関すす るるノノイイズズ量量をを推推定定すするるノノイイズズ推推定定スステテッッププとと、、上上記記第第 11ののノノイイズズ低低減減スステテッッププにによよりりノノィィ ズズ低低減減処処理理ががななさされれたた注注目目画画素素値値とと上上記記ノノイイズズ推推定定スステテッッププにによよりり推推定定さされれたたノノイイズズ 量量ととにに基基づづきき上上記記注注目目画画素素にに対対ししててノノイイズズ低低減減処処理理をを行行うう第第 22ののノノイイズズ低低減減スステテッッププ
図面の簡単な説明
園 1]本発明の実施形態 1における撮像システムの構成を示すブロック図。
園 2]上記実施形態 1の局所領域におけるべィヤー(Bayer)型原色フィルタの配置を 示す図。
園 3]上記実施形態 1の局所領域において分離された R色信号を示す図。
園 4]上記実施形態 1の局所領域において分離された Gr色信号を示す図。
園 5]上記実施形態 1の局所領域において分離された Gb色信号を示す図。
園 6]上記実施形態 1の局所領域において分離された B色信号を示す図。
園 7]上記実施形態 1の局所領域における色差線順次型補色フィルタの配置を示す 図。
園 8]上記実施形態 1の局所領域において分離された Cy色信号を示す図。
園 9]上記実施形態 1の局所領域において分離された Ye色信号を示す図。
園 10]上記実施形態 1の局所領域において分離された G色信号を示す図。
園 11]上記実施形態 1の局所領域において分離された Mg色信号を示す図。
園 12]上記実施形態 1において、 3成分から重み係数を合成する第 1ノイズ低減部の 構成例を示すブロック図。
園 13]上記実施形態 1において、 2成分から重み係数を合成する第 1ノイズ低減部の 構成例を示すブロック図。
[図 14]上記実施形態 1において、 1成分から重み係数を合成する第 1ノイズ低減部の 構成例を示すブロック図。
園 15]上記実施形態 1におけるノイズ推定部の構成を示すブロック図。
園 16]上記実施形態 1において、信号レベルに対して推定されるノイズ量の関係を示 す線図。
園 17]上記実施形態 1において、図 16に示すノイズモデルを簡略化して得られるノィ 園 18]上記実施形態 1において、図 17に示した簡略化されたノイズモデルからノイズ 量を算出する方法を説明するための線図。
園 19]上記実施形態 1における第 2ノイズ低減部の構成を示すブロック図。
園 20]上記実施形態 1にお!/、て、撮像部が別体である撮像システムの構成を示すブ ロック図。
園 21]上記実施形態 1における画像処理プログラムによる処理全体の流れを示すフ ローチャート。
[図 22]上記実施形態 1において、図 21のステップ S4における第 1ノイズ低減処理の 詳細を示すフローチャート。
[図 23]上記実施形態 1において、図 21のステップ S5におけるノイズ量推定処理の詳 細を示すフローチャート。
[図 24]上記実施形態 1において、図 21のステップ S6における第 2ノイズ低減処理の 詳細を示すフローチャート。
園 25]本発明の実施形態 2における撮像システムの構成を示すブロック図。
園 26]上記実施形態 2において、色差線順次型補色フィルタの配置と 2画素混合に より出力されるフィールド信号と局所領域とを説明するための図。
[図 27]上記実施形態 2において、図 26 (B)に示した偶数フィールド信号における GC y, MgYe, MgCy, GYe色信号への分離を説明するための図。
園 28]上記実施形態 2における第 1ノイズ低減部の構成を示すブロック図。
園 29]上記実施形態 2において、領域分割部により分割される方向別領域を説明す るための図。
園 30]上記実施形態 2におけるノイズ推定部の構成を示すブロック図。
園 31]上記実施形態 2における第 2ノイズ低減部の構成を示すブロック図。
[図 32]上記実施形態 2において、第 2ノイズ低減部により用いる近傍画素を説明する ための図。
園 33]上記実施形態 2における画像処理プログラムによる処理全体の流れを示すフ ローチャート。
[図 34]上記実施形態 2において、図 33のステップ S51における第 1ノイズ低減処理の 詳細を示すフローチャート。
[図 35]上記実施形態 2において、図 33のステップ S52におけるノイズ量推定処理の 詳細を示すフローチャート。
[図 36]上記実施形態 2において、図 33のステップ S53における第 2ノイズ低減処理の 詳細を示すフローチャート。
園 37]本発明の実施形態 3における撮像システムの構成を示すブロック図。
園 38]上記実施形態 3の局所領域における第 1CCDの色フィルタ配置を示す図。 園 39]上記実施形態 3の局所領域における第 2CCDの色フィルタ配置を示す図。 園 40]上記実施形態 3において、第 2CCDの出力を補間処理して得られる局所領域 の R色信号を示す図。
園 41]上記実施形態 3において、第 2CCDの出力を補間処理して得られる局所領域 の B色信号を示す図。
[図 42]上記実施形態 3において、図 38に示した G信号と図 40に示した R信号と図 41 に示した B信号とを分離して得られる局所領域の Y信号を示す図。
[図 43]上記実施形態 3において、図 38に示した G信号と図 40に示した R信号と図 41 に示した B信号とを分離して得られる局所領域の Cb信号を示す図。
園 44]上記実施形態 3において、図 38に示した G信号と図 40に示した R信号と図 41 に示した B信号とを分離して得られる局所領域の Cr信号を示す図。
園 45]上記実施形態 3における第 1ノイズ低減部の一構成例を示すブロック図。 園 46]上記実施形態 3における第 1ノイズ低減部の他の構成例を示すブロック図。 園 47]上記実施形態 3における第 2ノイズ低減部の構成を示すブロック図。
[図 48]上記実施形態 3における 5 X 5画素の平滑化フィルタを示す図。
[図 49]上記実施形態 3における 3 X 3画素の平滑化フィルタを示す図。
園 50]上記実施形態 3において、ノイズ量に応じてどのタイプの平滑化フィルタが選 択されるかを示す線図。
[図 51]上記実施形態 3における画像処理プログラムによる処理全体の流れを示すフ ローチャート。
[図 52]上記実施形態 3において、図 51のステップ S91における第 1ノイズ低減処理の 詳細を示すフローチャート。
[図 53]上記実施形態 3において、図 51のステップ S92における第 2ノイズ低減処理の 詳細を示すフローチャート。
発明を実施するための最良の形態
[0017] 以下、図面を参照して本発明の実施の形態を説明する。
[0018] [実施形態 1]
図 1から図 24は本発明の実施形態 1を示したものであり、図 1は撮像システムの構 成を示すブロック図、図 2は局所領域におけるべィヤー(Bayer)型原色フィルタの配 置を示す図、図 3は局所領域において分離された R色信号を示す図、図 4は局所領 域にぉレ、て分離された Gr色信号を示す図、図 5は局所領域にお!/、て分離された Gb 色信号を示す図、図 6は局所領域において分離された B色信号を示す図、図 7は局 所領域における色差線順次型補色フィルタの配置を示す図、図 8は局所領域にお!/ヽ て分離された Cy色信号を示す図、図 9は局所領域にお V、て分離された Ye色信号を 示す図、図 10は局所領域において分離された G色信号を示す図、図 11は局所領域 において分離された Mg色信号を示す図、図 12は 3成分から重み係数を合成する第 1ノイズ低減部の構成例を示すブロック図、図 13は 2成分から重み係数を合成する第 1ノイズ低減部の構成例を示すブロック図、図 14は 1成分から重み係数を合成する第 1ノイズ低減部の構成例を示すブロック図、図 15はノイズ推定部の構成を示すブロッ ク図、図 16は信号レベルに対して推定されるノイズ量の関係を示す線図、図 17は図 16に示すノイズモデルを簡略化して得られるノイズモデルを示す線図、図 18は図 17 に示した簡略化されたノイズモデルからノイズ量を算出する方法を説明するための線 図、図 19は第 2ノイズ低減部の構成を示すブロック図、図 20は撮像部が別体である 撮像システムの構成を示すブロック図、図 21は画像処理プログラムによる処理全体 の流れを示すフローチャート、図 22は図 21の S4における第 1ノイズ低減処理の詳細 を示すフローチャート、図 23は図 21の S5におけるノイズ量推定処理の詳細を示すフ ローチャート、図 24は図 21の S6における第 2ノイズ低減処理の詳細を示すフローチ ヤート、である。
[0019] 図 1に示すように、この撮像システムは、レンズ系 100と、絞り 101と、 CCD102と、 温度センサ 103と、増幅部 104と、 A/D変換部 105と、ノ ッファ 106と、プレホワイト バランス部 107と、測光評価部 108と、合焦点検出部 109と、 AFモータ 110と、色信 号分離手段たる色信号分離部 111と、バッファ 112と、局所領域抽出手段たる抽出
部 113と、第 1のノイズ低減手段たる第 1ノイズ低減部 114と、ノイズ推定手段たるノィ ズ推定部 115と、第 2のノイズ低減手段たる第 2ノイズ低減部 116と、信号処理部 117 と、出力部 118と、収集手段であり信号制御手段たる制御部 119と、外部 I/F部 120 と、を備えている。
[0020] レンズ系 100,絞り 101 , CCD102を介して撮影し出力されたアナログの映像信号 は、増幅部 104によって増幅され、 A/D変換部 105によってデジタル信号へ変換さ れる。
[0021] この A/D変換部 105からの映像信号は、バッファ 106を介して色信号分離部 111 へ転送される。バッファ 106は、プレホワイトバランス部 107と測光評価部 108と合焦 点検出部 109とへも接続されている。
[0022] プレホワイトバランス部 107は増幅部 104へ、測光評価部 108は絞り 101と CCD 10 2と増幅部 104とへ、合焦点検出部 109は AFモータ 110へ、それぞれ接続されてい
[0023] 色信号分離部 111からの信号は、バッファ 112を介して抽出部 113へ接続されて いる。抽出部 113は、第 1ノイズ低減部 114とノイズ推定部 115と第 2ノイズ低減部 11 6とへ接続されている。
[0024] 第 1ノイズ低減部 114は、ノイズ推定部 115と第 2ノイズ低減部 116とへ接続されて いる。ノイズ推定部 115は、第 2ノイズ低減部 116へ接続されている。第 2ノイズ低減 部 116は、信号処理部 117を介してメモリカードなどの出力部 118へ接続されている
〇
[0025] 制御部 119は、例えばマイクロコンピュータにより構成されていて、増幅部 104, A /D変換部 105,プレホワイトバランス部 107,測光評価部 108,合焦点検出部 109 ,色信号分離部 111 ,抽出部 113,第 1ノイズ低減部 114, ノイズ推定部 115,第 2ノ ィズ低減部 116,信号処理部 117,出力部 118と双方向に接続されており、これらを 制御するようになっている。
[0026] また、外部 I/F部 120も制御部 119と双方向に接続されている。この外部 I/F部 1 20は、電源スィッチ,シャツタボタン,撮影時の各種モードの切り替えを行うためのモ 一ドボタン等を備えたインタフェースである。
[0027] さらに、温度センサ 103からの信号も制御部 119へ接続されている。この温度セン サ 103は、 CCD102の近傍に配置されていて、該 CCD102の温度を実質的に測定 するためのものである。
[0028] 次に、図 1に示したような撮像システムの作用を、映像信号の流れに沿って説明す
[0029] ユーザは、撮影を行う前に、外部 I/F部 120を介して ISO感度などの撮影条件を
E¾疋 ^る。
[0030] その後、ユーザが、外部 I/F部 120の 2段式スィッチでなるシャツタボタンを半押し すると、この撮像システムがプリ撮像モードに入る。
[0031] レンズ系 100は、被写体の光学像を CCD102の撮像面へ結像する。
[0032] ,絞り 101は、レンズ系 100により結像される被写体光束の通過範囲を規定すること により、 CCD102の撮像面に結像される光学像の明るさを変更する。
[0033] CCD102は、結像される光学像を光電変換して、アナログの映像信号として出力 する。
[0034] なお、本実施形態においては、 CCD102として、べィヤー(Bayer)型原色フィルタ を前面に配置した単板 CCDを想定している。
[0035] ここに、図 2を参照して、べィヤー(Bayer)型原色フィルタの構成について説明する
[0036] べィヤー(Bayer)型の原色フィルタは、 2 X 2画素を基本単位として、この基本単位 内の対角する画素位置に赤 (R) ,青(B)フィルタが 1つずつ、残りの対角する画素位 置に緑 (Gr, Gb)フィルタがそれぞれ、配置されたものとなっている。なお、緑フィルタ Grと緑フィルタ Gbとは光学特性は同一である力 S、本実施形態においては処理の便 宜上、これらを区別している。ここに、赤 (R)フィルタと同一ラインにある緑フィルタが Gr、青(B)フィルタと同一ラインにある緑フィルタが Gbである。
[0037] こうして CCD102から出力されたアナログ信号は、増幅部 104によって所定量だけ の増幅が行われた後に、 A/D変換部 105によってデジタル信号へ変換されてバッ ファ 106へ転送される。なお、本実施形態においては、デジタル化された映像信号の
[0038] このバッファ 106内に記憶された映像信号は、プレホワイトバランス部 107と、測光 評価部 108と、合焦点検出部 109と、 それぞれ転送される。
[0039] プレホワイトバランス部 107は、所定範囲内のレベルの信号を色信号毎に積算(つ まり、累計的に加算)することにより、簡易ホワイトバランス係数を算出する。プレホワイ トバランス部 107は、算出した簡易ホワイトバランス係数を増幅部 104へ転送して、色 信号毎に異なるゲインを乗算させることにより、簡易ホワイトバランス処理を行わせる。
[0040] 測光評価部 108は、映像信号に基づき、設定された ISO感度,手ぶれ限界のシャ ッタ速度などを考慮して、上述した絞り 101の絞り値や CCD102の電子シャツタ速度 や増幅部 104の増幅率などを適正露光となるように制御する。
[0041] また、合焦点検出部 109は、映像信号中のエッジ強度を検出し、このエッジ強度が 最大となるように AFモータ 110を制御して、合焦信号を得る。
[0042] こうして、簡易ホワイトバランス処理や焦点調節、露出調節などが行われたところで
、ユーザが、外部 I/F部 120の 2段式スィッチでなるシャツタボタンを全押しにすると
、この撮像システムが本撮像モードに入る。
[0043] すると、プリ撮像と同様にして、映像信号がバッファ 106へ転送される。この本撮像 は、プレホワイトバランス部 107によって求められた簡易ホワイトバランス係数と、測光 評価部 108によって求められた露光条件と、合焦点検出部 109によって求められた 合焦条件と、に基づいて行われており、これらの撮影時の条件が制御部 119へ転送 される。
[0044] 本撮像によって得られたバッファ 106内の映像信号は、色信号分離部 111へ転送 される。
[0045] 色信号分離部 111は、制御部 119の制御に基づき、転送されてきた映像信号を C CD 102で使用されている色フィルタ単位の色信号に分離する。すなわち、本実施形 態においては、色信号分離部 111は、図 3に示すような R色信号と、図 4に示すような Gr色信号と、図 5に示すような Gb色信号と、図 6に示すような B色信号と、の 4種類に 分離する。そして、色信号分離部 111は、分離した各色信号をバッファ 112^転送す
[0046] 抽出部 113は、制御部 119の制御に基づき、ノイズ低減処理を行う対象である注目
画素と、この注目画素の近傍に位置する近傍画素と、を含む局所領域を順次抽出し て、第 1ノイズ低減部 114とノイズ推定部 115と第 2ノイズ低減部 116とへそれぞれ転 达 。
[0047] ここに、抽出部 113は、本実施形態においては、図 3〜図 6に示したような注目画素 を中心とする 5 X 5画素の領域を局所領域として抽出するようになっている。そして、ノ ィズ低減処理は 1画素単位で行われるために、上記 5 X 5画素の局所領域は、注目 画素の画素位置を 1画素ずつずらしながら順に抽出されることになる。従って、ある位 置の注目画素に対する局所領域と、前記注目画素から 1画素ずらした位置の新たな 注目画素に対する局所領域とは、 4行または 4列だけ重複していることになる。なお、 抽出部 113による上記抽出は、色信号毎に独立に行われる。そして、これ以降は、局 所領域内の画素値を C (Cは色信号であって C = R, Gr, Gb, B、 iは局所領域内に
ij
おける X座標 (横方向座標)であって i = 0〜4、 jは局所領域内における Y座標(縦方 向座標)であって j = 0〜4)により表記することにする。この表記に従えば、局所領域 力 X 5画素である場合には、注目画素値は C となる。
22
[0048] 第 1ノイズ低減部 114は、制御部 119の制御に基づき、抽出部 113から転送される 局所領域の注目画素に対して所定の適用的なノイズ低減処理を行い、ノイズ低減処 理がなされた注目画素値 C' をノイズ推定部 115と第 2ノイズ低減部 116とへ転送す
22
[0049] ノイズ推定部 115は、制御部 119の制御に基づき、抽出部 113から転送される局所 領域と、第 1ノイズ低減部 114から転送されるノイズ低減処理がなされた注目画素値 と、制御部 119から転送される撮影時の条件と、に基づいて、注目画素に関するノィ ズ量 N を推定する。そして、ノイズ推定部 115は、推定したノイズ量を第 2ノイズ低減
22
部 116へ転送する。
[0050] 第 2ノイズ低減部 116は、制御部 119の制御に基づき、第 1ノイズ低減部 114から転 送されるノイズ低減処理がなされた注目画素値 C' と、ノイズ推定部 115から転送さ
22
れるノイズ量 N と、に基づいて、抽出部 113からの注目画素(注目画素値 C )に対
22 22 して第 2のノイズ低減処理を行い、ノイズ低減処理後の注目画素値 C〃 を算出する。
22
そして、第 2ノイズ低減部 116は、算出した注目画素値 C〃 を信号処理部 117へ転
送する。
[0051] なお、上述した抽出部 113,第 1ノイズ低減部 114,ノイズ推定部 115,第 2ノイズ低 減部 116における各処理は、制御部 119の制御に基づき、局所領域単位で同期し て fiわれるようになってレ、る。
[0052] 信号処理部 117は、制御部 119の制御に基づき、ノイズ低減後の映像信号に対し て、公知の補間処理、強調処理、および圧縮処理などを行い、処理後の映像信号を 出力部 118 転送する。
[0053] 出力部 118は、映像信号をメモリカードなどの記録媒体に記録して保存する。
[0054] 次に、図 12を参照して、第 1ノイズ低減部 114の構成の一例について説明する。
[0055] この第 1ノイズ低減部 114は、重み係数算出手段でありビットシフト手段たるビットシ フト部 200と、第 1バッファ 201と、重み係数算出手段たる差成分算出部 202と、第 2 ノ ッファ 203と、重み係数算出手段,テーブル手段,第 1のテーブル手段を兼ねた差 成分用テーブル 204と、昇順積算部 205と、重み係数算出手段であり第 3のテープ ル手段たる孤立点用テーブル 206と、重み係数算出手段であり第 2のテーブル手段 たる座標用テーブル 207と、重み係数算出手段であり合成手段たる重み係数合成部 208と、フイノレタリング手段たるフイノレタリング咅 209と、を備えている。
[0056] 抽出部 113は、ビットシフト部 200とフィルタリング部 209とへ接続されている。ビット シフト部 200は、第 1バッファ 201と差成分算出部 202とを介して第 2バッファ 203へ 接続されている。第 2バッファ 203は、差成分用テーブル 204と昇順積算部 205とへ 接続されている。昇順積算部 205は、孤立点用テーブル 206へ接続されている。差 成分用テーブル 204と孤立点用テーブル 206と座標用テーブル 207とは、重み係数 合成部 208へ接続されている。重み係数合成部 208は、フィルタリング部 209へ接続 されている。フィルタリング部 209は、ノイズ推定部 115と第 2ノイズ低減部 116とへ接 続されている。
[0057] 制御部 119は、ビットシフト部 200,差成分算出部 202,差成分用テーブル 204, 昇順積算部 205,孤立点用テーブル 206,座標用テーブル 207,重み係数合成部 2 08 ,フィルタリング部 209と双方向に接続されており、これらを制御するようになって いる。
[0058] ビットシフト部 200は、制御部 119の制御に基づき、抽出部 113からの局所領域内 の注目画素値と近傍画素値とに対して所定ビット数の上位ビット成分を抽出する処理 を行う。上述したように、本実施形態においては、 A/D変換部 105が 12ビット (bit) 階調でデジタル化することを想定している。この場合に、ビットシフト部 200は、例え ば下位 7ビット (bit)をビットシフト処理することにより微小変動成分を除去して、 5ビッ ト (bit)の信号に変換し第 1バッファ 201へ転送する。
[0059] 差成分算出部 202は、ビットシフト処理が行われた局所領域の信号を第 1バッファ 2 01から読み出して、次の数式 1に示すように、局所領域内の画素値 Cと注目画素値 C との差成分の絶対値 Δを算出する。
22 ij
1コ
Δ =
j I C— C
i ij 22 I
[0060] そして、差成分算出部 202は、算出した差成分の絶対値 Δを第 2バッファ 203へ
1J
転送する。
[0061] 差成分用テーブル 204は、制御部 119の制御に基づき、差成分の絶対値 Δを第 2 ノ ッファ 203から読み出して、差成分の絶対値 Δ に対応する第 1の重み係数 wlを テーブル参照して求める。この差成分用テーブル 204に記録されているテーブルは 、例えば次の数式 2に示すような関数式に基づき予め算出されたものとなっている。
2] wly = e 2び i ここに、 σ 1は調整用のパラメータであり、 σ 1 = 1〜; 10程度の値を用いるようになつ ている。
[0062] なお、本実施形態においては、差成分の絶対値 Δが上述したように 5ビット (bit)の 信号 (0〜31までの値をとる信号)であるために、差成分用テーブル 204は 32個のテ 一ブルサイズとなる。
[0063] そして、差成分用テーブル 204は、求めた第 1の重み係数 wlを重み係数合成部 2 08へ転送する。
[0064] 一方、昇順積算部 205は、制御部 119の制御に基づき、第 2バッファ 203から差成
分の絶対値 Δを読み出して、昇順にソートした後に、次の数式 3に示すように、最小 値から所定数 mまでを積算した積算値 Rを算出する。
3コ k=\tm ) ここに、 S 0は昇順にソートした k番目の値を与える関数である。また、 mは注目画 素の孤立点の程度を検出するために用いられる近傍画素数を定めるための数であり 、例えば使用する画素の総数の半数程度を用いる。従って、 5 X 5 = 25画素の局所 領域を用いてレ、る本実施形態にぉレ、ては、 m= 12程度を用いることになる。
[0065] この積算値 Rは、局所領域内において、注目画素に画素値が近い m個の近傍画素 との差成分の絶対値 Δを加算したものであるために、積算値 Rが小さければ注目画 素と近傍画素との相関性が高ぐ積算値が大きければ孤立点の可能性が高いことを 示すものとなっている。
[0066] そして、昇順積算部 205は、算出した積算値 Rと、第 2バッファ 203からの差成分の 絶対値 Δ とを、孤立点用テーブル 206 転送する。
[0067] 孤立点用テーブル 206は、制御部 119の制御に基づき、積算値 Rに対応する第 2 の重み係数 w2と、差成分の絶対値 Δ に対応する混合係数 ε と、をテーブル参照 することにより求める。
[0068] ここに、孤立点用テーブル 206が記録する第 2の重み係数 w2用のテーブルは、次 の数式 4に示すような関数式に基づき予め算出されたものである。
[0069] また、孤立点用テーブル 206が記録する混合係数 ε 用のテーブルは、次の数式 5 に示すような関数式に基づき予め算出されたものである。
[0070] この混合係数 ε は、上述した第 1の重み係数 wlと第 2の重み係数 w2との混合割 合を定めるものである。
[0071] なお、本実施形態においては、上述したように、差成分の絶対値 Δ力 ビット (bit) の信号であって、かつ m= 12であることを想定しているために、第 2の重み係数 w2 用として 5ビット(bit) X 12→384のテープノレサイズ、混合係数 ε 用として 5ビット(bit
)→32のテーブルサイズが必要となり、合計で 416個のテーブルサイズとなる。
[0072] そして、孤立点用テーブル 206は、求めた第 2の重み係数 w2と混合係数 ε とを、 重み係数合成部 208 転送する。
[0073] また、座標用テーブル 207は、制御部 119の制御に基づき、局所領域内の画素の 座標値 (i, j)に対応する第 3の重み係数 w3をテーブル参照することにより求める。こ こに、座標用テーブル 207が記録する第 3の重み係数 w3用のテーブルは、例えば 次の数式 6に示すような関数式に基づき予め算出されたものである。
6コ
M¾ = 42 ここに、 σ 4は調整用のパラメータであり、 σ 4 =;!〜 10程度の値を用いるようになつ てレ、る。また、 Τは注目画素の X座標、 Τは注目画素の Υ座標をそれぞれ意味して!/、 る。従って、局所領域として 5 X 5画素の領域を想定する本実施形態においては、 T = 2, T = 2となる。
[0074] なお、本実施形態においては、局所領域が 5 X 5画素の領域であるために、座標用 テーブル 207は 25個のテーブルサイズとなる。
[0075] そして、座標用テーブル 207は、求めた第 3の重み係数 w3を重み係数合成部 20
8へ転送する。
[0076] 重み係数合成部 208は、制御部 119の制御に基づき、差成分用テーブル 204から の第 1の重み係数 wlと、孤立点用テーブル 206からの第 2の重み係数 w2および混 合係数 ε と、座標用テーブル 207からの第 3の重み係数 w3と、に基づき、次の数 式 7に示すように重み係数 wを算出する。
7]
w = l— ε ) ewl · 8 ew2 *wJ
ij ij ij ij ij
[0077] そして、重み係数合成部 208は、算出した重み係数 wをフィルタリング部 209へ転
lj
达 。
[0078] フィルタリング部 209は、制御部 119の制御に基づき、抽出部 113からの局所領域 に対して重み係数合成部 208からの重み係数 wを用いて次の数式 8に示すようにフ ィルタリング処理を行い、ノイズ低減がなされた注目画素値 C' を算出する。
22
8]
, 一』=0,4ゾ =0,4
し 22一 "
;=0,4 ;'=0,4
[0079] なお、数式 8を見れば分かるように、このフィルタリング部 209が行うフィルタリング処 理には、重み係数 wの総和により正規化を行う過程も含まれている。
[0080] そして、フィルタリング部 209は、ノイズ低減がなされた注目画素値 C' を、ノイズ推
22
定部 115と第 2ノイズ低減部 116とへ転送する。
[0081] なお、図 12に示した構成の第 1ノイズ低減部 114は、 3つの重み係数を合成してフ ィルタリング処理を行う構成のものとなっていた力 S、これに限定されるものではない。 例えば、使用する重み係数の種類を減らした第 1ノイズ低減部 114の構成も可能で ある。
[0082] 図 13は、図 12に示したような第 1ノイズ低減部 114の構成から、昇順積算部 205と 孤立点用テーブル 206とを除去して、 2つの重み係数を合成する構成例を示したも のとなつている。この場合に、重み係数合成部 208は、次の数式 9に基づいて、重み 係数 wを算出する。
1J
9]
w =wl ew3
ij ij ij
[0083] また、図 14は、図 12に示したような第 1ノイズ低減部 114の構成から、昇順積算部 2 05と孤立点用テーブル 206と座標用テーブル 207と重み係数合成部 208とを除去し て、 1つの重み係数を用いる構成例を示したものとなっている。なお、この図 14に示 す構成においては、差成分用テーブル 204は、フィルタリング部 209へ接続されてい る。そして、この場合には、第 1ノイズ低減部 114は、重み係数 wとして wlを用いる
ij ij
ことになる。
[0084] これら図 13または図 14に示したような構成を採用すれば、図 12に示した構成よりも
、低コスト化と処理速度の高速化とを図ることが可能となる。
[0085] 次に、図 15を参照して、ノイズ推定部 115の構成の一例について説明する。
[0086] このノイズ推定部 115は、収集手段たるゲイン算出部 300と、付与手段たる標準値 付与部 301と、ノ ラメータ記録手段たるパラメータ用 ROM302と、ノ ラメータ選択手 段たるパラメータ選択部 303と、補間手段たる補間部 304と、補間手段であり補正手 段たる補正部 305と、バッファ 306と、孤立点検出手段たる孤立点検出部 307と、を 備えている。
[0087] 抽出部 113は、バッファ 306を介して孤立点検出部 307へ接続されている。第 1ノィ ズ低減部 114とゲイン算出部 300と標準値付与部 301とパラメータ用 ROM302とは 、ノ ラメータ選択部 303へ接続されている。ノ ラメータ選択部 303は、補間部 304と 補正部 305とへ接続されている。さらに、補間部 304と孤立点検出部 307とは、補正 部 305へ接続されている。補正部 305は、第 2ノイズ低減部 116へ接続されている。
[0088] 制御部 119は、ゲイン算出部 300,標準値付与部 301 ,パラメータ選択部 303,補 間部 304,補正部 305,孤立点検出部 307と双方向に接続されており、これらを制御 するようになつている。
[0089] 第 1ノイズ低減部 114は、制御部 119の制御に基づき、フィルタリング処理によりノィ ズ低減がなされた注目画素値 C' をパラメータ選択部 303へ転送する。
22
[0090] ゲイン算出部 300は、制御部 119から転送される ISO感度および露光条件に関す る情報に基づき、増幅部 104における増幅量を求めて、求めた増幅量をパラメータ 選択部 303 転送する。
[0091] また、制御部 1 19は、温度センサ 103から CCD 102の温度情報を取得して、取得 した温度情報をパラメータ選択部 303へ転送する。
[0092] パラメータ選択部 303は、第 1ノイズ低減部 1 14からのノイズ低減がなされた注目画 素値 C' と、ゲイン算出部 300からのゲインの情報と、制御部 1 19からの温度情報と、 に基づきノイズ量を推定するためのパラメータの選択を行う。
[0093] ここで、パラメータ選択部 303、補間部 304、および補正部 305により行われるノィ ズ量の推定について、図 16〜図 18を参照して説明する。
[0094] 図 16は、信号レベル Lに対して推定されるノイズ量 Nをプロットしたものである。図 示のように、ノイズ量 Nは、信号レベル Lに対して例えば 2次曲線的に増加している。 この図 16に示すようなノイズ量 Nの変化を 2次関数を用いてモデル化すると、例えば 次の数式 10に示すようになる。◎。
[0095] [¾10]
N = a L2+ /3 L + γ
ここに、 α , β , γは、 2次関数の関数形状を決める定数項である。
[0096] ただし、ノイズ量 Νは、信号レベル Uこのみ依存するわけではなぐ撮像素子の温度 やゲインによっても変化する。そこで、図 16は、ある温度下において、ゲインに関連 する 3種類の ISO感度 100, 200, 400に対するノイズ量を、一例としてプロットしたも のとなつている。
[0097] 図 16に示す個々の曲線は、数式 10に示すような曲線形状となっている力 S、その定 数項 α , β , γは、ゲインに関連する ISO感度により異なっている。さらに、定数項 α , /3 , γは、温度によっても異なる。そこで、温度を t、ゲインを gとして、これら温度 tや ゲイン gへの依存性も考慮してノイズモデルの定式化を行うと、次の数式 1 1に示すよ うになる。
1 1 ]
N = a L2+ β L + γ
ここに、 α , /3 , γ は、 2次関数の関数形状を決める定数項であり、上述したよう に温度 tおよびゲイン gに依存して決まる定数項である。
[0098] ただし、数式 1 1に示すような関数を温度 tとゲイン gとの組み合わせに応じて複数記
録し、その都度演算によりノイズ量を算出することは処理的に煩雑である。このために
、図 17に示すようなモデルの簡略化を行う。
[0099] この簡略化モデルにおいては、まず、最大のノイズ量を与えるモデルを基準ノイズ モデルとして選択して、この基準ノイズモデルを所定数の折れ線により近似する(図 1
7の実線で示す折れ線参照)。
[0100] この折れ線の変曲点は、信号レベル Lとノイズ量 Nとを成分とする座標データ(L ,
n
N )により表す。ここに、 nは、変曲点が、信号レベル Lの値が小さい方から何番目の n
変曲点である力、を示す数である。
[0101] さらに、簡略化モデルにおいては、上述した基準ノイズモデルから、他のノイズモデ ルを導出するための補正係数 kも用意する。この補正係数 k は、各ノイズモデルと gt gt
基準ノイズモデルとの間において最小自乗法により予め算出して求められたものであ る。そして、この補正係数 k は、パラメータ用 ROM302に予め記憶されている。
gt
[0102] 基準ノイズモデルから他のノイズモデルを導出するには、温度 tおよびゲイン gに応 じた補正係数 kをパラメータ用 ROM302から探索して、探索した補正係数 kを基準 gt gt ノイズモデルに乗算することにより行われる。
[0103] 図 18を参照して、図 17に示したような簡易化されたノイズモデルから、ノイズ量を算 出する方法につ!/、て説明する。
[0104] 例えば、与えられた信号レベルを 1、ゲインを g、温度を tとし、これらの条件に対応す るノイズ量 Nを求めることを想定する。
[0105] このときには、まず、信号レベル 1が、基準ノイズモデルのどの区間に属する力、を探 索する。ここでは、信号レベル 1が、例えば (L , N )と(L , N )との間の区間に属
n n n+1 n+1
するものとする。すると、基準ノイズモデルにおける基準ノイズ量 を、次の数式 12に 示すような線形補間によって求める。
ほ女 12]
- Ln
[0106] 次に、求めた基準ノイズ量 Nに補正係数 kを乗算することにより、次の数式 13に示
1 gt
すように、ノイズ量 Nを求める。
13]
N = k -N
gt 1
[0107] このような原理に沿って、パラメータ選択部 303、補間部 304、および補正部 305に より、ノイズ量の推定が次のように行われる。
[0108] すなわち、まず、パラメータ選択部 303は、第 1ノイズ低減部 114からのノイズ低減 がなされた注目画素値 C' 力も信号レベル 1を、ゲイン算出部 300からのゲインの情
22
報からゲイン gを、制御部 119からの温度情報から温度 tを、それぞれ設定する。
[0109] 次に、ノ ラメータ選択部 303は、信号レベル 1が属する区間の座標データである(L
n
, N )と(L , N )とを、ノ ラメータ用 ROM302から探索して、探索した各座標デー n i +l i +l
タを補間部 304へ転送する。
[0110] さらに、ノ ラメータ選択部 303は、ゲイン gおよび温度 tに対応する補正係数 kをパ
gt ラメータ用 ROM302から探索して、探索した補正係数 kを補正部 305へ転送する。
gt
[0111] 続いて、補間部 304は、制御部 119の制御に基づき、パラメータ選択部 303からの 信号レベル 1と、区間の座標データ(L , N )および (L , N )と、に基づき、数式 12
n n n+1 n+1
を用いて基準ノイズモデルにおける基準ノイズ量 を算出する。そして、補間部 304 は、算出した基準ノイズ量 Nを補正部 305へ転送する。
[0112] その後、補正部 305は、制御部 119の制御に基づき、パラメータ選択部 303からの 補正係数 k と、補間部 304からの基準ノイズ量 Nと、に基づき、数式 13を用いてノィ
gt 1
ズ量 Nを算出する。
[0113] 一方、抽出部 113は、制御部 119の制御に基づき、局所領域をバッファ 306へ転 达 。
[0114] 孤立点検出部 307は、バッファ 306上の局所領域に関して、該局所領域内の注目 画素が孤立点であるか否かを検出する。この検出は、注目画素と、該注目画素の周 囲 8近傍画素と、の大小関係に基づき行われる。ここに、本実施形態の局所領域は、 図 3〜図 6に示すような 5 X 5画素の局所領域となっている力 S、このような局所領域内 において、数式 14または数式 15の何れかが成立する場合に、孤立点検出部 307は 、孤立点が検出されたと判断し、数式 14が成立せずかつ数式 15が成立しない場合 に孤立点が検出されな!/、と判断するようになって!/、る。
c >c かつ c >c かつ c >c かつ c >c
22 11 22 21 22 31 22 12 かつ c >c かつ c >c かつ c >c かつ c >c
22 32 22 13 22 23 22 33
ほ女 15]
c <c かつ c <c かつ c <c かつ c <c
22 11 22 21 22 31 22 12 かつ c <c かつ c <c かつ c <c かつ c <c
22 32 22 13 22 23 22 33
[0115] ここに、数式 14は、注目画素値 C が周囲 8近傍画素の何れよりも大きいことを示す
22
条件式であり、数式 15は、注目画素値 C が周囲 8近傍画素の何れよりも小さいこと
22
を示す条件式である。
[0116] そして、孤立点検出部 307は、このような孤立点検出の結果を、補正部 305へ転送 する。
[0117] 補正部 305は、制御部 119の制御に基づき、孤立点検出部 307から孤立点が検出 されたとの判断結果が転送された場合にのみ、上記ノイズ量 Nに所定の補正係数 k、 例えば k = l . 5〜4を乗算する。
[0118] そして、補正部 305は、補正したノイズ量 Nを、注目画素値 C に対して推定された
22
ノイズ量 N として、第 2ノイズ低減部 116へ転送する。
22
[0119] なお、上述では温度 tやゲイン gなどの情報を撮影毎に求めて、ノイズ量の算出に 用いるようにしているが、これに限るものではない。例えば、任意の情報を標準値付 与部 301に予め記録しておき、ノイズ量の算出時に標準値付与部 301に記録されて いる情報を読み出して使用することにより、算出過程を省略することも可能である。こ のような構成を採用すれば、処理の高速化や省電力化などを図ることが可能となる。
[0120] 次に、図 19を参照して、第 2ノイズ低減部 116の構成の一例について説明する。
[0121] この第 2ノイズ低減部 116は、ノイズ範囲設定手段たる範囲設定部 400と、切り換え 部 401と、第 1のスムージング手段たる第 1スムージング部 402と、第 2のスムージング 手段たる第 2スムージング部 403と、を備えて!/、る。
[0122] 第 1ノイズ低減部 114とノイズ推定部 115とは、範囲設定部 400へ接続されている。
範囲設定部 400は、切り換え部 401と第 1スムージング部 402と第 2スムージング部 4 03とへ接続されている。抽出部 113は、切り換え部 401へ接続されている。切り換え
部 401は、第 1スムージング部 402と第 2スムージング部 403とへ接続されている。第 1スムージング部 402と第 2スムージング部 403とは、信号処理部 117へ接続されて いる。
[0123] 制御部 119は、範囲設定部 400,切り換え部 401 ,第 1スムージング部 402,第 2ス ムージング部 403と双方向に接続されており、これらを制御するようになっている。
[0124] 第 1ノイズ低減部 114は、第 1のノイズ低減がなされた注目画素値 C' を範囲設定
22
部 400へ転送する。また、ノイズ推定部 115は、注目画素に関して推定されたノイズ 量 N を、範囲設定部 400^転送する。
22
[0125] 範囲設定部 400は、制御部 119の制御に基づき、ノイズ量に関する許容範囲の上 限 Upと下限 Lowとを、次の数式 16に示すように設定する。
16]
Up =C +N /2
22 22
Low=C — N /2
22 22
[0126] そして、範囲設定部 400は、設定した許容範囲の上限 Upおよび下限 Lowを、切り 換え部 401へ転送する。さらに、範囲設定部 400は、ノイズ量 N と第 1のノイズ低減
22
がなされた注目画素値 C' とを、第 1スムージング部 402と第 2スムージング部 403と
22
転送する。
[0127] 切り換え部 401は、制御部 119の制御に基づき、抽出部 113からの注目画素値 C
22 を読み込んで、この注目画素値 C 、範囲設定部 400から転送された許容範囲に
22
属するか否かを判断する。この判断の結果は、「ノイズ範囲に属している」, 「ノイズ範 囲を上回って!/、る」 , 「ノイズ範囲を下回って!/、る」の三通りの何れかとなる。
[0128] そして、切り換え部 401は、注目画素値 C が「ノイズ範囲に属している」と判断した
22
場合には、該注目画素値 C を第 1スムージング部 402へ転送し、それ以外の判断を
22
行った場合には、注目画素値 C を第 2スムージング部 403へ転送する。
22
[0129] 第 1スムージング部 402は、切り換え部 401から注目画素値 C が転送された場合
22
には、数式 17に示すように、範囲設定部 400からの第 1のノイズ低減がなされた注目 画素値 C' を、第 2のノイズ低減がなされた注目画素値 C" に代入する。
22 22
ほ女 17]
[0130] そして、第 1スムージング部 402は、第 2のノイズ低減処理がなされた注目画素値 C " を信号処理部 117へ転送する。
22
[0131] 一方、第 2スムージング部 403は、切り換え部 401から注目画素値 C が転送された
22
場合には、該注目画素値 C を、範囲設定部 400からのノイズ量 N に基づき補正す
22 22
る処理を行う。
[0132] すなわち、第 2スムージング部 403は、注目画素値 C 力 S「ノイズ範囲を上回ってい
22
る」と判断された場合には、次の数式 18に示すように注目画素値 C を補正して、第 2
22
また、第 2スムージング部 403は、注目画素値 C が「ノイズ範囲を下回って!/、る」と
22
判断された場合には、次の数式 19に示すように注目画素値 C を補正して、第 2のノ
22
ィズ低減処理がなされた注目画素値 C" を算出する。
22
[0134] そして、第 2スムージング部 403は、数式 18または数式 19により算出した第 2のノィ ズ低減がなされた注目画素値 C" を、信号処理部 117へ転送する。
22
[0135] なお、上述では、撮像素子としてべィヤー(Bayer)型原色フィルタを用いる構成を 例に挙げた力 このような構成に限定されるものではない。例えば、図 7に示すような 色差線順次型補色フィルタを用いる構成を採用することも可能であるし、二板撮像素 子あるいは三板撮像素子の構成を採用しても良い。例えば、図 7に示すような色差泉 順次型補色フィルタを用いる構成を採用する場合には、色信号分離部 111は、撮像 素子からの映像信号を、図 8に示すような Cy (シアン)の色信号と、図 9に示すような Ye (イェロー)の色信号と、図 10に示すような G (緑)の色信号と、図 11に示すような Mg (マゼンタ)の色信号と、の 4種類の色信号に分離することになる。そして、抽出部 113は、これら図 8〜図 11に示すように、注目画素を中心とする 5 X 5画素を局所領 域として設定することになる。また、局所領域内の画素値 Cを表記する Cは、 C = Cy
, Mg, Ye, Gとなる。
[0136] また、上述ではレンズ系 100,絞り 101 , CCD102,温度センサ 103,増幅部 104, A/D変換部 105,プレホワイトバランス部 107,測光評価部 108,合焦点検出部 10 9, AFモータ 110を含む撮像部(撮像系)を一体化した構成の撮像システムについ て説明したが、撮像システムとしてはこのような構成に限定される必要はない。例えば 、図 20に示すように、撮像部が別体であっても構わない。すなわち、図 20に示す撮 像システムは、別体の撮像部により撮像され、未処理のままの Rawデータとしてメモリ カード等の記録媒体に記録された映像信号を、該記録媒体から読み出して処理する ものとなっている。ただし、このときには、撮影時の撮像素子の温度や露光条件など の付随情報が、ヘッダ部等に記録されているものとする。なお、別体の撮像部からこ の撮像システム の各種情報の伝送は、記録媒体を介して行うに限らず、通信回線 等を介して行うようにしても構わない。
[0137] この図 20に示す撮像システムは、図 1に示した撮像システムから、レンズ系 100,絞 り 101 , CCD102,温度センサ 103,増幅部 104, A/D変換部 105,プレホワイトバ ランス部 107,測光評価部 108,合焦点検出部 109, AFモータ 110を省略して、入 力部 500,ヘッダ情報解析部 501を追加した構成となっている。この図 20に示す撮 像システムにおけるその他の基本的な構成は図 1に示したものと同様であるために、 同一の構成には同一の名称と符号を付して説明を適宜省略し、主として異なる部分 についてのみ説明する。
[0138] 入力部 500は、バッファ 106およびヘッダ情報解析部 501へ接続されている。制御 部 119は、入力部 500,ヘッダ情報解析部 501と双方向に接続されていて、これらを 制御するようになっている。
[0139] 次に、この図 20に示す撮像システムにおいて異なる作用は、以下のようになつてい
[0141] 入力部 500から読み込まれた情報の内の、映像信号はバッファ 106 ヘッダ情報
はヘッダ情報解析部 501へ、それぞれ転送される。
[0142] ヘッダ情報解析部 501は、入力部 500から転送されたヘッダ情報に基づき、撮影 時の情報 (すなわち、上述したような露光条件、撮像素子の温度など)を抽出して制 御部 119 転送する。
[0143] これ以降の処理は、図 1に示したような撮像システムと同様である。
[0144] さらに、上述ではハードウェアによる処理を前提としていた力 このような構成に限 定されるものでもない。例えば、 CCD102からの映像信号を未処理のままの Rawデ ータとしてメモリカード等の記録媒体に記録するとともに、撮像条件などの付随情報( 例えば、制御部 119からの撮影時の撮像素子の温度や露光条件など)を ッダ情報 として記録媒体に記録しておく。そして、別途のソフトウェアである画像処理プロダラ ムをコンピュータに実行させて、記録媒体の情報をコンピュータに読み取らせ、処理 することも可能である。なお、撮像部からコンピュータへの各種情報の伝送は、記録 媒体を介して行うに限らず、通信回線等を介して行うようにしても構わない。
[0145] 図 21を参照して、画像処理プログラムによる処理全体の流れについて説明する。
[0146] この処理を開始すると、まず、映像信号を読み込むとともに、撮像素子の温度や露 光条件などのヘッダ情報を読み込む (ステップ S1)。
[0147] 次に、撮像素子に使用されている色フィルタの色毎に、映像信号を色信号 分離 する(ステップ S 2)。
[0148] 続いて、図 3〜図 6に示したように、注目画素を中心とする局所領域を抽出する(ス テツプ S3)。
[0149] そして、後で図 22を参照して説明するように、注目画素に対して第 1ノイズ低減処 理を行う(ステップ S4)。
[0150] さらに、後で図 23を参照して説明するように、注目画素に関するノイズ量を推定す る(ステップ S 5)。
[0151] その後、後で図 24を参照して説明するように、注目画素に対して第 2ノイズ低減処 理を行う(ステップ S6)。
[0152] 次に、全ての局所領域についての処理が完了したか否かを判断する(ステップ S7) 。ここで、全ての局所領域についての処理が完了していないと判断された場合には、
ステップ S 3へ戻って未処理の局所領域について上述したような処理を行う。
[0153] 一方、全ての局所領域についての処理が完了したと判断された場合には、さらに、 全ての色信号についての処理が完了したか否かを判断する(ステップ S 8)。ここで、 全ての色信号にっレ、ての処理が完了して!/、な!/、と判断された場合には、ステップ S 2 へ戻って、未処理の色信号につ V、て上述したような処理を行う。
[0154] また、全ての色信号についての処理が完了したと判断された場合には、公知の補 間処理、強調処理、圧縮処理などを行う(ステップ S 9)。
[0155] そして、処理後の映像信号を出力して (ステップ S 10)、この処理を終了する。
[0156] 次に、図 22を参照して、上記ステップ S4における第 1ノイズ低減処理の詳細を説明 する。
[0157] この処理を開始すると、数式 2 ,数式 4 ,数式 5 ,数式 6に示したような関数式に基づ V、て算出された 3つの重み係数および混合係数を記録するテーブルを入力する (ス テツプ S 20)。
[0158] 続いて、局所領域内における各画素の画素値と注目画素値との差成分の絶対値
Δを、数式 1に示したように算出する (ステップ S 21)。
[0159] そして、差成分の絶対値 Δ に対応する第 1の重み係数 wlをテーブルから求める( ステップ S 22)。
[0160] さらに、数式 3に示したように、差成分の絶対値 Δを昇順にソートした後に、最小値 力も所定数 mまでを積算した積算値 Rを算出する (ステップ S 23)。
[0161] 次に、積算値 Rに対応する第 2の重み係数 w2と、差成分の絶対値 Δ に対応する 混合係数 ε と、をテーブルから求める(ステップ S 24)。
[0162] 続いて、局所領域内の座標値に対応する第 3の重み係数 w3をテーブルから求め る(ステップ S 25)。
[0163] さらに、数式 7に示したように、重み係数 wを算出する(ステップ S 26)。
ij
[0164] そして、重み係数 wを用いて局所領域に対して数式 8に示したようにフィルタリング 処理を行い、ノイズ低減がなされた注目画素値を算出する(ステップ S 27)。
[0165] その後、第 1のノイズ低減がなされた注目画素値を出力して (ステップ S 28)、図 21 に示した処理へリターンする。
[0166] 次に、図 23を参照して、上記ステップ S5におけるノイズ量推定処理の詳細を説明 する。
[0167] この処理を開始すると、まず、読み込まれたヘッダ情報から、温度やゲインなどの情 報を設定する。ここで、もしヘッダ情報に必要なパラメータが存在しない場合には、所 定の標準値を割り当てる (ステップ S 30)。
[0168] 続いて、基準ノイズモデルの座標データと補正係数とを読み込む (ステップ S31)。
[0169] さらに、第 1のノイズ低減がなされた注目画素値が属する基準ノイズモデルの区間 の座標データと、温度やゲインに対応する補正係数と、を選択する(ステップ S32)。
[0170] そして、数式 12に示したような補間処理を行って、基準ノイズ量を求める (ステップ S
33)。
[0171] また、数式 14および数式 15の処理を行って、注目画素が孤立点であるか否かを検 出する(ステップ S34)。
[0172] 次に、数式 13に示したような補正処理を行うことによりノイズ量を算出する。なお、 注目画素が孤立点であると検出された場合には、算出したノイズ量に所定の補正係 数をさらに乗算する (ステップ S35)。
[0173] その後、算出されたノイズ量を出力して(ステップ S36)、図 21に示した処理へリタ ーンする。
[0174] 次に、図 24を参照して、上記ステップ S6における第 2ノイズ低減処理の詳細を説明 する。
[0175] この処理を開始すると、まず、注目画素値に関して数式 16に示すような許容範囲を 設定する(ステップ S40)。
[0176] 続いて、注目画素値が許容範囲内に属するか否かを判断する(ステップ S41)。
[0177] ここで、注目画素値が許容範囲内に属すると判断された場合には、数式 17に示し たような処理を行う(ステップ S42)。
[0178] また、ステップ S41において、注目画素値が許容範囲内に属さないと判断された場 合には、注目画素値がノイズ範囲を上回っているか下回っているかに応じて、数式 1
8または数式 19に示したような処理を行う(ステップ S43)。
[0179] その後、第 2のノイズ低減がなされた注目画素値を出力して (ステップ S44)、図 21
に示した処理へリターンする。
[0180] なお、処理の対象となる映像信号は、静止画の映像信号だけではなぐ時系列的 に取り込まれる複数の映像信号(いわゆる動画の映像信号)であっても良い。
[0181] このような実施形態 1によれば、撮影状況に最適化された高精度なノイズ低減処理 を行うことが可能となり、高品位な映像信号を得ることができる。
[0182] また、複雑なエッジ領域にお!/、てもエッジ成分の影響を抑制して!/、るために、高精 度なノイズ量の推定が可能となり、処理の安定性および信頼性を向上することができ
[0183] 第 1のノイズ低減処理は、信号のレベル差に基づき重み係数を求めているためにェ ッジ成分の影響を効果的に抑制することができ、座標位置に基づき重み係数を求め ているためにフィルタリング処理における副作用の発生を低減することができ、信号 のレベル差から孤立点を検出して孤立点の検出結果に基づき重み係数を求めてい るために孤立点ノイズを効果的に抑制することができる。また、テーブルにより重み係 数を求めているために、処理速度を高速化することができる。さらに、ビットシフト処理 をした映像信号から重み係数を求めて!/、るために、テーブルサイズを縮小することが でき、撮像システムの低コスト化を図ることができる。そして、ビットシフトにより微小な ノイズ成分が除去されるために、処理の安定性および信頼性を向上することができる
[0184] また、ノイズ量の推定においてはモデルを用いているために、ノイズ量を高精度に 推定することが可能となる。さらに、補間処理は実装が容易であるために、システムを 低コストに構築することが可能となる。そして、孤立点状のノイズ対するノイズ量が適 切に設定されるために、多様なノイズに対して高精度なノイズ低減処理を行うことが 可能となる。
[0185] さらに、第 2のノイズ低減処理は、ノイズ量に基づきノイズ低減処理に関する判断を 行う処理であるために、最適なノイズ低減処理を行うことが可能となる。また、ノイズ低 減処理に伴う不連続性の発生を防止して、高品位な映像信号を生成することが可能 となる。そして、べィヤー(Bayer)型原色フィルタを前面に配置した撮像素子を使用 する場合には、従来の撮像系との親和性が高いために、多くの撮像システムへの適
用が可能となる。加えて、ノイズ低減処理を色信号毎に独立して行っているために、 相互のノイズが拡散するのを防止して、高品位な映像信号を得ることができる。
[0186] [実施形態 2]
図 25から図 36は本発明の実施形態 2を示したものであり、図 25は撮像システムの 構成を示すブロック図、図 26は色差線順次型補色フィルタの配置と 2画素混合により 出力されるフィールド信号と局所領域とを説明するための図、図 27は図 26 (B)に示 した偶数フィールド信号における GCy, MgYe, MgCy, GYe色信号への分離を説 明するための図、図 28は第 1ノイズ低減部の構成を示すブロック図、図 29は領域分 割部により分割される方向別領域を説明するための図、図 30はノイズ推定部の構成 を示すブロック図、図 31は第 2ノイズ低減部の構成を示すブロック図、図 32は第 2ノィ ズ低減部により用いる近傍画素を説明するための図、図 33は画像処理プログラムに よる処理全体の流れを示すフローチャート、図 34は図 33のステップ S51における第 1ノイズ低減処理の詳細を示すフローチャート、図 35は図 33のステップ S52における ノイズ量推定処理の詳細を示すフローチャート、図 36は図 33のステップ S53におけ る第 2ノイズ低減処理の詳細を示すフローチャート、である。
[0187] この実施形態 2において、上述の実施形態 1と同様である部分については同一の 符号を付して説明を省略し、主として異なる点についてのみ説明する。
[0188] 本実施形態の撮像システムは、上述した実施形態 1の図 1に示した撮像システムに 、信号記録手段たるバッファ 603,フレーム合成部 604を追加し、第 1ノイズ低減部 1 14,ノイズ推定部 115,第 2ノイズ低減部 116を第 1のノイズ低減手段たる第 1ノイズ 低減部 600,ノイズ推定手段たるノイズ推定部 601 ,第 2のノイズ低減手段たる第 2ノ ィズ低減部 602にそれぞれ置換した構成になっている。その他の基本的な構成は上 述した実施形態 1と同様であるために、同一の構成には同一の名称と符号を付して 説明を適宜省略し、主として異なる部分についてのみ説明する。
[0189] 抽出部 113は、第 1ノイズ低減部 600とノイズ推定部 601と第 2ノイズ低減部 602と へ接続されている。第 1ノイズ低減部 600は、ノイズ推定部 601へ接続されている。ノ ィズ推定部 601は、第 2ノイズ低減部 602へ接続されている。第 2ノイズ低減部 602は 、バッファ 603と双方向に接続されている。ノ ッファ 603は、フレーム合成部 604へ接
続されている。フレーム合成部 604は、信号処理部 117へ接続されている。
[0190] 制御部 119は、第 1ノイズ低減部 600,ノイズ推定部 601 ,第 2ノイズ低減部 602,フ レーム合成部 604とも双方向に接続されており、これらも制御するようになっている。
[0191] 次に、図 25に示したような撮像システムの作用は、基本的に実施形態 1と同様であ るために、映像信号の流れに沿って主として異なる部分についてのみ説明する。
[0192] 本実施形態においては、 CCD102として、色差線順次型補色フィルタを前面に配 置した単板 CCDを想定している。さらに、本実施形態においては、映像信号として、 時系列的に取り込まれる複数の映像信号により構成される動画像を想定している。
[0193] ここに、図 26 (A)は、色差線順次型補色フィルタの構成を示している。この色差線 順次型補色フィルタは、 2 X 2画素を基本単位として、シアン(Cy)およびイェロー(Y e)が 2 X 2画素の同一ラインに、マゼンタ(Mg)および緑(G)が 2 X 2画素の他の同一 ラインに、それぞれ配置されたものとなっている。ただし、マゼンタ(Mg) ,緑 (G)の位 置は、ライン毎に反転するように構成されている。
[0194] CCD102からの出力は、図 26 (B)に示すような偶数フィールド信号と、図 26 (C)に 示すように奇数フィールド信号と、に分かれている。そして、これらが時系列的に交互 に出力されることになる。
[0195] ここに、図 26 (B)は 2画素混合による偶数フィールド信号と注目画素とを示し、図 2
6 (C)は 2画素混合による奇数フィールド信号と注目画素とを示して!/、る。
[0196] 偶数フィールド信号は、図 26 (B)に示すように、(2n—l)ラインと 2nラインとの間で 垂直方向に 2画素混合された信号となっている。また、奇数フィールド信号は、図 26 (
C)に示すように、 2nラインと(2n+ l)ラインとの間で垂直方向に 2画素混合された信 号となっている。ここに、 nは 1以上の整数である。
[0197] このような混合を行うことにより、偶数フィールド信号および奇数フィールド信号は、
G + Cy (以降は GCyと表記する)と、 Mg + Ye (以降は MgYeと表記する)と、 Mg +
Cy (以降は MgCyと表記する)と、 G + Ye (以降は GYeと表記する)と、の 4種類の色 信号により構成されることになる。
[0198] そして、上述したような偶数フィールド信号と奇数フィールド信号とを合成することに より、 1枚の映像信号 (以降は、フレーム信号と表記する)が完成する。
[0199] ノ ッファ 106は、 2フレーム分、すなわち 4フィールド分の映像信号を記録するものと する。このとき、バッファ 106上の映像信号は、時系列的に過去のものから上書きされ て、新しい映像信号に置換される。
[0200] 色信号分離部 111は、制御部 119の制御に基づき、例えば図 27に示すように、フ ィールド信号を GCy, MgYe, MgCy, GYeの 4種類の色信号に分離して、ノ ッファ 1 12へ転送する。なお、図 27は、図 26 (B)に示した偶数フィールド信号を分離する様 子を示している。
[0201] 続くバッファ 112は、 4種類の色信号を、 2フレーム分、すなわち 4フィールド分記録 するものとする。このバッファ 112の色信号も、上述したバッファ 106と同様に、時系 列的に過去のものから上書きされて、新しい色信号に置換される。
[0202] 抽出部 113は、制御部 119の制御に基づき、ノイズ低減処理を行う対象である注目 画素と、この注目画素の近傍に存在する近傍画素と、を含む局所領域を複数のフィ 一ルド信号、例えば本実施形態においては 3フィールドの信号から順次抽出して、第 1ノイズ低減部 600とノイズ推定部 601と第 2ノイズ低減部 602とへ転送する。
[0203] 本実施形態においては、抽出部 113は、図 27に示すように 1フィールドの各色信号 力、ら注目画素を中心とする 5 X 3画素を抽出して、これを 3フィールド分まとめて局所 領域として設定する。従って、近傍画素は、注目画素の空間的近傍に位置しかつ時 間的近傍に位置する画素となる。ここに、図 32 (A)は、 2次元空間および時間に分布 する(つまり 3次元的に分布する)局所領域の状態を示している。なお、注目画素の 座標位置は、偶数フィールド信号と奇数フィールド信号とで 1ライン分異なってレ、る。
[0204] また、これ以降は、局所領域内の画素値を Ck (Cは色信号であって C = GCy, Mg ij
Ye, MgCy, GYe、 iは局所領域内における X座標(横方向座標)であって i = 0〜4、 jは局所領域内における Y座標(縦方向座標)であって偶数フィールドの場合には j = 0, 4, 8,奇数フィールドの場合には j = l , 5, 9、 kはフィールド信号の時刻であって 、現フィールドを tとした場合に k = t, t- 1 , t— 2)により表記することにする。この表 記に従えば、注目画素値は、偶数フィールドの場合には ^ 、奇数フィールドの場合
24
には となる。
25
[0205] 第 1ノイズ低減部 600は、制御部 119の制御に基づき、抽出部 113からの注目画素
に対して所定の適用的なノイズ低減処理を行い、ノイズ低減処理がなされた注目画 素値をノイズ推定部 601と第 2ノイズ低減部 602とへ転送する。
[0206] ノイズ推定部 601は、制御部 119の制御に基づき、抽出部 113からの局所領域と、 第 1ノイズ低減部 600からのノイズ低減処理がなされた注目画素値と、制御部 119か らの撮影時の条件と、を用いて、注目画素に関するノイズ量を推定する。ノイズ推定 部 601は、推定したノイズ量を、第 2ノイズ低減部 602へ転送する。
[0207] 第 2ノイズ低減部 602は、制御部 119の制御に基づき、ノイズ推定部 601からのノィ ズ量と、バッファ 603からの時系列的に過去にノイズ低減処理がなされた映像信号と 、を用いて、抽出部 113からの注目画素に対してノイズ低減処理を行う。第 2ノイズ低 減部 602は、ノイズ低減処理後の注目画素値を、バッファ 603へ転送する。
[0208] なお、上述した抽出部 113,第 1ノイズ低減部 600,ノイズ推定部 601 ,第 2ノイズ低 減部 602における各処理は、制御部 119の制御に基づき、局所領域単位で同期し て fiわれるようになってレ、る。
[0209] フレーム合成部 604は、制御部 119の制御に基づき、バッファ 603からノイズ低減 処理がなされた偶数フィールド信号とノイズ低減処理がなされた奇数フィールド信号 とを読み出して、 1枚のフレーム信号を合成する。さらに、フレーム合成部 604は、本 実施形態においては、フレーム信号を合成するときに、次の数式 20に示すように、輝 度信号 Yおよび色差信号 Cb, Crへの変換も同時に行う。
20コ
Y = GCy+MgYe または Y=MgCy+GYe
Cb = MgCy-GYe
Cr = MgYe-GCy
[0210] そして、フレーム合成部 604は、フレーム信号へ合成して、さらに輝度信号 Yおよび 色差信号 Cb, Cr 変換した映像信号を、信号処理部 117 転送する。
[0211] 信号処理部 117は、制御部 119の制御に基づき、ノイズ低減後の映像信号に対し て、公知の強調処理や圧縮処理などを行い、処理後の映像信号を出力部 118 転 达 。
[0212] 出力部 118は、映像信号をメモリカードやディスク媒体などの記録媒体に順次記録
して保存する。
[0213] 次に、図 28を参照して、第 1ノイズ低減部 600の構成の一例について説明する。
[0214] この第 1ノイズ低減部 600は、領域分割手段たる領域分割部 700と、第 1バッファ 70 1と、分散算出手段たる分散算出部 702と、第 2バッファ 703と、領域選択手段たる領 域選択部 704と、平均値算出手段たる平均値算出部 705と、を備えている。
[0215] 抽出部 113は、領域分割部 700を介して第 1バッファ 701へ接続されている。第 1 ノ ッファ 701は、分散算出部 702と領域選択部 704とへ接続されている。分散算出 部 702は、第 2バッファ 703を介して領域選択部 704へ接続されている。領域選択部 704は、平均値算出部 705へ接続されている。平均値算出部 705は、ノイズ推定部 6 01と第 2ノイズ低減部 602とへ接続されている。
[0216] 制御部 119は、領域分割部 700,分散算出部 702,領域選択部 704,平均値算出 部 705と双方向に接続されており、これらを制御するようになっている。
[0217] 領域分割部 700は、制御部 119の制御に基づき、抽出部 113からの局所領域の一 部、本実施形態においては現フィールド信号の時刻 tにおける映像信号を抽出して、 注目画素を基点として所定方向の複数の方向別領域へ分割する。ここに、図 29は、 偶数フィールド信号における方向別領域の一例を示すものである。この図 29に示す 方向另1 J領域は、 0° , 45° , 90° , 135° , 180° , 225° , 270° , 315° の 8方 向の方向別領域となっている。そして、各方向別領域は、何れも、注目画素を含む 4 画素から構成される(従って、 2つの方向別領域の境界線上に位置する画素は、これ ら 2つの方向別領域の両方に含まれることになる。また、注目画素は全ての方向別領 域に含まれることになる)。
[0218] 方向別領域に分割された映像信号は、第 1バッファ 701 転送される。分散算出部 702は、制御部 119の制御に基づき、方向別領域を順次読み込んで、各方向別領 域の分散値を算出する。分散算出部 702は、算出した分散値を第 2バッファ 703 転送する。
[0219] 領域選択部 704は、制御部 119の制御に基づき、第 2バッファ 703から方向別領域 の分散値を読み込んで、最小の分散値を与える方向別領域を選択する。次に、領域 選択部 704は、選択した方向別領域に属する映像信号を第 1バッファ 701から読み
込んで、この映像信号を平均値算出部 705^転送する。
[0220] 平均値算出部 705は、制御部 119の制御に基づき、領域選択部 704から転送され る方向別領域の平均値を算出する。平均値算出部 705は、算出した平均値を、ノィ ズ低減がなされた注目画素値 C" (偶数フィールド信号の場合)または C" 、(奇数フ
24 25 ィールド信号の場合)としてノイズ推定部 601および第 2ノイズ低減部 602 転送する
[0221] 次に、図 30を参照して、ノイズ推定部 601の構成の一例について説明する。
[0222] このノイズ推定部 601は、上述した実施形態 1の図 15に示したノイズ推定部 115に ノイズテーブル手段たるノイズテーブル部 800を追加し、パラメータ用 ROM302とパ ラメータ選択部 303と補間部 304とを省略した構成になって!/、る。その他の基本的な 構成は図 15に示したノイズ推定部 115と同様であるために、同一の構成には同一の 名称と符号を付して説明を適宜省略し、主として異なる部分についてのみ説明する。
[0223] 第 1ノイズ低減部 600とゲイン算出部 300と標準値付与部 301とは、ノイズテーブル 部 800 接続されている。ノイズテーブル部 800と孤立点検出部 307とは、補正部 3 05 接続されている。
[0224] 制御部 119は、ノイズテーブル部 800とも双方向に接続されており、これも制御する ようになつている。
[0225] 第 1ノイズ低減部 600は、制御部 119の制御に基づき、ノイズ低減がなされた注目 画素値 C" (偶数フィールド信号の場合)または C" 、(奇数フィールド信号の場合)
24 25
をノイズテーブル部 800 転送する。
[0226] ゲイン算出部 300は、制御部 119から転送される ISO感度および露光条件に関す る情報に基づき、増幅部 104における増幅量を求めて、求めた増幅量をノイズテー ブル部 800 転送する。
[0227] また、制御部 119は、温度センサ 103から CCD102の温度情報を取得して、取得 した温度情報をノイズテーブル部 800 転送する。
[0228] ノイズテーブル部 800は、第 1ノイズ低減部 600からのノイズ低減がなされた注目画 素値と、ゲイン算出部 300からのゲインの情報と制御部 119からの温度情報と、に基 づいてノイズ量を求める。このノイズテーブル部 800は、温度,信号レベル,ゲインと
、ノイズ量と、の間の関係を記録するルックアップテーブルであり、上述した実施形態 1と同様の手段により構築されたものである。ノイズテーブル部 800は、求めたノイズ 量 Nを補正部 305へ転送する。
[0229] 補正部 305は、上述した実施形態 1と同様に、孤立点検出部 307から孤立点が検 出されたとの判断結果が転送された場合にのみ、上記ノイズ量 Nに所定の補正係数 k、例えば k = l . 5〜4を乗算する。補正部 305で補正されたノイズ量 Nは、注目画 素値 (偶数フィールド信号の場合)のノイズ量 N 、または注目画素値 (奇数フ
24 24 25 ィールド信号の場合)のノイズ量 N として、第 2ノイズ低減部 602へ転送される。
25
[0230] 次に、図 31を参照して、第 2ノイズ低減部 602の構成の一例について説明する。
[0231] この第 2ノイズ低減部 602は、前局所領域抽出手段たる前局所領域抽出部 900と、 第 1の差分手段たる第 1差分部 901と、バッファ 902と、動き量推定手段たる動き推定 部 903と、差分成分選択手段たる差分成分選択部 904と、動き量補償手段たる動き 補償部 905と、第 2の差分手段たる第 2差分部 906と、を備えている。
[0232] 抽出部 113は、第 1差分部 901と第 2差分部 906とへ接続されている。バッファ 603 は、前局所領域抽出部 900を介して第 1差分部 901へ接続されている。第 1差分部 9 01は、バッファ 902へ接続されている。ノ ッファ 902は、動き推定部 903と動き補償 部 905とへ接続されている。ノイズ推定部 601は、動き推定部 903へ接続されている 。動き推定部 903は、差分成分選択部 904を介して動き補償部 905 接続されてい る。動き補償部 905は、第 2差分部 906へ接続されている。第 2差分部 906は、バッフ ァ 603へ接続されている。
[0233] 制御部 119は、前局所領域抽出部 900,第 1差分部 901 ,動き推定部 903,差分 成分選択部 904,動き補償部 905,第 2差分部 906と双方向に接続されており、これ らを制卸するようになってレ、る。
[0234] 前局所領域抽出部 900は、制御部 119の制御に基づき、バッファ 603から時系列 的に過去のノイズ低減処理がなされた複数の映像信号から、現注目画素に関する局 所領域(図 32 (A)参照)と同一位置に存在する映像信号を前局所領域(図 32 (B)参 照)として少なくとも 1つ抽出する(なお、この前局所領域も、局所領域と同様に、 2次 元空間および時間に分布する(つまり 3次元的に分布する)領域となっている。)。本
実施形態においては、前局所領域抽出部 900が抽出する前局所領域は、 1つである ことを想定している。前局所領域抽出部 900は、抽出した前局所領域を第 1差分部 9 01へ転送する。
[0235] 一方、第 1差分部 901は、制御部 119の制御に基づき、抽出部 1 13から局所領域 を受領する。ここに、図 32 (A)は抽出部 113からの局所領域の画素配置を、図 32 (B )は前局所領域抽出部 900からの前局所領域の画素配置を、それぞれ示している。
[0236] 図 32に示す例においては、注目画素値が偶数フィールド信号の であるものとし
24
ている。これ以降の説明においては、注目画素値が偶数フィールド信号の である
24 ものとして説明する力 S、注目画素が奇数フィールド信号の である場合にも、同様
25
の技術を適用することができる。
[0237] 第 1差分部 901は、未処理の局所領域と、第 2のノイズ低減処理がなされた前局所 領域と、の間で差分処理を行う。この差分処理は、時刻的には「現フィールド(時刻 t) と現フィーノレド(時亥 ijt)との間」、「現フィーノレド(時亥 ijt)と 1フィーノレド前のフィーノレド( 時亥 ijt— 1 )との間」、「現フィーノレド(時亥 ijt)と 2フィーノレド前のフィーノレド(時亥 ijt— 2)と の間」の三種類に対して行われる。また、差分は、所定サイズの基準領域と、比較領 域と、の間で行われる。本実施形態においては、差分は、 I X 5画素サイズ、つまり X 座標方向のライン間で行われる。すなわち、第 1差分部 901は、次の数式 21に示す ように差分処理を行う。
21 ]
d* = - C*
i iO i4
- i = ( c"t- 1 + 3c"t— 1 ) /A - Cl
i5 i4
ここに、 iは X座標方向の座標を意味し、本実施形態においては i = 0 4をとる。従 つて、三種類の差分成分 , d" , — ^は、それぞれ 5個ずつ算出されることになる。ま た、 Cは未処理の画素値を、 C"は第 2のノイズ低減処理がなされた画素値を、それぞ れ意味している。
[0238] そして、第 1差分部 901は、算出した三種類の差分成分 , — 1 , — 2を、バッファ 9 02へ転送する。
[0239] 動き推定部 903は、制御部 119の制御に基づき、バッファ 902から三種類の差分 成分 , d" , — 2を読み込むとともに、ノイズ推定部 601から注目画素値 ^ のノイズ i i i 24 量 N を読み込む。そして、動き推定部 903は、差分成分の絶対値とノイズ量 N とを
24 24 差分成分の種類毎に各画素単位で順次比較して、ノイズ量 N 以上の絶対値を与え
24
る差分成分を、動きに起因する動き画素に係る差分成分であると判断してラベルを 付加する。その後、動き推定部 903は、ラベル情報とノイズ量 N とを、差分成分選択
24
部 904へ転送する。
[0240] 差分成分選択部 904は、制御部 119の制御に基づき、動き推定部 903から差分成 分に関するラベル情報を読み込んで、動き量が最小(動き画素に係る差分成分であ ると判断された数が最小)となる種類の差分成分 (すなわち、三種類の差分成分 , d" , の内の何れか一種類の差分成分)を選択する。上記選択は、ラベルが付加 された数が最小となる種類の差分成分を選択することにより行われる。そして、差分 成分選択部 904は、選択情報とノイズ量 N とを動き補償部 905へ転送する。
24
[0241] 動き補償部 905は、制御部 119の制御に基づき、差分成分選択部 904から選択情 報を読み込み、読み込んだ選択情報に基づいて、動き量が最小とされる種類の差分 成分をバッファ 902から読み出す。これ以降は、選択された差分成分 (動き量が最小 となる種類の差分成分)を dにより表記するものとする。動き補償部 905は、差分成分 d中の注目画素位置に関する差分成分 dに関して、差分成分選択部 904からのノィ ズ量 N に基づき補償処理を行い、 d'を算出する。
24 2
[0242] この補償処理は、差分成分 dがノイズ量 N を「上回っている」場合には、次の数式
2 24
22により行われる。
ほ女 22]
d' =N
2 24
また、補償処理は、差分成分 dがノイズ量 N を「下回っている」場合は、次の数式 2
2 24
3により行われる。
ほ女 23]
d' = -N
2 24
さらに、補償処理は、上述以外の場合は、次の数式 24により行われる。
24コ
d' =d
[0243] 動き補償部 905は、補償処理後の注目画素位置に関する差分成分 d'2を、第 2差分 部 906へ転送する。
[0244] 第 2差分部 906は、制御部 119の制御に基づき、抽出部 113からの注目画素値 ^ と、動き補償部 905からの補償処理後の差分成分 d'と、の間で次の数式 25に示す
4 2
ように差分処理を行い、第 2のノイズ低減処理後の注目画素値 C"t を算出する。
24
[0245] 第 2差分部 906は、算出した第 2のノイズ低減処理後の注目画素値 C' を、バッフ
24
ァ 603へ転送する。
[0246] なお、上述では、撮像素子として色差線順次型補色フィルタを用いる構成を例に挙 げたが、このような構成に限定されるものではない。例えば、図 2に示したようなべィャ 一(Bayer)型原色フィルタを用いる構成を採用することも可能であるし、二板撮像素 子あるいは三板撮像素子の構成を採用しても良!/、。
[0247] そして、上述では、第 1のノイズ低減処理に方向別の処理を用い、第 2のノイズ低減 処理に時系列的な複数の映像信号を用いる構成を採用していた力 このような構成 に限定されるものでもない。例えば、実施形態 1において図 12を参照して説明したよ うな適用的な重み係数を用レ、るフィルタリング処理や、図 19を参照して説明したよう な 1枚の画像内においてノイズを低減する処理などを適用することも可能である。ここ に、重み係数を用いるフィルタリング処理においては、注目画素と近傍画素との間の 空間的関連性や画素値的関連性に基づいて重み係数を算出するだけでなぐさらに 、注目画素と近傍画素との間の時間的関連性に基づいて重み係数を算出すると良 い。
[0248] また、上述した実施形態 1と同様に、撮像部は別体であって、この別体の撮像部に より撮像された複数の映像信号を未処理のままの Rawデータとして記録媒体等を介 して取り込むとともに、さらに撮影時の撮像素子の温度や露光条件などの付随情報 をヘッダ部などにより記録媒体等を介して取り込んで、上述したような処理を行うこと
も可能である。
[0249] さらに、上述ではハードウェアによる処理を前提としていた力 このような構成に限 定されるものでもない。例えば、 CCD102からの複数の映像信号を未処理のままの R awデータとして記録媒体に記録するとともに、撮像条件などの付随情報 (例えば、制 御部 119からの撮影時の撮像素子の温度や露光条件など)をヘッダ情報として記録 媒体に記録しておく。そして、別途のソフトウェアである画像処理プログラムをコンビュ ータに実行させて、記録媒体の情報をコンピュータに読み取らせ、処理することも可 能である。なお、撮像部からコンピュータへの各種情報の伝送は、記録媒体を介して 行うに限らず、通信回線等を介して行うようにしても構わない。
[0250] 図 33を参照して、画像処理プログラムによる処理全体の流れについて説明する。
なお、この図 33において、上述した実施形態 1の図 21に示した処理と基本的にほぼ 同一な処理ステップに関しては、同一のステップ数を割り当てている。
[0251] この処理を開始すると、まず、複数の映像信号を読み込むとともに、撮像素子の温 度や露光条件などのヘッダ情報を読み込む (ステップ S 1 )。
[0252] 次に、読み込んだ映像信号を、図 26 (B)に示すような偶数フィールド信号と、図 26
(C)に示すような奇数フィールド信号と、へ分離する(ステップ S50)。
[0253] 続いて、図 27に示すように、撮像素子に使用されている色フィルタの色毎に、フィ 一ルド信号を色信号へ分離する (ステップ S2)。
[0254] そして、図 32 (A)に示すように、注目画素を包含する局所領域を抽出する(ステツ プ S3)。
[0255] さらに、後で図 34を参照して説明するように、注目画素に対して第 1ノイズ低減処理 を行う(ステップ S51)。
[0256] その後、後で図 35を参照して説明するように、注目画素に関するノイズ量を推定す る(ステップ S 52)。
[0257] 加えて、後で図 36を参照して説明するように、注目画素に対して第 2ノイズ低減処 理を行う(ステップ S 53)。
[0258] 次に、全ての局所領域についての処理が完了したか否かを判断する(ステップ S7)
。ここで、全ての局所領域についての処理が完了していないと判断された場合には、
ステップ S3 戻って未処理の局所領域について上述したような処理を行う。
[0259] 一方、全ての局所領域についての処理が完了したと判断された場合には、さらに、 全ての色信号についての処理が完了したか否かを判断する(ステップ S8)。ここで、 全ての色信号にっレ、ての処理が完了して!/、な!/、と判断された場合には、ステップ S2 戻って、未処理の色信号につ V、て上述したような処理を行う。
[0260] また、全ての色信号についての処理が完了したと判断された場合には、偶数フィー ルド信号と奇数フィールド信号とを合成して、フレーム信号を算出する(ステップ S 54 )。
[0261] そして、フレーム信号に、公知の強調処理および圧縮処理などを行う(ステップ S9)
[0262] 続いて、処理後のフレーム信号を出力する(ステップ S 10
[0263] その後、全ての映像信号についての処理が完了したか否かを判断する(ステップ S 55)。ここで、全ての映像信号についての処理が完了していないと判断された場合に は、ステップ S50 戻って、未処理の映像信号について上述したような処理を行う。
[0264] 一方、全ての映像信号についての処理が完了したと判断された場合には、この処 理を終了する。
[0265] 次に、図 34を参照して、上記ステップ S 51における第 1ノイズ低減処理の詳細を説 明する。
[0266] この処理を開始すると、まず、図 29に示すように、局所領域の一部を、注目画素を 基点とする所定数の方向別領域 分割する (ステップ S60)
[0267] 次に、各方向別領域の分散値を算出する(ステップ S61
[0268] 続!/、て、最小の分散値を与える方向別領域を選択する(ステップ S62)
[0269] さらに、選択された方向別領域の平均値を算出する (ステップ S63
[0270] その後、平均値を、第 1のノイズ低減がなされた注目画素値として出力して (ステツ プ S64)、図 33に示した処理へリターンする。
[0271] 次に、図 35を参照して、上記ステップ S 52におけるノイズ量推定処理の詳細を説明 する。なお、この図 35において、上述した実施形態 1の図 23に示したノイズ量推定処 理と基本的にほぼ同一な処理ステップに関しては、同一のステップ数を割り当ててい
[0272] この処理を開始すると、まず、読み込まれたヘッダ情報から、温度やゲインなどの情 報を設定する。ここで、もしヘッダ情報に必要なパラメータが存在しない場合には、所 定の標準値を割り当てる (ステップ S 30)。
[0273] 続いて、温度やゲインに対応するノイズ量テーブルを入力して、画素値に応じたノ ィズ量を求める(ステップ S 70)。
[0274] さらに、近傍画素を用いて数式 14および数式 15の処理を行い、注目画素が孤立 点であるか否かを検出する(ステップ S34)。
[0275] そして、注目画素が孤立点であることが検出された場合には、求められたノイズ量 に所定の補正係数をさらに乗算する(ステップ S35)。
[0276] その後、算出されたノイズ量を出力して (ステップ S36)、図 33に示した処理へリタ ーンする。
[0277] 次に、図 36を参照して、上記ステップ S53における第 2ノイズ低減処理の詳細を説 明する。
[0279] 続いて、図 32 (B)に示したような、現注目画素に関する局所領域と同一位置に存 在するノイズ低減処理がなされた映像信号を前局所領域として抽出する(ステップ S8 1)。
[0280] さらに、数式 21に示したように、三種類の差分成分を算出する (ステップ S82)。
[0281] そして、差分成分の絶対値とノイズ量とを各画素単位で順次比較して、ノイズ量以 上の絶対値を与える差分成分を、動きに起因する動き画素に係る差分成分であると 判断する(ステップ S83)。
[0282] その後、三種類の差分成分の内の、動き画素に係る差分成分であると判断された 数が最小となる種類の差分成分を選択する (ステップ S84)。
[0283] 次に、動き量が最小であるとして選択された種類の差分成分の中の注目画素位置 に関する差分成分に対して、ノイズ量 N に基づき、数式 22、数式 23、または数式 2
24
4に示したような補償処理を行う(ステップ S85)。
[0284] 続いて、注目画素値と補償処理後の差分成分との差分処理を数式 25に示したよう に行い、第 2のノイズ低減処理後の注目画素値を取得する(ステップ S86)。
[0285] その後、第 2のノイズ低減がなされた注目画素値を出力して (ステップ S87)、図 33 に示した処理へリターンする。
[0286] このような実施形態 2によれば、撮影状況に最適化された高精度なノイズ低減処理 を行うことが可能となり、高品位な映像信号を得ることができる。
[0287] また、時系列的に撮影された複数の映像信号に関して巡回型のノイズ低減処理を 行うようにしたために、ノイズ低減処理の平滑化性能とエッジ部の保存性能とを向上 すること力 S可倉 となる。
[0288] さらに、第 1のノイズ低減処理は、分散値が最小となる領域を選択して行う処理であ るために、複雑なエッジ領域においてもエッジ成分の影響を抑制することができ、後 段のノイズ量推定の精度を向上することができる。また、第 1のノイズ低減処理は、処 理が比較的単純であるために、低コスト化を図ることが可能となる。
[0289] そして、ノイズ量の推定においてはモデルを用いているために、ノイズ量を高精度 に推定することが可能となる。このとき、ノイズ量を求める際にルックアップテーブルを 用いているために、ノイズ量を高速に推定することが可能となる。そして、孤立点状の ノイズ対するノイズ量が適切に設定されるために、多様なノイズに対して高精度なノィ ズ低減処理を行うことが可能となる。
[0290] さらに、第 2のノイズ低減処理は、ノイズ量に基づきノイズ低減処理に関する判断を 行う処理であるために、最適なノイズ低減処理を行うことが可能となる。また、第 2のノ ィズ低減処理は、時系列的に過去の映像信号を利用する処理であるために、より効 果の大きいノイズ低減処理を行うことが可能となる。そして、動き量に基づいて過去の 映像信号または現在の映像信号を選択しているために、動き量の大きい領域であつ ても副作用の少ないノイズ低減処理を行うことが可能となる。さらに、色差線順次型補 色フィルタを前面に配置した撮像素子を使用する場合には、従来の撮像系との親和 性が高いために、多くの撮像システムへの適用が可能となる。加えて、ノイズ低減処 理を色信号毎に独立して行っているために、相互のノイズが拡散するのを防止して、 高品位な映像信号を得ることができる。
[0291] [実施形態 3]
図 37から図 53は本発明の実施形態 3を示したものであり、図 37は撮像システムの 構成を示すブロック図、図 38は局所領域における第 1CCDの色フィルタ配置を示す 図、図 39は局所領域における第 2CCDの色フィルタ配置を示す図、図 40は第 2CC Dの出力を補間処理して得られる局所領域の R色信号を示す図、図 41は第 2CCD の出力を補間処理して得られる局所領域の B色信号を示す図、図 42は図 38に示し た G信号と図 40に示した R信号と図 41に示した B信号とを分離して得られる局所領 域の Y信号を示す図、図 43は図 38に示した G信号と図 40に示した R信号と図 41に 示した B信号とを分離して得られる局所領域の Cb信号を示す図、図 44は図 38に示 した G信号と図 40に示した R信号と図 41に示した B信号とを分離して得られる局所領 域の Cr信号を示す図、図 45は第 1ノイズ低減部の一構成例を示すブロック図、図 46 は第 1ノイズ低減部の他の構成例を示すブロック図、図 47は第 2ノイズ低減部の構成 を示すブロック図、図 48は 5 X 5画素の平滑化フィルタを示す図、図 49は 3 X 3画素 の平滑化フィルタを示す図、図 50はノイズ量に応じてどのタイプの平滑化フィルタが 選択される力、を示す線図、図 51は画像処理プログラムによる処理全体の流れを示す フローチャート、図 52は図 51のステップ S91における第 1ノイズ低減処理の詳細を示 すフローチャート、図 53は図 51のステップ S92における第 2ノイズ低減処理の詳細を 示すフローチャート、である。
[0292] この実施形態 3において、上述の実施形態 1 , 2と同様である部分については同一 の符号を付して説明を省略し、主として異なる点についてのみ説明する。
[0293] 本実施形態の撮像システムは、上述した実施形態 1の図 1に示した撮像システムに お!/、て、 CCD102を第 1CCD1000および第 2CCD100: こ置換し、さら ίこ色信号 分離部 111 ,第 1ノイズ低減部 114,第 2ノイズ低減部 116を輝度色差分離手段たる Y/C分離部 1002,第 1のノイズ低減手段たる第 1ノイズ低減部 1003,第 2のノイズ 低減手段たる第 2ノイズ低減部 1004にそれぞれ置換した構成になっている。その他 の基本的な構成は上述した実施形態 1と同様であるために、同一の構成には同一の 名称と符号を付して説明を適宜省略し、主として異なる部分についてのみ説明する。
[0294] レンズ系 100および絞り 101を介して入射された光束は、例えばダイクロイツク面を
有するプリズム系により、波長帯域の異なる 2つの光に分割されて 2方向へ射出され る。そして、分割された内の一方の光が第 1CCD1000へ到達し、他方の光が第 2C CD1001へ到達する。第 1CCD1000からの映像信号と第 2CCD1001からの映像 信号とは、増幅部 104によって増幅され、 A/D変換部 105によってデジタル信号へ 変換されて、バッファ 106へ転送される。
[0295] 測光評価部 108は、絞り 101と第 1CCD1000と第 2CCD1001と増幅部 104とへ 接続されている。バッファ 106は、プレホワイトバランス部 107と測光評価部 108と合 焦点検出部 109と Y/C分離部 1002とへ接続されている。 Y/C分離部 1002は、 ノ ッファ 112へ接続されている。抽出部 113は、第 1ノイズ低減部 1003とノイズ推定 部 115と第 2ノイズ低減部 1004とへ接続されている。第 1ノイズ低減部 1003は、ノィ ズ推定部 115と第 2ノイズ低減部 1004とへ接続されている。ノイズ推定部 115は、第 2ノイズ低減部 1004へ接続されている。第 2ノイズ低減部 1004は、信号処理部 117 へ接続されている。
[0296] 制御部 119は、 Y/C分離部 1002,第 1ノイズ低減部 1003,第 2ノイズ低減部 100 4とも双方向に接続されており、これらも制御するようになっている。
[0297] さらに、温度センサ 103は、第 2CCD1001の近傍に配置されていて、この温度セ ンサ 103からの信号は、制御部 119へ接続されている。
[0298] 次に、図 37に示したような撮像システムの作用は、基本的に実施形態 1と同様であ るために、映像信号の流れに沿って主として異なる部分についてのみ説明する。
[0299] レンズ系 100および絞り 101を介して入射された光束は、プリズム系により、緑色の 波長帯域の第 1の光と、それ以外の波長帯域の第 2の光と、に分割される。そして、こ れらの内の第 1の光は第 1CCD1000に、第 2の光は第 2CCD1001に、それぞれ入 射する。
[0300] ここに、本実施形態においては、第 1CCD1000は図 38に示すような緑(G)フィル タのみを前面に配置した CCD、第 2CCD1001は図 39に示すような赤(R)フィルタと 青(B)フィルタとを格子状に配置した CCDであることを想定している。なお、プリズム 系が上述したようにダイクロイツク面を備えたものである場合には、緑色の波長帯域の 光の光路上に配置される第 1CCD1000の前面には、必ずしも緑(G)のフィルタを設
けなくても構わない。
[0301] そして、第 1CCD1000および第 2CCD1001は、それぞれ映像信号を生成して出 力する。
[0302] 第 1CCD1000からの映像信号と第 2CCD1001からの映像信号とは、増幅部 104 , A/D変換部 105を介してバッファ 106へ転送される。そして、このバッファ 106に は、第 1CCD1000からの映像信号と、第 2CCD1001からの映像信号と、の両方が 記録されるものとする。
[0303] Y/C分離部 1002は、制御部 119の制御に基づき、バッファ 106から、第 1CCD1 000からの映像信号と第 2CCD1001からの映像信号とを読み込む。そして、 Y/C 分離部 1002は、第 2CCD1001からの Rフィルタの信号と Bフィルタの信号とに関し ては、公知の補間処理を行うことにより、図 40および図 41に示すような欠落のない信 号を生成する。次に、 Y/C分離部 1002は、生成した欠落のない Rフィルタの信号( 図 40)と、欠落のない Bフィルタの信号(図 41)と、第 1CCD1000からの Gフィルタの 信号 (図 38)と、に基づき、次の数式 26に示すように、輝度信号 (Y)と色差信号 (Cb , Cr)とを算出する。
26コ
Y = 0. 29900R+ 0. 58700G + 0. 11400B
Cb=— 0. 16874R-0. 33126G + 0. 50000B
Cr= 0. 50000R-0. 41869G— 0. 08131B
[0304] Y/C分離部 1002は、算出した輝度信号 (Y)と色差信号 (Cb, Cr)とを、ノ ッファ 1 12へ転送する。
[0305] 抽出部 113は、制御部 119の制御に基づき、ノイズ低減処理を行う対象である注目 画素と、この注目画素の近傍に存在する近傍画素と、を含む局所領域を順次抽出し て、第 1ノイズ低減部 1003とノイズ推定部 115と第 2ノイズ低減部 1004とへ転送する
[0306] ここに、抽出部 113は、本実施形態においては、図 42〜図 44に示すような、注目 画素を中心とする 5 X 5画素の領域を、局所領域として抽出するようになっている。そ して、ノイズ低減処理は 1画素単位で行われるために、上記 5 X 5画素の局所領域は
、注目画素の画素位置を 1画素ずつずらしながら順に抽出されることになる。従って、 ある位置の注目画素に対する局所領域と、前記注目画素から 1画素ずらした位置の 新たな注目画素に対する局所領域とは、 4行または 4列だけ重複して!/、ることになる。 なお、抽出部 113による上記抽出は、色信号毎に独立に行われる。そして、これ以降 は、局所領域内の画素を C (Cは色信号であって C=Y, Cb, Cr、 iは局所領域内に
ij
おける X座標 (横方向座標)であって i = 0〜4、 jは局所領域内における Y座標(縦方 向座標)であって j = 0〜4)により表記することにする。この表記に従えば、局所領域 力 X 5画素である場合には、注目画素値は C となる。
22
[0307] 第 1ノイズ低減部 1003は、制御部 119の制御に基づき、抽出部 113から転送され る局所領域の注目画素に対して所定の適用的なノイズ低減処理を行い、ノイズ低減 処理がなされた注目画素値をノイズ推定部 115と第 2ノイズ低減部 1004とへ転送す
[0308] ノイズ推定部 115は、制御部 119の制御に基づき、抽出部 113から転送される局所 領域と、第 1ノイズ低減部 1003から転送されるノイズ低減処理がなされた注目画素 値と、制御部 119から転送される撮影時の条件と、に基づいて、注目画素に関するノ ィズ量を推定する。そして、ノイズ推定部 115は、推定したノイズ量を第 2ノイズ低減 部 1004へ転送する。
[0309] 第 2ノイズ低減部 1004は、制御部 119の制御に基づき、第 1ノイズ低減部 1003か ら転送されるノイズ低減処理がなされた注目画素値と、ノイズ推定部 115から転送さ れるノイズ量と、に基づいて、抽出部 113からの注目画素に対して第 2のノイズ低減 処理を行う。そして、第 2ノイズ低減部 1004は、ノイズ低減処理後の注目画素値を信 号処理部 117 転送する。
[0310] なお、上述した抽出部 113,第 1ノイズ低減部 1003,ノイズ推定部 115,第 2ノイズ 低減部 1004における各処理は、制御部 119の制御に基づき、局所領域単位で同期 して行われるようになつている。
[0311] 信号処理部 117は、制御部 119の制御に基づき、ノイズ低減後の映像信号に対し て、強調処理および圧縮処理などを行い、処理後の映像信号を出力部 118へ転送 する。
[0312] 出力部 118は、映像信号をメモリカードなどの記録媒体に記録して保存する。
[0313] 次に図 45を参照して、第 1ノイズ低減部 1003の構成の一例について説明する。
[0314] この第 1ノイズ低減部 1003は、拡散画像記録手段たるバッファ 1 100と、拡散画像 算出手段たる TVノルム算出部 1101と、拡散画像算出手段たる拡散画像算出部 11 02と、反復処理制御手段であり変化成分算出手段たる変化成分算出部 1103と、反 復処理制御手段であり停止手段たる拡散制御部 1 104と、を備えて V、る。
[0315] 抽出部 113は、バッファ 1100へ接続されている。バッファ 1100は、 TVノルム算出 部 1101と拡散画像算出部 1102とへ接続されている。 TVノルム算出部 1101は、拡 散画像算出部 1102と変化成分算出部 1103と 接続されている。拡散画像算出部 1102は、バッファ 1100とノイズ推定部 115と第 2ノイズ低減部 1004とへ接続されて いる。変化成分算出部 1103は、拡散制御部 1104を介して拡散画像算出部 1102 へ接続されている。
[0316] 制御部 119は、 TVノルム算出部 1101 ,拡散画像算出部 1102,変化成分算出部
1103,拡散制御部 1104と双方向に接続されており、これらを制御するようになって いる。
[0317] 抽出部 113からの局所領域は、バッファ 1 100へ転送される。
[0318] TVノルム算出部 1101は、制御部 119の制御に基づき、バッファ 1100に記憶され ている局所領域に関する全変動 (TV ; Total Variation)力レムを次の数式 27に示すよ うに算出する。
ここに、 VRは、局所領域 Rの勾配(Gradient)を意味している。
[0319] TVノルム算出部 1101は、算出した TVノルムを、拡散画像算出部 1102と変化成 分算出部 1103とへ転送する。
[0320] 拡散画像算出部 1102は、制御部 119の制御に基づき、バッファ 1100からの局所 領域と、 TVノルム算出部 1101からの TVノルムと、を用いて、局所領域に関する拡 散画像を算出する。この拡散画像は、次の数式 28に示すようなエネルギー関数 E ()
を最小化する復元画像として、反復的に算出される。
ほ女 28]
E(R) = p(TV) +
[0321] そして、拡散画像算出部 1102は、拡散画像を次の数式 29に基づき算出する。
29コ
—R = άίν[ψ Τν) · Τν)~ λ · φ*ψ{φΚ― Ο)
dt ζ d∑ ここに、 φ *はノイズによる劣化作用素の随伴作用素を、 3 1は仮想時間パラメータ t に関する一階偏微分を意味してレ、る。
[0322] 拡散画像算出部 1102は、数式 29に基づき仮想時間パラメータ tを更新することに より拡散画像 R(t)を算出する。なお、算出の際の初期条件として、 R(°)=Rを用いる。
[0323] 拡散画像算出部 1102は、算出した拡散画像 R(t)を、バッファ 1100へ転送する。
[0324] TVノルム算出部 1101は、制御部 119の制御に基づき、バッファ 1100に記憶され た局所領域に関する TVノルムを再度算出する。そして、 TVノルム算出部 1101は、 再度算出した TVノルムを、拡散画像算出部 1102と変化成分算出部 1103とへ転送 する。
[0325] 変化成分算出部 1103は、制御部 119の制御に基づき、 TVノルム算出部 1101か らの TVノルムの変化を求める。以下では、仮想時間パラメータ tにおける拡散画像 R(t )の TVノルムを TV(t)、拡散画像算出部 1102によって仮想時間パラメータが更新され て(t+ 1)となった拡散画像 R(t+1)の TVノルムを TV(t+1)とする。このとき、 TVノルムの変 化は、 TV(t)と TV(t+1)との差の絶対値として求められる。変化成分算出部 1103は、算 出した TVノルムの変化を、拡散制御部 1104へ転送する。
[0326] 拡散制御部 1104は、制御部 119の制御に基づき、変化成分算出部 1103からの T
Vノルムの変化と所定の閾値とを比較して、 TVノルムの変化が所定の閾値以下にな つた場合に反復処理が収束したと判断して、処理を停止させる制御信号を拡散画像 算出部 1102へ転送する。
[0327] 拡散画像算出部 1102は、拡散制御部 1104から制御信号が転送された場合に、 拡散画像から注目画素位置に対応する画素値を抽出して、抽出した画素値をノイズ 低減がなされた注目画素値 C' としてノイズ推定部 115と第 2ノイズ低減部 1004とへ
22
転送する。一方、拡散画像算出部 1102は、拡散制御部 1104から制御信号が転送 されない場合には、バッファ 1100に記憶されている局所領域に対して再度の拡散画 像を算出する。
[0328] なお、上述では TVノルムに基づき拡散処理を行う例について説明した力 このよう な構成に限定されるものではない。例えば、図 46に示すような一般的なエネルギー 関数と偏微分方程式(PDEs; Partial Differential Equations)とを組み合わせた構成 を採用することも可能である。
[0329] 図 46を参照して、第 1ノイズ低減部 1003の他の構成例について説明する。
[0330] この図 46に示す第 1ノイズ低減部 1003は、図 45に示した第 1ノイズ低減部 1003 の構成において、 TVノルム算出部 1101を除去するとともに、拡散画像算出部 1102 を拡散画像算出手段たる PDEs算出部 1106 、変化成分算出部 1103を反復処理 制御手段であり処理回数算出手段たる処理回数算出部 1105へ、それぞれ置換した ものとなっている。その他の基本的な構成は図 45に示す第 1ノイズ低減部 1003と同 様であるために、同一の構成には同一の名称と符号を付して説明を適宜省略し、主 として異なる部分につ!/、てのみ説明する。
[0331] バッファ 1100は、処理回数算出部 1105と PDEs算出部 1106とへ接続されている 。処理回数算出部 1105は、拡散制御部 1104へ接続されている。拡散制御部 1104 は、 PDEs算出部 1106へ接続されている。 PDEs算出部 1106は、ノ ッファ 1100とノ ィズ推定部 115と第 2ノイズ低減部 1004とへ接続されている。
[0332] 制御部 119は、処理回数算出部 1105, PDEs算出部 1106とも双方向に接続され ており、これらも制御するようになっている。
[0333] PDEs算出部 1106は、制御部 119の制御に基づき、バッファ 1100に記憶されて
いる局所領域 Rに対して、非線形拡散方程式に関する PDEsを算出する。ここに、非 線形拡散方程式は、一般に、次の数式 30に示すような数式として与えられる。
ここに、 c ()は目的とする画像を得るためのエネルギー関数を、 d tは仮想時間パラ メータ tに関する一階偏微分を、それぞれ意味している。
[0334] PDEs算出部 1106は、数式 30に基づき、仮想時間パラメータ tを更新することによ り更新画像 R(t)を算出する。なお、算出の際の初期条件として、 R(°)=Rを用いる。 PD
Es算出部 1106は、算出した更新画像 R(t)をバッファ 1100へ転送する。
[0335] 処理回数算出部 1105は、制御部 119の制御に基づき、バッファ 1100へ書き込ま れる更新画像 R(t)の回数をカウントして、カウントした回数を拡散制御部 1104へ転送 する。
[0336] 拡散制御部 1104は、制御部 119の制御に基づき、処理回数算出部 1105からの 更新の回数と所定の閾値とを比較して、更新の回数が所定の閾値以上になった場 合に、処理を停止させる制御信号を PDEs算出部 1106へ転送する。
[0337] PDEs算出部 1106は、拡散制御部 1104から制御信号が転送された場合に、更新 画像から注目画素位置に対応する画素値を抽出して、抽出した画素値をノイズ低減 がなされた注目画素値 C' としてノイズ推定部 115と第 2ノイズ低減部 1004とへ転送
22
する。一方、 PDEs算出部 1106は、拡散制御部 1104から制御信号が転送されない 場合には、バッファ 1100に記憶されている局所領域に対して再度の更新画像を算 出する。
[0338] なお、上述したような拡散画像を用いる技術については、例えば上述した「IEEE SI GNAL PROCESSING MAGAZINE, SEPTEMBER 2002」の第 16頁〜第 25頁などに 記載されている。
[0339] 次に、図 47を参照して、第 2ノイズ低減部 1004の構成の一例について説明する。
[0340] この第 2ノイズ低減部 1004は、平滑化フィルタ選択手段たるフィルタ選択部 1200と 、平滑化フィルタ記録手段たるフィルタ記録部 1201と、スムージング手段たるスムー
ジング部 1202と、を備えている。
[0341] 第 1ノイズ低減部 1003とノイズ推定部 115とフィルタ記録部 1201とは、フィルタ選 択部 1200 接続されている。フィルタ選択部 1200と抽出部 113とは、スムージング 部 1202 接続されている。スムージング部 1202は、信号処理部 117 接続されて いる。
[0342] 制御部 119は、フィルタ選択部 1200,フィルタ記録部 1201 ,スムージング部 1202 と双方向に接続されており、これらを制御するようになっている。
[0343] フィルタ選択部 1200は、制御部 119の制御に基づき、第 1ノイズ低減部 1003から 第 1のノイズ低減がなされた注目画素値 C' を読み込むとともに、ノイズ推定部 115か
22
ら注目画素のノイズ量 N を読み込んで、フィルタ記録部 1201に記録されている平
22
滑化フィルタを選択する。ここに、フィ タ記録部 1201には、例えば、図 48 (A)〜図 48 (D)に示すような 5 X 5サイズの周波数特性が異なる 4種類(タイプ (Type);! 4) の平滑化フィルタと、図 49 (A)〜図 49 (D)に示すような 3 X 3サイズの周波数特性が 異なる 4種類(タイプ (Type);! 4)の平滑化フィルタと、の合計 8種類の平滑化フィ ルタが記録されている。
[0344] なお、タイプ (Type) 1の平滑化フィルタは高周波成分を残存させる周波数特性の フィルタとなっており、タイプ(Type) 1からタイプ(Type) 4へと向力、うにつれて、高周 波成分をより抑制する周波数特性のフィルタとなるように構成されている。また、図 48 および図 49に示すフィルタ係数は、 128倍した値を記載している。従って、実際に用 いるフィルタ係数は、図 48および図 49に示すフィルタ係数の 128分の 1である。
[0345] フィルタ選択部 1200は、まず、第 1ノイズ低減部 1003から転送される注目画素値 C と所定の閾値とを比較して、注目画素値 C' が所定の閾値以下である場合には 5
22 22
X 5サイズの平滑化フィルタを、また注目画素値 C' が所定の閾値よりも大き!/、場合
22
には 3 X 3サイズの平滑化フィルタを選択する、これは、一般に、喑部領域において はノイズが顕著になるために、暗部領域に対してよりノイズ抑制効果の大きい平滑化 フィルタを適用することを意味して!/、る。
[0346] 次に、フィルタ選択部 1200は、ノイズ推定部 115から転送される注目画素のノイズ 量 N に基づ!/、て、周波数特性のタイプ(Type) 1〜タイプ(Type) 4を選択する。この
選択は、例えば図 50に示すようなノイズ量 Nとフィルタの種類 (Type)との間の関係 に基づいて行われる。すなわち、ノイズ量 Nが小さい場合にはタイプ (Type) 1の平滑 化フィルタを選択し、ノイズ量 Nが増加するにつれて、選択する平滑化フィルタがタイ プ(Type) 2、タイプ (Type) 3、タイプ (Type) 4と順に変更される。これにより、ノイズ 量 Nが大き!/、ほど、高周波成分をより抑制する周波数特性の平滑化フィルタが選択 されることになる。
[0347] そして、フィルタ選択部 1200は、選択したサイズおよび周波数特性の平滑化フィノレ タ係数を、スムージング部 1202へ転送する。
[0348] スムージング部 1202は、制御部 119の制御に基づき、フィルタ選択部 1200からの 平滑化フィルタ係数を用いて、抽出部 113からの局所領域に対して平滑化フィルタ 処理を行う。そして、スムージング部 1202は、フィルタリング処理後の注目画素値を、 第 2のノイズ低減がなされた注目画素値 C〃 として信号処理部 117へ転送する。
22
[0349] なお、上述では撮像系として二板 CCDを用いる例を挙げた力 S、このような構成に限 定されるものではない。例えば、図 2に示したようなべィヤー(Bayer)型原色フィルタ、 もしくは図 7に示したような色差線順次型補色フィルタを用いる単板 CCDを採用して も良いし、または三板 CCDを採用することも可能である。
[0350] また、上述した実施形態 1と同様に、撮像部は別体であって、この別体の撮像部に より撮像された映像信号を未処理のままの Rawデータとして記録媒体等を介して取り 込むとともに、さらに撮影時の撮像素子の温度や露光条件などの付随情報をヘッダ 部などにより記録媒体等を介して取り込んで、上述したような処理を行うことも可能で ある。
[0351] さらに、上述ではハードウェアによる処理を前提としていた力 このような構成に限 定されるものでもない。例えば、第 1CCD1000からの映像信号と第 2CCD1001か らの映像信号とを未処理のままの Rawデータとして記録媒体に記録するとともに、撮 像条件などの付随情報 (例えば、制御部 119からの撮影時の撮像素子の温度や露 光条件など)をヘッダ情報として記録媒体に記録しておく。そして、別途のソフトウェア である画像処理プログラムをコンピュータに実行させて、記録媒体の情報をコンビュ ータに読み取らせ、処理することも可能である。なお、撮像部からコンピュータへの各
種情報の伝送は、記録媒体を介して行うに限らず、通信回線等を介して行うようにし ても構わない。
[0352] 図 51を参照して、画像処理プログラムによる処理全体の流れについて説明する。
なお、この図 51において、上述した実施形態 1の図 21に示した処理と基本的にほぼ 同一な処理ステップに関しては、同一のステップ数を割り当てている。
[0353] この処理を開始すると、まず、映像信号を読み込むとともに、撮像素子の温度や露 光条件などのヘッダ情報を読み込む (ステップ S1)。
[0354] 次に、欠落画素が存在する Rフィルタの信号と Bフィルタの信号とに関して、公知の 補間処理を行い、その後に、数式 26に示したように輝度信号と色差信号とに分離す る(ステップ S90)。
[0355] 続いて、図 42〜図 44に示したように、輝度信号および色差信号毎に、注目画素を 中心とする局所領域を抽出する(ステップ S3)。
[0356] そして、後で図 52を参照して説明するように、注目画素に対して第 1ノイズ低減処 理を行う(ステップ S91)。
[0357] さらに、図 23に示したように、注目画素に関するノイズ量を推定する(ステップ S5)。
[0358] 加えて、後で図 53を参照して説明するように、注目画素に対して第 2ノイズ低減処 理を行う(ステップ S92)。
[0359] 次に、全ての局所領域についての処理が完了したか否かを判断する(ステップ S7)
。ここで、全ての局所領域についての処理が完了していないと判断された場合には、 ステップ S3へ戻って未処理の局所領域について上述したような処理を行う。
[0360] 一方、全ての局所領域についての処理が完了したと判断された場合には、さらに、 全ての輝度信号および色差信号についての処理が完了したか否かを判断する (ステ ップ S93)。ここで、全ての輝度信号および色差信号についての処理が完了していな いと判断された場合には、ステップ S90へ戻って未処理の輝度信号または色差信号 につ!/、て上述したような処理を行う。
[0361] また、全ての輝度信号および色差信号についての処理が完了したと判断された場 合には、公知の強調処理や圧縮処理などを行う(ステップ S9)。
[0362] その後、処理後の映像信号を出力して (ステップ S10)、この処理を終了する。
[0363] 次に、図 52を参照して、上記ステップ S91における第 1ノイズ低減処理の詳細を説 明する。
[0364] この処理を開始すると、まず、局所領域に対して数式 27に示すように TV (Total Va riation)ノルムを算出する(ステップ S 100)。
[0365] 続いて、数式 29に基づいて拡散画像を算出する(ステップ S 101)。
[0366] さらに、拡散画像に対して、数式 27に示すように TVノルムを算出する(ステップ S1
02)。
[0367] そして、 TVノルム間の差の絶対値を変化成分として算出する(ステップ S103)。
[0368] 次に、変化成分と所定の閾値とを比較する (ステップ S 104)。ここで、変化成分が所 定の閾値よりも大きいと判断された場合には、ステップ S101へ戻って上述したような 処理を繰り返して行う。
[0369] 一方、変化成分が所定の閾値以下であると判断された場合には、拡散画像から注 目画素位置に対応する画素値を抽出して、抽出した画素値を第 1のノイズ低減がな された注目画素値として出力し(ステップ S105)、図 51に示した処理へリターンする
[0370] 次に、図 53を参照して、上記ステップ S92における第 2ノイズ低減処理の詳細を説 明する。
[0371] この処理を開始すると、まず、第 1のノイズ低減がなされた注目画素値と、ノイズ量と 、に基づいて、図 48および図 49に示すような平滑化フィルタの何れかを選択する(ス テツプ S 110)。
[0372] 続いて、選択された平滑化フィルタを読み込む(ステップ S 111)。
[0373] さらに、選択された平滑化フィルタを用いて、局所領域に平滑化フィルタ処理を行う
(ステップ S 112)。
[0374] そして、フィルタリング処理後の注目画素値を第 2のノイズ低減がなされた注目画素 値として出力して(ステップ S113)、図 51に示した処理へリターンする。
[0375] なお、処理の対象となる映像信号は、静止画の映像信号だけではなぐ時系列的 に取り込まれる複数の映像信号(いわゆる動画の映像信号)であっても良い。
[0376] このような実施形態 3によれば、撮影状況に最適化された高精度なノイズ低減処理
を行うことが可能となり、高品位な映像信号を得ることができる。
[0377] また、複雑なエッジ領域にお!/、てもエッジ成分の影響を抑制して!/、るために、高精 度なノイズ量の推定が可能となり、処理の安定性および信頼性を向上することができ
[0378] 第 1のノイズ低減処理は、 TVノルムまたは偏微分方程式を用いて拡散処理を行つ ている。これらの内の TVノルムは、エッジ成分の分離能に優れているために、該 TV ノルムを用いると、複雑なエッジ領域にお!/、てもエッジ成分の影響を抑制することが できる。一方、偏微分方程式は処理の自由度が高いために、該偏微分方程式を用い ると、多様な画質調整を行うことが可能となる。また、拡散処理が定常状態 移行す るのに応じて反復処理を停止するようにしたために、安定的な画質の映像信号を得 ること力 Sできる。そして、拡散処理の反復回数に基づいて反復処理を停止するように したために、処理速度が一定化し、システムの操作性が向上する。
[0379] さらに、第 2のノイズ低減処理は、ノイズ量と第 1のノイズ低減処理がなされた注目画 素値とに基づき平滑化フィルタを選択する処理であるために、最適なノイズ低減処理 を行うことが可能となる。また、平滑化フィルタを用いると特定周波数域に対するノイス 低減処理を容易に行うことができるために、主観的に好ましい映像信号を得ることが できる。そして、ノイズ低減処理を輝度信号および色差信号毎に独立して行うようにし たために、最適な輝度ノイズ低減と色ノイズ低減とを行うことが可能となり、高品位な 映像信号を得ることができる。
[0380] なお、本発明は上述した実施形態そのままに限定されるものではなぐ実施段階で はその要旨を逸脱しな!/、範囲で構成要素を変形して具体化することができる。また、 上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々 の発明を形成することができる。例えば、実施形態に示される全構成要素から幾つか の構成要素を削除しても良い。さらに、異なる実施形態にわたる構成要素を適宜組 み合わせても良い。このように、発明の主旨を逸脱しない範囲内において種々の変 形や応用が可能であることは勿論である。
[0381] 本出願は、 2006年 11月 10日に日本国に出願された特願 2006— 305916号を優 先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求
の範囲、図面に引用されたものとする。
Claims
[1] 撮像系から取り込まれた映像信号に対してノイズ低減処理を行う撮像システムであ つて、
上記映像信号から、ノイズ低減処理を行う対象である注目画素と、上記注目画素の 空間的近傍に位置する少なくとも 1つの近傍画素と、を含む局所領域を抽出する局 所領域抽出手段と、
上記局所領域内において上記注目画素に対して適用的なノイズ低減処理を行う第
1のノイズ低減手段と、
上記第 1のノイズ低減手段によりノイズ低減処理がなされた注目画素値に基づ!/、て 、上記注目画素に関するノイズ量を推定するノイズ推定手段と、
上記第 1のノイズ低減手段によりノイズ低減処理がなされた注目画素値と、上記ノィ ズ推定手段により推定されたノイズ量と、に基づき、上記注目画素に対してノイズ低 減処理を行う第 2のノイズ低減手段と、
を具備したことを特徴とする撮像システム。
[2] 上記映像信号は、撮像系から時系列的に取り込まれた複数の映像信号であること を特徴とする請求項 1に記載の撮像システム。
[3] 撮像系から時系列的に取り込まれた複数の映像信号に対してノイズ低減処理を行 う撮像システムであって、
上記映像信号から、ノイズ低減処理を行う対象である注目画素と、上記注目画素の 空間的および時間的近傍に位置する少なくとも 1つの近傍画素と、を含む局所領域 を抽出する局所領域抽出手段と、
上記局所領域内において上記注目画素に対して適用的なノイズ低減処理を行う第 1のノイズ低減手段と、
上記第 1のノイズ低減手段によりノイズ低減処理がなされた注目画素値に基づ!/、て 、上記注目画素に関するノイズ量を推定するノイズ推定手段と、
上記ノイズ推定手段により推定されたノイズ量と、時系列的に過去のノイズ低減処 理がなされた映像信号の画素値と、に基づき、上記注目画素に対してノイズ低減処 理を行う第 2のノイズ低減手段と、
ノイズ低減処理がなされた映像信号の画素値として、上記第 2のノイズ低減手段に よってノイズ低減処理がなされた注目画素値を順次記録する信号記録手段と、 を具備したことを特徴とする撮像システム。
[4] 上記第 1のノイズ低減手段は、
上記注目画素と上記近傍画素との間の空間的関連性と時間的関連性と画素値的 関連性との少なくとも 1つに基づき、上記注目画素および上記近傍画素に関する重 み係数を算出する重み係数算出手段と、
上記重み係数に基づき上記局所領域に対してフィルタリング処理を行うフィルタリン グ手段と、
を有して構成されたものであることを特徴とする請求項 1または請求項 2または請求 項 3に記載の撮像システム。
[5] 上記重み係数算出手段は、上記注目画素値と上記近傍画素値との差成分に基づ き重み係数を出力するテーブル手段を有して構成されたものであることを特徴とする 請求項 4に記載の撮像システム。
[6] 上記重み係数算出手段は、
上記注目画素値と上記近傍画素値との差成分に基づき第 1の重み係数を出力す る第 1のテーブル手段と、
上記注目画素と上記近傍画素との相対的な座標位置に基づき第 2の重み係数を 出力する第 2のテーブル手段と、
上記第 1の重み係数と上記第 2の重み係数とに基づき上記重み係数を合成する合 成手段と、
を有して構成されたものであることを特徴とする請求項 4に記載の撮像システム。
[7] 上記重み係数算出手段は、
上記注目画素値と上記近傍画素値との差成分に基づき第 1の重み係数を出力す る第 1のテーブル手段と、
上記注目画素と上記近傍画素との相対的な座標位置に基づき第 2の重み係数を 出力する第 2のテーブル手段と、
上記注目画素値と上記近傍画素値との差成分に基づき第 3の重み係数を出力す
る第 3のテーブル手段と、
上記第 1の重み係数と上記第 2の重み係数と上記第 3の重み係数とに基づき上記 重み係数を合成する合成手段と、
を有して構成されたものであることを特徴とする請求項 4に記載の撮像システム。
[8] 上記重み係数算出手段は、上記注目画素値と上記近傍画素値とに関して所定ビッ ト数の上位ビット成分を抽出するビットシフト手段をさらに有して構成されたものである ことを特徴とする請求項 5〜7の何れか一項に記載の撮像システム。
[9] 上記第 1のノイズ低減手段は、
所定の非線形拡散方程式に基づき拡散処理された映像信号を算出する拡散画像 算出手段と、
上記拡散処理された映像信号を記録する拡散画像記録手段と、
上記拡散画像記録手段に記録された映像信号に対して、上記拡散画像算出手段 により再度拡散処理を行わせ、再度拡散処理された映像信号を該拡散画像記録手 段に記録させる反復処理を制御する反復処理制御手段と、
を有して構成されたものであることを特徴とする請求項 1または請求項 2または請求 項 3に記載の撮像システム。
[10] 上記反復処理制御手段は、
上記拡散画像記録手段に記録された映像信号と、該拡散画像記録手段に記録さ れた映像信号に対して上記拡散画像算出手段により再度拡散処理された映像信号 と、の間の変化成分を算出する変化成分算出手段と、
上記変化成分が所定の閾値以下になった場合に上記反復処理を停止させる停止 手段と、
を有して構成されたものであることを特徴とする請求項 9に記載の撮像システム。
[11] 上記反復処理制御手段は、
上記反復処理の回数を算出する処理回数算出手段と、
上記反復処理の回数が所定の回数に達した場合に上記反復処理を停止させる停 止手段と、
を有して構成されたものであることを特徴とする請求項 9に記載の撮像システム。
[12] 上記非線形拡散方程式は、全変動 (TV; Total Variation)ノルムに基づく方程式、 または偏微分方程式(PDEs ; Partial Differential Equations)に基づく方程式であるこ とを特徴とする請求項 9に記載の撮像システム。
[13] 上記第 1のノイズ低減手段は、
上記注目画素を基点として上記局所領域を所定方向の複数の方向別領域 分割 する領域分割手段と、
上記各方向別領域に関して分散値を算出する分散算出手段と、
上記分散値に基づき分散値が最小となる方向別領域を選択する領域選択手段と、 上記選択された方向別領域に関して平均値を算出する平均値算出手段と、 を有して構成されたものであることを特徴とする請求項 1または請求項 2または請求 項 3に記載の撮像システム。
[14] 上記ノイズ推定手段は、
基準ノイズモデルに関するパラメータ群を記録するパラメータ記録手段と、 上記撮像系の温度値に関する情報と上記映像信号に対するゲインに関する情報と を収集する収集手段と、
上記収集手段によっては得ることができない情報に関して標準値を付与する付与 手段と、
上記収集手段または上記付与手段からの情報と、上記第 1のノイズ低減手段により ノイズ低減処理がなされた注目画素値と、に基づき、上記パラメータ群から必要となる ノ ラメータを選択するパラメータ選択手段と、
上記第 1のノイズ低減手段によりノイズ低減処理がなされた注目画素値と、上記選 択されたパラメータと、に基づき、補間演算によりノイズ量を求める補間手段と、 を有して構成されたものであることを特徴とする請求項 1または請求項 2または請求 項 3に記載の撮像システム。
[15] 上記ノイズ推定手段は、
上記撮像系の温度値に関する情報と上記映像信号に対するゲインに関する情報と を収集する収集手段と、
上記収集手段によっては得ることができない情報に関して標準値を付与する付与
手段と、
上記収集手段または上記付与手段からの情報と、上記第 1のノイズ低減手段により ノイズ低減処理がなされた注目画素値と、を入力として、ノイズ量を出力するノイズテ 一ブル手段と、
を有して構成されたものであることを特徴とする請求項 1または請求項 2または請求 項 3に記載の撮像システム。
[16] 上記ノイズ推定手段は、
上記注目画素に関する孤立点の度合いを検出する孤立点検出手段と、 上記孤立点の度合いに基づき上記ノイズ量を補正する補正手段と、
をさらに有して構成されたものであることを特徴とする請求項 14または請求項 15に 記載の撮像システム。
[17] 上記第 2のノイズ低減手段は、
上記ノイズ量に基づき上記注目画素値に関するノイズ範囲を設定するノイズ範囲設 定手段と、
上記注目画素値が上記ノイズ範囲に属する場合に、上記第 1のノイズ低減手段に よりノイズ低減処理がなされた注目画素値に基づき、注目画素値の平滑化を行う第 1 のスムージング手段と、
上記注目画素値が上記ノイズ範囲に属さな V、場合に、注目画素値の補正を行う第
2のスムージング手段と、
を有して構成されたものであることを特徴とする請求項 1または請求項 2または請求 項 3に記載の撮像システム。
[18] 上記第 2のノイズ低減手段は、
複数の平滑化フィルタを記録する平滑化フィルタ記録手段と、
上記ノイズ量と上記第 1のノイズ低減手段によりノイズ低減処理がなされた注目画素 値とに基づき、上記平滑化フィルタを選択する平滑化フィルタ選択手段と、
上記選択された平滑化フィルタに基づき平滑化を行うスムージング手段と、 を有して構成されたものであることを特徴とする請求項 1または請求項 2または請求 項 3に記載の撮像システム。
[19] 上記第 2のノイズ低減手段は、
上記信号記録手段に記録されている時系列的に過去のノイズ低減処理がなされた 複数の映像信号から上記局所領域と同一位置に存在する映像信号を前局所領域と して少なくとも 1つ抽出する前局所領域抽出手段と、
上記局所領域における上記注目画素を含む所定サイズの基準領域と、上記前局 所領域における少なくとも 1つの上記基準領域と同一サイズの比較領域と、の間で差 分処理を行うことにより、少なくとも 1つの差分成分を算出する第 1の差分手段と、 上記ノイズ量と上記差分成分とに基づいて動き量を推定する動き量推定手段と、 上記動き量に基づいて、該動き量が最小となる上記差分成分を選択する差分成分 選択手段と、
上記選択された差分成分に関して上記動き量に基づき動き量補償を行う動き量補 償手段と、
上記注目画素を含む基準領域と上記動き量補償が行われた差分成分との間で差 分処理を行う第 2の差分手段と、
を有して構成されたものであることを特徴とする請求項 3に記載の撮像システム。
[20] 上記撮像系は、実質的に複数色の色フィルタを前面に配列した撮像素子を含んで 構成されたものであり、
上記色フィルタの複数色毎に、上記映像信号を複数の色信号に分離する色信号 分離手段と、
上記色信号毎に上記局所領域抽出手段と上記第 1のノイズ低減手段と上記ノイズ 推定手段と上記第 2のノイズ低減手段とを順次適用するように制御する信号制御手 段と、
をさらに具備したことを特徴とする請求項 1または請求項 2または請求項 3に記載の 撮像システム。
[21] 上記撮像系は、実質的に複数色の色フィルタを前面に配列した撮像素子を含んで 構成されたものであり、
上記映像信号を輝度信号と色差信号とに分離する輝度色差分離手段と、 上記輝度信号および色差信号毎に上記局所領域抽出手段と上記第 1のノイズ低
減手段と上記ノイズ推定手段と上記第 2のノイズ低減手段とを順次適用するように制 御する信号制御手段と、
をさらに具備したことを特徴とする請求項 1または請求項 2または請求項 3に記載の 撮像システム。
[22] 上記撮像素子は、 R (赤), G (緑), B (青)べィヤー(Bayer)型原色フィルタを前面 に配置した撮像素子、または Cy (シアン), Mg (マゼンタ), Ye (イェロー), G (緑)色 差線順次型補色フィルタを前面に配置した撮像素子であることを特徴とする請求項 2 0または請求項 21に記載の撮像システム。
[23] コンピュータに、撮像系から取り込まれた映像信号に対してノイズ低減処理を行わ せるための画像処理プログラムであって、コンピュータに、
上記映像信号から、ノイズ低減処理を行う対象である注目画素と、上記注目画素の 空間的近傍に位置する少なくとも 1つの近傍画素と、を含む局所領域を抽出する局 所領域抽出ステップと、
上記局所領域内において上記注目画素に対して適用的なノイズ低減処理を行う第 1のノイズ低減ステップと、
上記第 1のノイズ低減ステップによりノイズ低減処理がなされた注目画素値に基づ V、て、上記注目画素に関するノイズ量を推定するノイズ推定ステップと、
上記第 1のノイズ低減ステップによりノイズ低減処理がなされた注目画素値と、上記 ノイズ推定ステップにより推定されたノイズ量と、に基づき、上記注目画素に対してノ ィズ低減処理を行う第 2のノイズ低減ステップと、
を行わせるための画像処理プログラム。
[24] コンピュータに、撮像系から時系列的に取り込まれた複数の映像信号に対してノィ ズ低減処理を行わせるための画像処理プログラムであって、コンピュータに、 上記映像信号から、ノイズ低減処理を行う対象である注目画素と、上記注目画素の 空間的および時間的近傍に位置する少なくとも 1つの近傍画素と、を含む局所領域 を抽出する局所領域抽出ステップと、
上記局所領域内において上記注目画素に対して適用的なノイズ低減処理を行う第 1のノイズ低減ステップと、
上記第 1のノイズ低減ステップによりノイズ低減処理がなされた注目画素値に基づ V、て、上記注目画素に関するノイズ量を推定するノイズ推定ステップと、
上記ノイズ推定ステップにより推定されたノイズ量と、時系列的に過去のノイズ低減 処理がなされた映像信号の画素値と、に基づき、上記注目画素に対してノイズ低減 処理を行う第 2のノイズ低減ステップと、
ノイズ低減処理がなされた映像信号の画素値として、上記第 2のノイズ低減ステップ によってノイズ低減処理がなされた注目画素値を順次記録する信号記録ステップと、 を行わせるための画像処理プログラム。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US12/463,472 US8184181B2 (en) | 2006-11-10 | 2009-05-11 | Image capturing system and computer readable recording medium for recording image processing program |
| US13/274,087 US8488026B2 (en) | 2006-11-10 | 2011-10-14 | Image capturing system and computer readable recording medium for recording image processing program |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006305916A JP4653059B2 (ja) | 2006-11-10 | 2006-11-10 | 撮像システム、画像処理プログラム |
| JP2006-305916 | 2006-11-10 |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| US12/463,472 Continuation US8184181B2 (en) | 2006-11-10 | 2009-05-11 | Image capturing system and computer readable recording medium for recording image processing program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2008056565A1 true WO2008056565A1 (en) | 2008-05-15 |
Family
ID=39364385
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2007/071088 Ceased WO2008056565A1 (en) | 2006-11-10 | 2007-10-30 | Image picking-up system and image processing program |
Country Status (3)
| Country | Link |
|---|---|
| US (2) | US8184181B2 (ja) |
| JP (1) | JP4653059B2 (ja) |
| WO (1) | WO2008056565A1 (ja) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20100194933A1 (en) * | 2009-02-02 | 2010-08-05 | Olympus Corporation | Image processing apparatus and image processing method |
| US8320705B2 (en) | 2009-02-02 | 2012-11-27 | Olympus Corporation | Image processing apparatus and image processing method |
| CN111355942A (zh) * | 2018-12-21 | 2020-06-30 | 瑞萨电子株式会社 | 半导体设备、图像处理系统、方法和计算机可读存储介质 |
Families Citing this family (23)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP1798956A1 (en) * | 2005-12-16 | 2007-06-20 | Perkinelmer Singapore PTE Ltd. | A method of processing data from a CCD and a CCD imaging apparatus |
| JP5052301B2 (ja) * | 2007-11-21 | 2012-10-17 | オリンパス株式会社 | 画像処理装置、画像処理方法 |
| JP5052319B2 (ja) * | 2007-12-17 | 2012-10-17 | オリンパス株式会社 | 動画ノイズ低減処理装置、動画ノイズ低減処理プログラム、動画ノイズ低減処理方法 |
| JP5123756B2 (ja) * | 2008-06-26 | 2013-01-23 | オリンパス株式会社 | 撮像システム、画像処理方法および画像処理プログラム |
| KR101493695B1 (ko) * | 2008-08-01 | 2015-03-02 | 삼성전자주식회사 | 이미지 처리장치, 이미지 처리방법 및 처리방법을실행시키기 위한 프로그램을 저장한 기록매체 |
| JP2010211552A (ja) * | 2009-03-11 | 2010-09-24 | Rohm Co Ltd | 画像処理方法及びコンピュータプログラム |
| JP5220677B2 (ja) | 2009-04-08 | 2013-06-26 | オリンパス株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
| US8948488B2 (en) * | 2009-07-31 | 2015-02-03 | General Electric Company | Methods and systems for digitally enhancing an image of a stained material |
| KR20110048922A (ko) * | 2009-11-03 | 2011-05-12 | 삼성전자주식회사 | 이미지 센서의 통합 노이즈 모델링 방법 및 이를 이용하는 노이즈 저감 방법 |
| US8295631B2 (en) * | 2010-01-29 | 2012-10-23 | Eastman Kodak Company | Iteratively denoising color filter array images |
| US8345130B2 (en) | 2010-01-29 | 2013-01-01 | Eastman Kodak Company | Denoising CFA images using weighted pixel differences |
| WO2011145365A1 (ja) * | 2010-05-18 | 2011-11-24 | シャープ株式会社 | 画像処理システム及び表示装置 |
| JP5327245B2 (ja) * | 2011-02-08 | 2013-10-30 | 株式会社ニコン | 画像処理装置、電子カメラ及び画像処理プログラム |
| CN102646265B (zh) * | 2011-02-22 | 2015-09-23 | 株式会社东芝 | 图像处理设备和方法 |
| CN103578081B (zh) * | 2012-08-08 | 2018-12-28 | 北京三星通信技术研究有限公司 | 用于提高图像质量的图像处理方法和系统 |
| US9275446B2 (en) | 2013-10-15 | 2016-03-01 | Samsung Electronics Co., Ltd. | Large radius edge-preserving low-pass filtering |
| JP2015138417A (ja) * | 2014-01-22 | 2015-07-30 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
| JP6444233B2 (ja) * | 2015-03-24 | 2018-12-26 | キヤノン株式会社 | 距離計測装置、距離計測方法、およびプログラム |
| CN109462728B (zh) * | 2017-09-06 | 2020-01-14 | 浙江宇视科技有限公司 | 码率控制方法、装置、图像采集设备及可读存储介质 |
| CN109639982B (zh) * | 2019-01-04 | 2020-06-30 | Oppo广东移动通信有限公司 | 一种图像降噪方法、装置、存储介质及终端 |
| JP2020136903A (ja) * | 2019-02-19 | 2020-08-31 | ソニーセミコンダクタソリューションズ株式会社 | 撮像装置および電子機器 |
| CN116347186A (zh) * | 2021-12-15 | 2023-06-27 | 超威半导体(上海)有限公司 | 用于图像去马赛克的装置和方法 |
| CN119313565B (zh) * | 2024-12-17 | 2025-05-06 | 山东建筑大学 | 基于逐步超分辨率与区域差异化的图像生成方法及系统 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5923775A (en) * | 1996-04-04 | 1999-07-13 | Eastman Kodak Company | Apparatus and method for signal dependent noise estimation and reduction in digital images |
| JP2000348018A (ja) * | 1999-06-07 | 2000-12-15 | Sony Corp | データ処理装置およびデータ処理方法、媒体、並びにノイズ除去装置およびノイズ除去方法 |
| JP2000354179A (ja) * | 1999-06-11 | 2000-12-19 | Nikon Corp | 信号変換方法、および信号変換プログラムを記録した記録媒体 |
| WO2006064913A1 (ja) * | 2004-12-17 | 2006-06-22 | Nikon Corporation | 画像処理方法 |
Family Cites Families (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001157057A (ja) | 1999-11-30 | 2001-06-08 | Konica Corp | 画像読取装置 |
| KR100327385B1 (en) * | 2000-07-18 | 2002-03-13 | Lg Electronics Inc | Spatio-temporal three-dimensional noise filter |
| FR2820227B1 (fr) * | 2001-01-30 | 2003-04-18 | France Telecom | Procede et dispositif de reduction de bruit |
| JP2006023959A (ja) | 2004-07-07 | 2006-01-26 | Olympus Corp | 信号処理システム及び信号処理プログラム |
| EP1681849B1 (en) * | 2005-01-18 | 2011-10-19 | LG Electronics, Inc. | Apparatus for removing noise from a video signal |
| JP4577565B2 (ja) | 2005-03-03 | 2010-11-10 | ソニー株式会社 | 画像処理方法、画像処理装置、プログラム、および撮影装置 |
| JP5079257B2 (ja) | 2005-05-16 | 2012-11-21 | 株式会社三和化学研究所 | Burkholderiacepaciaに対する保存剤 |
| JP4465002B2 (ja) * | 2007-11-16 | 2010-05-19 | オリンパス株式会社 | ノイズ低減システム、ノイズ低減プログラム及び撮像システム。 |
| JP5123756B2 (ja) * | 2008-06-26 | 2013-01-23 | オリンパス株式会社 | 撮像システム、画像処理方法および画像処理プログラム |
-
2006
- 2006-11-10 JP JP2006305916A patent/JP4653059B2/ja not_active Expired - Fee Related
-
2007
- 2007-10-30 WO PCT/JP2007/071088 patent/WO2008056565A1/ja not_active Ceased
-
2009
- 2009-05-11 US US12/463,472 patent/US8184181B2/en active Active
-
2011
- 2011-10-14 US US13/274,087 patent/US8488026B2/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5923775A (en) * | 1996-04-04 | 1999-07-13 | Eastman Kodak Company | Apparatus and method for signal dependent noise estimation and reduction in digital images |
| JP2000348018A (ja) * | 1999-06-07 | 2000-12-15 | Sony Corp | データ処理装置およびデータ処理方法、媒体、並びにノイズ除去装置およびノイズ除去方法 |
| JP2000354179A (ja) * | 1999-06-11 | 2000-12-19 | Nikon Corp | 信号変換方法、および信号変換プログラムを記録した記録媒体 |
| WO2006064913A1 (ja) * | 2004-12-17 | 2006-06-22 | Nikon Corporation | 画像処理方法 |
Non-Patent Citations (1)
| Title |
|---|
| TSCHUMPERLE D. AND DERICHE R.: "Diffusion PDEs on Vector-Valued Images", IEEE SIGNAL PROCESSING MAGAZINE, September 2002 (2002-09-01), pages 16 - 25 * |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20100194933A1 (en) * | 2009-02-02 | 2010-08-05 | Olympus Corporation | Image processing apparatus and image processing method |
| US8269862B2 (en) * | 2009-02-02 | 2012-09-18 | Olympus Corporation | Image processing apparatus and image processing method |
| US8320705B2 (en) | 2009-02-02 | 2012-11-27 | Olympus Corporation | Image processing apparatus and image processing method |
| CN111355942A (zh) * | 2018-12-21 | 2020-06-30 | 瑞萨电子株式会社 | 半导体设备、图像处理系统、方法和计算机可读存储介质 |
| CN111355942B (zh) * | 2018-12-21 | 2023-08-15 | 瑞萨电子株式会社 | 半导体设备、图像处理系统、方法和计算机可读存储介质 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4653059B2 (ja) | 2011-03-16 |
| JP2008124764A (ja) | 2008-05-29 |
| US8488026B2 (en) | 2013-07-16 |
| US8184181B2 (en) | 2012-05-22 |
| US20090219417A1 (en) | 2009-09-03 |
| US20120033109A1 (en) | 2012-02-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2008056565A1 (en) | Image picking-up system and image processing program | |
| JP4465002B2 (ja) | ノイズ低減システム、ノイズ低減プログラム及び撮像システム。 | |
| US8300120B2 (en) | Image processing apparatus and method of processing image for reducing noise of the image | |
| JP3762725B2 (ja) | 撮像システムおよび画像処理プログラム | |
| US6738510B2 (en) | Image processing apparatus | |
| US8184924B2 (en) | Image processing apparatus and image processing program | |
| JP4547223B2 (ja) | 撮像システム、ノイズ低減処理装置及び撮像処理プログラム | |
| JP5123756B2 (ja) | 撮像システム、画像処理方法および画像処理プログラム | |
| WO2005057938A1 (ja) | 撮像システムおよび画像処理プログラム | |
| JP5165300B2 (ja) | 映像処理装置および映像処理プログラム | |
| JP2006023959A (ja) | 信号処理システム及び信号処理プログラム | |
| JPWO2007049418A1 (ja) | 画像処理システム、画像処理プログラム | |
| JP4979595B2 (ja) | 撮像システム、画像処理方法、画像処理プログラム | |
| JP2008263507A (ja) | 映像処理装置及び映像処理プログラム | |
| JP4660342B2 (ja) | 画像処理システム、画像処理プログラム | |
| WO2008056566A1 (en) | Image signal processing apparatus, image signal processing program and image signal processing method | |
| JP4441321B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
| JP2009100207A (ja) | ノイズ低減システム、ノイズ低減プログラム及び撮像システム | |
| JP2008271101A (ja) | 映像処理装置及び映像処理プログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 07830822 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 07830822 Country of ref document: EP Kind code of ref document: A1 |