[go: up one dir, main page]

WO2016158274A1 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
WO2016158274A1
WO2016158274A1 PCT/JP2016/057445 JP2016057445W WO2016158274A1 WO 2016158274 A1 WO2016158274 A1 WO 2016158274A1 JP 2016057445 W JP2016057445 W JP 2016057445W WO 2016158274 A1 WO2016158274 A1 WO 2016158274A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
dark part
image
dark
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2016/057445
Other languages
English (en)
French (fr)
Inventor
奈保 徳井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2017509480A priority Critical patent/JP6376673B2/ja
Priority to US15/563,515 priority patent/US10567670B2/en
Publication of WO2016158274A1 publication Critical patent/WO2016158274A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/02Stereoscopic photography by sequential recording
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/36Applying a local operator, i.e. means to operate on image points situated in the vicinity of a given point; Non-linear local filtering operations, e.g. median filtering
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/407Control or modification of tonal gradation or of extreme levels, e.g. background level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • H04N1/4092Edge or detail enhancement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/75Circuitry for compensating brightness variation in the scene by influencing optical camera components

Definitions

  • the present invention relates to an image processing apparatus that generates an image.
  • Patent Document 1 discloses an imaging apparatus capable of obtaining an image in a state where desired lighting is performed on a desired portion.
  • the method described above is difficult to apply to moving objects because the subject needs to be imaged multiple times while changing the illumination position. For example, if the subject is a human being, it may blink, if the illumination is dazzling, the eyelid may be turned down, or the body may move without the subject being aware of it. Since the subject is displaced between the images, it is difficult to obtain a natural composite image.
  • the present invention has been invented in view of the above problems, and an object of the present invention is to provide an image processing apparatus that can be easily applied even when a subject moves and can generate an image having a suitable stereoscopic effect. To do.
  • an image processing apparatus includes a dark part pixel extraction unit that extracts dark part pixels of a target image, a dark part pixel correction unit that corrects dark part pixels so as to suppress a change in contrast of the target image, and A dark part model generation unit that generates a dark part model according to an image corrected in the dark part pixel correction unit, and a dark part model generated in the dark part model generation unit on an image corrected in the dark part pixel correction unit based on the dark part model And an image generation unit for applying dark portion pixels.
  • the present invention it can be easily applied even when the subject moves, and an image having a suitable stereoscopic effect can be generated.
  • FIG. 1 is a functional block diagram illustrating a configuration of an image display device including an image processing device according to a first embodiment of the present invention. It is a figure explaining the relationship between an attention pixel and a neighboring pixel. It is a figure explaining the parameter
  • FIG. 1 is a functional block diagram illustrating a configuration of an image display apparatus 102 including an image processing apparatus 101 according to the first embodiment of the present invention.
  • the image display apparatus 102 images a subject with the imaging unit 103, generates an image having a suitable stereoscopic effect from the captured image, and displays the generated image on the display unit 104. .
  • the image display device 102 includes an imaging unit 103, a display unit 104, a storage unit 105, an image processing device 101, and an input / output unit 106.
  • the imaging unit 103 includes an imaging lens and an imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and can capture a still image or a moving image of the subject.
  • an imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and can capture a still image or a moving image of the subject.
  • the display unit 104 is a display screen such as an LCD (Liquid Crystal Display) or an organic EL (Electro Luminescence) display, and displays information such as images and characters, an image of a subject, and the like.
  • LCD Liquid Crystal Display
  • organic EL Electro Luminescence
  • the image processing apparatus 101 can be configured by, for example, a CPU (Central Processing Unit), a GPU (Graphic Processing Unit), or the like. Further, the image processing apparatus 101 processes an image acquired from the imaging unit 103 or the storage unit 105 based on a user instruction acquired from the input / output unit 106, and processes the image to at least one of the display unit 104 and the storage unit 105. The later image is output.
  • a CPU Central Processing Unit
  • GPU Graphic Processing Unit
  • the image processing apparatus 101 also includes a dark part pixel extraction unit 107, a dark part pixel correction unit 108, a dark part model generation unit 109, and an image generation unit 110. Each of these units performs the following processes. ⁇ Dark part pixel extraction processing>
  • the dark part pixel extraction unit 107 extracts one or a plurality of dark part pixels from the image acquired by the image processing apparatus 101 from the imaging unit 103 or the storage unit 105 described above.
  • the dark portion pixel is a pixel constituting a shadow appearing in the subject in the acquired image, and is a portion where there is little change in luminance or color.
  • the dark part pixel correction unit 108 generates a corrected image by correcting at least one of the one or a plurality of dark part pixels extracted by the dark part pixel extraction unit 107 so as to suppress a change in contrast of the image. Details of the dark pixel correction processing will be described later.
  • the dark part model generation unit 109 generates a dark part model corresponding to the subject based on the dark part pixels extracted by the dark part pixel extraction unit 107. Details of the dark part model generation processing and the dark part model will be described later.
  • ⁇ Image generation processing> Based on the image (corrected image) corrected by the dark part pixel correction unit 108 and the dark part model generated by the dark part model generation part, the image generation unit 110 generates an image obtained by adding dark part pixels to the corrected image. To do. Details of the image generation processing will be described later.
  • the storage unit 105 is, for example, a flash memory or a hard disk, and stores an image and a dark part pixel template that is a basis of a dark part model, and stores device-specific data.
  • the input / output unit 106 uses a key button, a microphone, a speaker, or the like to input a user instruction to the image processing apparatus 101 or output a voice or the like input from the image processing apparatus 101.
  • the above is the system configuration of the first embodiment.
  • FIG. 2 is a diagram for explaining the relationship between the target pixel 201 in the target image that is the processing target image and the neighboring pixel 202 positioned in the vicinity of the target pixel 201.
  • FIG. 3 is a diagram illustrating an index when a pixel of interest is extracted as a dark pixel using a color difference and a luminance difference.
  • FIG. 4 is a diagram illustrating the relationship between the target pixel and the neighboring pixels when there are a plurality of neighboring pixels.
  • the dark part pixel extraction unit 107 determines whether the target pixel 201 is a dark part pixel based on the color difference and luminance difference between the target pixel 201 and the neighboring pixel 202. When the target pixel 201 is determined as a dark pixel, the dark pixel extraction unit 107 extracts the target pixel 201 as a dark pixel.
  • the dark part pixel extracting unit 107 calculates the color difference s h between the target pixel 201 and neighboring pixels 202 using equation (1).
  • N (i, j) ( Nr (i, j) , Ng (i, j) , Nb (i, j) ) is the pixel value of the (i, j) pixel in the target image I.
  • I (i, j) is regarded as a three-variable vector and normalized.
  • the pixel value is represented by three values of RGB values, that is, R (Red), G (Green), and B (Blue), and each takes a value of 0 or more and 1 or less.
  • the variable i represents the position in the x-axis direction in the image.
  • the variable j represents the position in the y-axis direction in the image, and ranges from 0 to the number of vertical pixels of the image minus one. If the target pixel 201 is the (i, j) pixel, the neighboring pixel 202 is the (i + 1, j) pixel, and the pixel value of the neighboring pixel 202 is I (i + 1, j) .
  • the pixel value I (i + 1, j) is regarded as a vector of three variables and normalized, and N (i + 1, j) is assumed. Chrominance s h takes 0 or 1 or less, indicating that the more color shift is less close to zero.
  • the color difference s h is minimized at 0.
  • the target pixel 201 neighboring pixel 202 were red achromatic color difference s h becomes a value close to 0.9 and a maximum value.
  • the color difference between the target pixel 201 and the neighboring pixel 202 is expressed using the angle formed by the vector when the RGB values of the target pixel 201 and the neighboring pixel 202 are regarded as vectors.
  • the dark pixel extraction unit 107 calculates the luminance difference s y between the target pixel 201 and the neighboring pixel 202 using Equation (2).
  • the luminance of the target pixel 201 is y (i, j)
  • the luminance of the neighboring pixel 202 is y (i + 1, j)
  • the luminance difference is normalized to take a value of ⁇ 1 or more and 1 or less, and 0 when the pixel of interest 201 and the neighboring pixel 202 have the same luminance value, 0 when the pixel of interest 201 is black, that is, the neighboring pixel
  • the luminance difference is a maximum value of 1.
  • the dark part pixel extraction unit 107 performs a conversion process from the RGB value to the luminance y using Expression (3).
  • the dark portion pixel extraction unit 107 may be configured to use an average value of RGB values (I r + I g + I b) / 3 and I g value as the luminance of the pixels.
  • the dark pixel extraction unit 107 performs dark pixel extraction processing based on at least one of the color difference and the luminance difference between the target pixel 201 and the neighboring pixel 202 calculated by the above-described method.
  • FIG. 3 shows an index when the target pixel 201 is extracted as a dark pixel using the color difference and the luminance difference.
  • the dark area pixel extraction unit 107 determines that the target pixel 201 is not a dark area. This is because the luminance of the neighboring pixel 202 is lower than the luminance of the pixel of interest 201, and there is a high possibility that the neighboring pixel 202 is a dark area.
  • the dark pixel extraction unit 107 assumes that the pixel of interest 201 is not a dark region. This is because a portion where both the color and the brightness greatly vary is likely to be the contour of the subject.
  • the dark area pixel extraction unit 107 extracts the target pixel 201 as the first dark area pixel.
  • Each threshold value related to the color difference and the luminance difference is calculated by analyzing the portion where the dark pixel and the non-dark pixel of the subject are in contact in advance in the dark pixel extraction unit 107, or the user setting input from the input / output unit It can be set using a method of calculating from the value. For example, when the user's setting value is “shade enhancement”, the dark pixel extraction unit 107 sets each threshold value large, and when it is “shading weakness”, it is optimal by setting each threshold value small. Threshold can be set.
  • the threshold setting method is not limited to the above example, and a known method may be applied.
  • the target pixel is installed on the right side of the image and the neighboring pixel is installed on the left side of the image. Therefore, the dark pixel extraction unit 107 has a shadow that gradually darkens from the left side to the right side of the image.
  • the neighboring pixels 402 are set to eight pixels located diagonally above, below, left, and right with respect to the target pixel 401. When the neighboring pixels 402 are eight pixels, it is calculated whether the pixel of interest 401 is extracted as a dark pixel for each of the pixels of interest 401 and the neighboring pixels 402.
  • the dark part pixel extraction unit 107 first sets a group in which a certain element is the target pixel 401 and another element is any one of the plurality of neighboring pixels 402 for each of the plurality of neighboring pixels 402. For example, when the neighboring pixels 402 are eight pixels, if the neighboring pixels are represented as NP1 to NP8 and the pixel of interest is represented as IP, the dark portion pixel extraction unit 107 performs (NP1, IP), (NP2, IP ),..., (NP8, IP) are set in total.
  • the dark part pixel extraction unit 107 determines whether or not the target pixel 401 is a dark part pixel by using a result obtained by weighting each determination result of determining whether or not each neighboring pixel is a dark part pixel. It doesn't matter.
  • priority is given to the determination of the neighboring pixel 402 positioned in the vertical direction of the pixel of interest 401 by weighting using a precondition that a shadow often darkens from top to bottom. Can do. Thereby, in many images, erroneous extraction of dark area pixels can be suppressed, which is preferable.
  • the dark part pixel extraction unit 107 weights the result of determining whether or not each neighboring pixel is the first dark part pixel, and determines whether or not the target pixel 401 is the dark part pixel.
  • the dark pixel extraction unit 107 totals all the weighted results of the color difference and luminance difference calculated for each neighboring pixel, and uses the total value and the threshold value described above to determine whether the pixel of interest 401 is a dark pixel. It may be determined.
  • the luminance difference between the target pixel IP and the neighboring pixel NP1 is s y1
  • the color difference is s h1
  • the target pixel IP and the neighboring pixel NP2 are When the luminance difference of s y2 , the color difference is s h2 ,...,
  • the luminance difference between the target pixel IP and the neighboring pixel NP8 is s y8
  • the color difference is s h8
  • the dark pixel extraction unit 107 sums up the luminance difference
  • the value sy_sum and the color difference total value sh_sum may be calculated by the equations (4) and (5).
  • k represents a range of neighboring pixels
  • represents a weighting coefficient for the luminance value
  • represents a weighting coefficient for the color difference.
  • ⁇ and ⁇ are set as positive values. If the weighting coefficients ⁇ and ⁇ are all set to 1, the sum of each of the luminance difference and the color difference is calculated as the summation results sy_sum and sh_sum .
  • Dark portion pixel extraction can be controlled by setting ⁇ and ⁇ to different values. For example, when the weighting coefficient ⁇ is set to a value close to 1 and ⁇ is set to a value close to 0, such as 0.01, dark portion pixel determination can be performed by placing more importance on the luminance difference than the color difference. Even if the subject has a complex texture, it can be considered that the subject is composed of a single color when viewed in the local region, and therefore, it is effective when the local regions set for the subject are sufficiently small.
  • the dark part pixel extraction processing by the dark part pixel extraction unit 107 is performed.
  • FIG. 5 is a diagram for explaining the relationship between the variance of the luminance difference and the weight.
  • the dark part pixel correction unit 108 performs correction so as to reduce a difference in pixel values between the dark part pixel and a pixel other than the dark part pixel and to suppress a change in contrast of the image.
  • the dark part pixel correction unit 108 performs dark part pixel correction processing on the dark part pixels extracted by the dark part pixel extraction unit 107. Specifically, when the target pixel I (i, j) is a dark part pixel, the image (corrected image) after the dark part pixel correction is set as I ′, and the vicinity of N ⁇ M is set as the vicinity pixel of the first dark part pixel. When used, the corrected image I ′ is calculated using equations (6) and (7).
  • the dark pixel correction unit reduces the difference in pixel values between the dark pixel and the pixels other than the dark pixel, and suppresses a change in contrast.
  • the weight ⁇ kl is a Gaussian (normal distribution) type weight coefficient. The value of the weight ⁇ kl increases when the luminance difference between the dark pixel and the neighboring pixel is small. That is, the dark part pixel correction unit 108 increases the weight because the dark part pixel and the neighboring pixels having a small luminance difference are likely to be shadows.
  • the dark part pixel correction unit 108 weakens the weight because the dark part pixel and the neighboring pixels having a large luminance difference are likely to be the contour of the subject.
  • ⁇ in Equation (7) represents the variance of the luminance difference between the dark pixel and the neighboring pixel.
  • the dark pixel correction unit 108 can control how much the difference in luminance between the pixel of interest and the neighboring pixels is allowed by changing the value of the variance ⁇ .
  • the dark part pixel correction unit 108 can control the degree of propagation of pixel values other than the dark part pixels to the dark part pixels by changing the value of the variance ⁇ .
  • amendment part 108 can control the degree of smoothing, and can adjust the degree which suppresses the change of contrast.
  • the horizontal axis 501 represents the luminance difference
  • the vertical axis 502 represents the weight ⁇ .
  • Increasing the variance ⁇ increases the degree of propagation as shown by the curve 503, but makes it impossible to distinguish between the contour of the subject and the non-contour and blurs the contour of the subject.
  • the degree of propagation becomes weak as shown by the curve 504, and blurring of the contour of the subject can be prevented, but the degree of suppression of contrast change is reduced.
  • the dark part pixel correction unit 108 sets a small value for the variance ⁇ and repeatedly performs the dark part pixel correction process.
  • the dark part pixel correction unit 108 sets a small value for the variance ⁇ and repeatedly performs the dark part pixel correction process.
  • the dispersion ⁇ may be set to 20.
  • the dark part pixel correction processing by the dark part pixel correction unit 108 is performed.
  • FIG. 6 is a diagram for explaining an example in which a shadow that appears when a human face is lit is used as a dark part pixel template.
  • the dark part model generation unit 109 generates a dark part model based on the dark part pixels extracted by the dark part pixel extraction unit 107.
  • the dark part model is a model composed of dark part pixels to be given to a subject.
  • the dark part pixel generation unit 109 corrects the dark part pixels extracted by the dark part pixel extraction unit 107 to be bilaterally symmetric and uses the corrected dark part pixels as a dark part model.
  • An image with improved face symmetry can be generated. Since the dark part model suitable for the subject can be generated by using the dark part pixel extracted from the subject, the image quality of the image generated in the image generation unit can be improved, which is preferable.
  • the dark part model generation unit 109 can generate a dark part model by appropriately duplicating and rearranging the dark part pixels extracted by the dark part pixel extraction unit 107.
  • the dark part model generation unit is configured to generate a dark part model based on the dark part pixel template stored in the storage unit 105, it is preferable because a dark part model subjected to various lighting methods can be easily generated.
  • the dark part pixel template is a shadow part pixel extracted as a shadow part pixel such as a split light template 601, a Rembrandt light template 602, a butterfly light template 603, or a loop light template 604. is there.
  • the dark part model generation unit 109 generates a dark part model S based on these dark part pixel templates T using Expression (8).
  • the function f is a function for correcting the dark part pixel template T so as to match the image I ′ after dark part pixel correction.
  • the dark part model generation unit 109 can change the application position and the size of the dark part model S on the image I ′.
  • the dark part model S is arranged at the center of the image I ′, and the size is half of the image.
  • the position and size of the dark part model are changed, and the position and size of the dark part model S on the image I 'are adjusted. For example, when the generated dark part model is generated larger than the subject, the user reduces the dark part model by issuing an instruction to perform the dark part model reduction process.
  • the user changes the position of the dark part model by issuing an instruction to perform the dark part model moving process.
  • the dark part model generation unit 109 automatically changes the position and size of the dark part model according to the skin color distribution in the image.
  • the dark part model is provided at an appropriate position without adjustment by the user, which is preferable.
  • the dark part model generation process by the dark part model generation unit 109 is performed.
  • FIG. 7 is a diagram for explaining dark part pixel assignment based on the dark part model.
  • the image generation unit 110 generates an image O to which dark part pixels are added from the dark part model S and an image (corrected image) I ′ obtained by correcting the dark part pixels, using Expression (9).
  • the image O may be called an image to which the dark part model S is applied or an image to which the dark part model S is added.
  • the dark part model S takes a value from 0 to 1 for each pixel. If the value S (i, j) of the dark part model S of the (i, j) pixel is 1, the pixel value O (i, j) of the generated image O and the pixel value I of the image I ′ obtained by correcting the dark part pixel '(I, j) is the same value. If the value S (i, j) of the dark part model S of the (i, j) th pixel is 0, the pixel value O (i, j) of the generated image O is 0. That is, the closer the value of the dark part model S is to 0, the darker the pixel value of the generated image O, and the closer to 1, the closer the pixel value of the generated image O is to the image I ′ obtained by correcting the dark part pixels.
  • the image generation unit 110 may correct the brightness of the generated image in consideration of how human colors are seen.
  • One of the human color appearances related to brightness is the color area effect.
  • the color area effect is a phenomenon in which the appearance of a color changes depending on the size of the area to be presented, even if they are physically the same color. As the area to be presented increases, the dark area pixels feel darker. Therefore, the image generation unit 110 preferably changes the brightness of the dark area model so as to cancel the color area effect.
  • the image generation unit 110 configures the brightness of the dark part model (the dark part model is configured) according to the sum of the pixels on the image to which the dark part model is added (in other words, the total number of pixels overlapping the dark part model). It is preferable to generate an image using the changed dark part model.
  • the brightness of the dark part model is increased as the sum of the pixels is increased, and the brightness of the dark part model is decreased as the sum is decreased. This is preferable because a natural dark part model can be applied in consideration of human color appearance.
  • the image generation unit 110 applies the dark part model and then determines the brightness after applying the dark part model according to the sum of the pixels to which the dark part model is applied (in other words, the total number of pixels overlapping the dark part model). It is good also as a structure to change.
  • the image generation unit 110 may correct the hue of the generated image in accordance with how the human color appears.
  • One of the human color appearances related to hue is the Besolt-Bschreibe phenomenon.
  • the Besolt-Bschreibe phenomenon is a phenomenon in which the hue changes depending on the brightness. Specifically, when the brightness is lowered, red purple and orange shift to red, and yellow green and blue green shift to green.
  • the image generation unit 110 changes the hue of the dark part model according to the brightness of the dark part model and the hue of the pixel on the image to which the dark part model is added.
  • the image generation unit 110 determines that the shadow effect is stronger as the brightness of the dark part model becomes smaller, and increases the hue change of the dark part model.
  • the image generation unit 110 determines that the shadow effect is weaker as the brightness of the dark part model increases, and reduces the change in the hue of the dark part model. In addition, if the hue of the pixel on the image to which the dark part model is added is included from magenta to orange, the image generation unit 110 changes the hue of the dark part model so that red becomes stronger. If the hue of the pixel on the image to which the dark part model is added is included from yellowish green to blue-green, the image generation unit 110 changes the hue of the dark part model so that green becomes strong. When the subject to which the dark part model is added is a human face, the skin color hue is likely to be included from magenta to orange. Therefore, in the image generation unit 110, when the hue of the dark part model is changed so that red becomes strong. It is preferable that a natural dark part model can be imparted with little uncomfortable feeling.
  • the above-described processing can provide a dark part model that takes into account the appearance of human colors, which is preferable because it can improve the generated image quality.
  • the image generation unit 110 may be configured to change the hue of the image after applying the dark part model according to the brightness of the dark part model and the hue of the pixel on the image to which the dark part model is applied.
  • the image generation processing by the image generation unit 110 is performed.
  • step S ⁇ b> 801 the image processing apparatus 101 captures an image from the imaging unit 103 or the storage unit 105.
  • step S802 the dark part pixel extraction unit 107 extracts dark part pixels from the image captured in step S801 (corresponding to the dark part pixel extraction process described above).
  • step S803 the dark part pixel correction unit 108 corrects the dark part pixel extracted in step S802 (corresponding to the dark part pixel correction process described above).
  • step S804 a dark area pixel template is acquired from the storage unit 105.
  • step S805 the dark part model generation unit 109 generates a dark part model using the dark part pixel template acquired in step S804 (corresponding to the dark part model generation process described above).
  • step S806 using the dark part model generated in step S805, the image generation unit 110 assigns a dark part model to the image after dark part pixel correction, and changes the illumination position to capture the image.
  • An image is generated (corresponding to the image generation process described above).
  • step S807 the image generation unit 110 outputs the image generated in step S806 to the display unit 104.
  • the above is the operation flow of the image processing apparatus 101. As described above, the image display apparatus 102 according to the first embodiment operates.
  • an image having a suitable three-dimensional effect is displayed by adding a desired shadow after correcting dark pixels that are not desired by the user. Can do.
  • it is not necessary to perform a process of imaging the subject a plurality of times while changing the illumination position, so that it can be easily applied to a moving object.
  • FIG. 9 the same components as those in FIG. 1 are denoted by the same reference numerals, and these elements perform the same processing as in the embodiment of FIG.
  • the image display apparatus 102 is based on a face detection unit 903 that detects face size information and the face size information detected by the face detection unit 903.
  • a face detection unit 903 that detects face size information and the face size information detected by the face detection unit 903.
  • FIG. 10 is a diagram for explaining the size of the detected face.
  • a face detection unit 903 detects the size of the face of the subject from the image.
  • the size of the face means the number of horizontal pixels W1001 and the number of vertical pixels H1002 of the detected face area.
  • the method of detecting the size of the face from the image is a method of detecting the skin color to identify the face area, or statistically obtaining an identification function from a large number of face images and learning samples of non-face images (non-face), Method for detecting face position information and face size information (P. Viola and M. Jones, “Rapid object detection using a boost of simple features”, Proc. IEEE Conf. 1 CVPR5, pp. 51, 2001. ) Is known and can be realized by using the method described above. Thus, the size of the face is detected.
  • ⁇ Neighboring pixel range determination processing> Next, the operation of the neighboring pixel range determination unit 904 will be described in detail. Here, the size of the neighboring pixels used for dark part pixel extraction is determined.
  • the neighboring pixel range determination unit 904 enlarges the neighboring pixel range. As the size of the subject's face becomes smaller, the shadows that are produced also become smaller, so the neighboring pixel range determination unit 904 makes the neighboring pixel range smaller.
  • increasing the neighboring pixel range means expanding the neighboring pixel range to kN ⁇ kM
  • the neighboring pixel range determining unit 904 may change the shape of the neighboring pixel range according to the size of the subject's face. For example, when the size of the face of the subject is substantially the same in length and width, it is determined that the face of the subject is rounded, and a circular neighboring pixel range is set.
  • the shape of the neighboring pixel range is not limited to a square, a rectangle, or a circle, but may be a combination of other pixels such as a cross shape represented by four neighborhoods in the upper, lower, left, and right directions, and a cross shape represented by only four neighboring neighborhoods.
  • step S1101 the image processing apparatus 901 captures an image from the imaging unit 103 or the storage unit 105.
  • the face detection unit 903 detects the size of the face from the image captured in step 1101. This process corresponds to the face detection process described above.
  • the neighboring pixel range determination unit 904 determines a neighboring pixel range based on the face size detected in step S1102. This process corresponds to the neighborhood pixel range determination process described above.
  • the dark part pixel extraction unit 107 extracts dark part pixels from the image captured in step S1101 and the neighboring pixel range determined in step S1103.
  • step S1105 the dark part pixel correction unit 108 corrects the dark part pixels extracted in step S1104.
  • step S ⁇ b> 1106 a dark part pixel template is acquired from the storage unit 105.
  • step S1107 the dark part model generation unit 109 generates a dark part model using the dark part pixel template acquired in step S1106.
  • step S1108, using the dark part model generated in step S1107 the image generation unit 110 assigns a dark part model to the image after dark part pixel correction, and changes the illumination position to capture an image. A simple image.
  • the image generation unit 110 outputs the image generated in step S1108 to the display unit 104.
  • the above is the operation flow of the image processing apparatus 901. As described above, the image display device 902 of the second embodiment operates.
  • the range of the dark pixel to be extracted is controlled based on the size of the subject. Therefore, the dark pixel that is unnecessary while leaving the preferred dark pixel.
  • a desired dark portion pixel can be added to the image corrected for the above, and an image having a suitable stereoscopic effect can be displayed.
  • the program that operates in the image processing apparatus according to the present invention may be a program that controls a CPU or the like (a program that causes a computer to function) so as to realize the functions of the above-described embodiments relating to the present invention.
  • Information handled by these devices is temporarily stored in a RAM (Random Access Memory) during processing, and then stored in various ROMs and HDDs such as a ROM (Read Only Memory). Reading, correction and writing are performed.
  • the “computer system” here includes an OS (Operating System) and hardware such as peripheral devices.
  • the “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM or a CD-ROM, and a hard disk incorporated in a computer system.
  • the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line.
  • a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included.
  • a part or all of the image processing apparatus in the above-described embodiment may be realized as an LSI that is typically an integrated circuit.
  • Each functional block of the image processing apparatus may be individually formed into chips, or a part or all of them may be integrated into a chip.
  • the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor.
  • an integrated circuit based on the technology can also be used.
  • control lines and the information lines indicate what is considered necessary for the description, and do not necessarily indicate all the control lines and information lines on the product. All the components may be connected to each other.
  • the image processing apparatus suppresses a change in contrast of the target image by using the dark part pixel extracting unit 107 that extracts one or more dark part pixels from the target image and the one or more dark part pixels.
  • a dark part pixel correction unit 108 that generates a corrected image by correcting the dark part model
  • a dark part model generation unit 109 that generates a dark part model based on the dark part pixels
  • an image generation unit 110 that applies dark portion pixels constituting the dark portion model to the corrected image.
  • the dark part pixels constituting the dark part model are added to the corrected image generated by correcting the one or more dark part pixels so as to suppress the change in contrast of the target image.
  • An image having a suitable stereoscopic effect can be generated. Further, the above configuration can be easily applied even when the subject moves.
  • the dark part pixel extraction unit 107 includes at least a color difference and a luminance difference between a target pixel in the target image and a neighboring pixel located in the vicinity of the target pixel. Depending on which one, it is preferable to extract the pixel of interest as a dark pixel.
  • the dark part pixel extraction unit 107 has the color difference between the target pixel and the neighboring pixel smaller than a threshold relating to the color difference, and the luminance of the neighboring pixel
  • the luminance difference obtained by subtracting the luminance is a positive value and smaller than a threshold value related to the luminance difference, it is preferable to extract the target pixel as a dark pixel.
  • the image generation unit 110 determines the brightness of the dark part model according to the total number of pixels on the corrected image to which the dark part model is applied. Or it is preferable to change the brightness of the image after applying the dark part model.
  • the image generation unit 110 corresponds to the brightness of the dark part model and the hue of the pixel on the corrected image to which the dark part model is added.
  • the hue of the dark part model or the hue of the image after the dark part model is applied is changed.
  • a face detection unit 903 that detects face size information of a subject from an image, and the dark part pixel extraction unit 107 from the face size information.
  • a neighboring pixel range determining unit 904 that determines a range that can be taken by neighboring pixels, and the dark part pixel extracting unit 107 preferably uses pixels in the determined range as neighboring pixels.
  • the image quality of the generated image can be improved.
  • a dark part pixel extraction step of extracting one or a plurality of dark part pixels from the target image, and the one or the plurality of dark part pixels are configured to suppress a change in contrast of the target image.
  • a dark portion pixel correcting step for generating a corrected image by correcting the dark portion model, a dark portion model generating step for generating a dark portion model based on the dark portion pixel, and a dark portion pixel constituting the dark portion model for the corrected image.
  • an image generation step for generating a corrected image by correcting the dark portion model, a dark portion model generating step for generating a dark portion model based on the dark portion pixel, and a dark portion pixel constituting the dark portion model for the corrected image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Electromagnetism (AREA)
  • Software Systems (AREA)
  • Nonlinear Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)

Abstract

 被写体が動く場合にも容易に適用でき、好適な立体感を有する画像を生成する。画像処理装置(101)は、暗部画素を抽出する暗部画素抽出部(107)と、補正画像を生成する暗部画素補正部(108)と、前記暗部画素に基づいて暗部モデルを生成する暗部モデル生成部(109)と、前記補正画像に対して、前記暗部モデルを構成する暗部画素を付与する画像生成部(110)と、を備えている。

Description

画像処理装置
 本発明は、画像を生成する画像処理装置に関する。
 被写体を魅力的に撮像する方法として、外部ストロボやレフ板などの照明機材を用いて被写体にライティングを施し、立体感の演出を行う方法がある。このような技術は、高価な機材やユーザのスキルを必要とするため、一般ユーザが所望のライティングを施した画像を撮像することは困難である。
 特許文献1では所望の部分に対して所望のライティングがなされた状態の画像を得ることができる撮像装置が開示されている。
特開2012-138819(2012年7月19日公開)
 しかしながら、上述した方法では、照明位置を変更しながら被写体を複数回撮像する必要があるため、動く物体への適用が困難であった。例えば、被写体が人間の場合は瞬きをしたり、照明が眩しければまぶたを伏せたり、被写体本人が意識せずとも体を動かしてしまうことがあり、複数回撮像した画像を合成する際、撮像画像間で被写体の位置ずれが生じるため、自然な合成画像を得ることは難しかった。
 本発明は上記課題を鑑みて発明されたものであり、被写体が動く場合にも容易に適用でき、好適な立体感を有する画像を生成することが可能な画像処理装置を提供することを目的とする。
 本発明の一観点によれば、画像処理装置は、対象画像の暗部画素を抽出する暗部画素抽出部と、暗部画素を対象画像のコントラストの変化を抑制するように補正する暗部画素補正部と、暗部画素補正部において補正された画像に応じて暗部モデルを生成する暗部モデル生成部と、暗部モデルに基づいて暗部画素補正部において補正された画像に暗部モデル生成部において生成された暗部モデルを構成する暗部画素を付与する画像生成部と、を備えている。
 本発明によれば、被写体が動く場合にも容易に適用でき、好適な立体感を有する画像を生成することができる。
本発明の第1の実施の形態による画像処理装置を備える画像表示装置の一構成を示す機能ブロック図である。 注目画素と近傍画素との関係を説明する図である。 色差と輝度差とを用いて注目画素が暗部画素として抽出される指標を説明する図である。 近傍画素が複数となる場合の注目画素と近傍画素との関係を説明する図である。 暗部画素補正において輝度差の分散と重みとの関係を説明する図である。 人間の顔にライティングを施したときに現れる陰影の暗部画素テンプレートを説明する図である。 暗部モデルに基づいた暗部画素付与について説明する図である。 本発明の第1の実施の形態における画像処理の流れを示すフローチャート図である。 本発明の第2の実施の形態による画像処理を備える画像表示装置の一構成例を示す機能ブロック図である。 検出された顔の大きさを説明するための図である。 本発明の第2の実施の形態における画像処理の流れを示すフローチャート図である。
〔実施形態1〕
 以下、添付図面を参照して本発明の実施形態1について説明する。なお、添付図面は本発明の原理に則った具体的な実施形態を示しているが、これらは本発明の理解のためのものであり、決して本発明を限定的に解釈するために用いられるものではない。また、各図における構成は、理解しやすいように誇張して記載しており、実際の間隔や大きさとは異なる。
 図1は、本発明の実施形態1に係る画像処理装置101を備える画像表示装置102の構成を示す機能ブロック図である。本実施形態では、画像表示装置102が、撮像部103で被写体を撮像し、撮像した画像から好適な立体感を有する画像を生成し、生成画像を表示部104に表示する場合の例について説明する。
 以下、本発明の実施形態1に係るシステム構成及び動作の詳細を、図1を用いて詳細に説明する。画像表示装置102は、撮像部103と、表示部104と、記憶部105と、画像処理装置101と、入出力部106と、を備える。
 撮像部103は、撮像レンズ及びCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を備えており、被写体の静止画や動画を撮像できる。
 表示部104は、LCD(Liquid Crystal Display:液晶ディスプレイ)や有機EL(Electro Luminescence)ディスプレイなどの表示画面であり、画像や文字などの情報や被写体の画像等を表示する。
 画像処理装置101は、例えばCPU(Central Processing Unit:中央処理装置)やGPU(Graphic Processing Unit:画像処理用処理装置)等で構成することができる。また、画像処理装置101は、撮像部103または記憶部105等から取得した画像を、入出力部106から取得したユーザ指示に基づいて処理し、表示部104および記憶部105の少なくとも一つへ処理後の画像を出力する。
 また、画像処理装置101は、暗部画素抽出部107と暗部画素補正部108と暗部モデル生成部109と画像生成部110とを備えている。これらの各部は、以下の各処理を行う。
<暗部画素抽出処理>
 暗部画素抽出部107は、上述の撮像部103または記憶部105等より画像処理装置101が取得した画像から、1又は複数の暗部画素を抽出する。ここで暗部画素とは、取得した画像において、被写体に現れる陰影を構成する画素のことで、輝度や色の変化が少ない箇所のことである。例えば人間の顔における陰影は、顔の凹凸により生じるシミ、ほうれい線などのシワ、鼻の影及び光源からの光が遮られることにより額や頬などに現れる影などのことである。暗部画素抽出処理の詳細については後述する。
<暗部画素補正処理>
 暗部画素補正部108は、暗部画素抽出部107で抽出された1又は複数の暗部画素の少なくとも何れかを、画像のコントラストの変化を抑制するように補正することによって補正画像を生成する。暗部画素補正処理の詳細については後述する。
<暗部モデル生成処理>
 暗部モデル生成部109は、暗部画素抽出部107によって抽出された暗部画素を基に、被写体に応じた暗部モデルを生成する。暗部モデル生成処理及び暗部モデルの詳細については後述する。
<画像生成処理>
 画像生成部110は、暗部画素補正部108において補正された画像(補正画像)と暗部モデル生成部において生成された暗部モデルとに基づいて、当該補正された画像に暗部画素を付与した画像を生成する。画像生成処理の詳細については後述する。
 記憶部105は、例えばフラッシュメモリやハードディスクであり、画像および暗部モデルの基となる暗部画素テンプレート等を記憶したり、機器固有のデータを保存したりする。
 入出力部106は、キーボタンやマイクやスピーカー等を用いて、ユーザ指示を画像処理装置101に入力したり、画像処理装置101から入力された音声等を出力したりする。以上が実施形態1のシステム構成である。
 次に、実施形態1における画像表示装置102の動作について図2乃至図8を用いて詳しく説明する。まず、暗部画素抽出部107による暗部画素抽出処理の詳細について、図2乃至図4を用いて詳しく説明する。図2は、処理対象の画像である対象画像における注目画素201と注目画素201の近傍に位置する近傍画素202との関係を説明する図である。図3は、色差と輝度差とを用いて注目画素が暗部画素として抽出される場合の指標を説明する図である。図4は、近傍画素が複数となる場合の注目画素と近傍画素との関係を説明する図である。暗部画素抽出部107は、注目画素201と近傍画素202との色差と輝度差とに基づいて注目画素201が暗部画素であるか判断する。また、注目画素201を暗部画素として判断した場合、暗部画素抽出部107は、注目画素201を暗部画素として抽出する。
 より具体的には、暗部画素抽出部107は、注目画素201と近傍画素202との色差sを式(1)を用いて算出する。
Figure JPOXMLDOC01-appb-M000001
 ここでN(i、j)=(Nr(i、j)、Ng(i、j)、Nb(i、j))は、対象画像Iにおける第(i、j)画素の画素値I(i、j)を3変数のベクトルとみなして正規化したものである。画素値はRGB値、すなわち、R(Red)、G(Green)、B(Blue)の3つの値で表され、それぞれ0以上1以下の値をとる。画像の横方向をx軸、縦方向をy軸、画像の左上座標を原点(0、0)としたとき、変数iは画像中のx軸方向の位置を表し、0から画像の横画素数-1までの範囲をとる。変数jは画像中におけるy軸方向の位置を表し、0から画像の縦画素数-1までの範囲をとる。注目画素201を第(i、j)画素とすると、近傍画素202は第(i+1、j)画素となるので、近傍画素202の画素値はI(i+1、j)とされる。画素値I(i+1、j)を3変数のベクトルとみなして正規化したものをN(i+1、j)とする。色差sは0以上1以下の値をとり、0に近いほど色ずれが少ないことを表す。注目画素201と近傍画素202が画素値として同じRGB値を有する場合、色差sは0で最小となる。例えば注目画素201が無彩色で近傍画素202が赤色であった場合、色差sは0.9と最大値に近い値をとなる。このように、注目画素201と近傍画素202とのRGB値をベクトルと見なした時のベクトルのなす角度を用いて注目画素201と近傍画素202との色差を表す。
 また、暗部画素抽出部107は、注目画素201と近傍画素202との輝度差syを式(2)で算出する。
Figure JPOXMLDOC01-appb-M000002
 ここで、注目画素201の輝度をy(i、j)、近傍画素202の輝度をy(i+1、j)とする。輝度差は-1以上1以下の値をとるように正規化されており、注目画素201と近傍画素202とが同じ輝度値を有する場合は0、注目画素201が0、すなわち黒で、近傍画素202が1、すなわち白の場合、輝度差は最大値の1となる。暗部画素抽出部107は、RGB値から輝度yへの変換処理を式(3)を用いて実行する。
Figure JPOXMLDOC01-appb-M000003
また、暗部画素抽出部107は、画素の輝度としてRGB値の平均値(I+I+I)/3やI値などを用いる構成としてもよい。
 暗部画素抽出部107は上述した方法にて算出した注目画素201と近傍画素202との色差および輝度差の少なくとも何れかに基づき、暗部画素の抽出処理を行う。図3に色差と輝度差とを用いて注目画素201が暗部画素として抽出される場合の指標を示す。輝度差が0または負の値の場合、暗部画素抽出部107は、注目画素201が暗部領域ではないと判断する。これは、注目画素201の輝度よりも近傍画素202の輝度が低く、近傍画素202が暗部領域である可能性が高いためである。輝度差が正の値で、色差または輝度差が所定の閾値以上の場合も、暗部画素抽出部107は、注目画素201が暗部領域ではないとする。これは、色と輝度との両方が大きく変動している箇所は被写体の輪郭である可能性が高いためである。輝度差が正の値で、色差および輝度差が所定の閾値よりも小さい場合、暗部画素抽出部107は、注目画素201を第1の暗部画素として抽出する。色差および輝度差に係る各々の閾値は、暗部画素抽出部107において、あらかじめ被写体の暗部画素と非暗部画素とが接する箇所を解析することにより算出する方法や入出力部から入力されるユーザの設定値から算出する方法等を用いて設定しておくことができる。例えば、ユーザの設定値が「陰影強め」である場合、暗部画素抽出部107は、各々の閾値を大きく設定し、「陰影弱め」である場合は、各々の閾値を小さめに設定することにより最適な閾値を設定できる。
 なお、閾値の設定方法は上記の例に限るものではなく、公知の手法を適用してもよい。
 上述の方法では、画像に向かって右側に注目画素、画像に向かって左側に近傍画素が設置されているため、暗部画素抽出部107は、画像の左側から右側へとなだらかに暗くなるような陰影のみを暗部画素として抽出したが、実画像においては上下左右斜め方向のいずれの方向においてもなだらかに暗くなるような箇所を暗部画素として抽出する必要がある。全方向の陰影を暗部画素として抽出するために、図4に示すように注目画素401に対し、近傍画素402を注目画素401の上下左右斜めに位置する8画素とする。近傍画素402が8画素の場合、注目画素401と近傍画素402である8画素それぞれについて注目画素401が暗部画素として抽出されるか計算する。
 より具体的には、暗部画素抽出部107は、まず、ある要素を注目画素401とし他の要素を複数の近傍画素402の何れかとする組を、複数の近傍画素402のそれぞれに関して設定する。例えば、近傍画素402が8画素の場合、それぞれの近傍画素をNP1~NP8と表記し、注目画素をIPと表記したとすると、暗部画素抽出部107は、(NP1、IP),(NP2、IP),…,(NP8、IP)の合計8組を設定する。続いて、注目画素401と近傍画素402との各組において、注目画素401が暗部画素であるとされた組が、注目画素401が暗部画素ではないとされた組よりも多い場合、暗部画素抽出部107は、注目画素401を暗部画素として抽出する。
 また、暗部画素抽出部107は、近傍画素毎に暗部画素か否かを判定したそれぞれの判定結果に対して重み付けを行った結果を用いて、注目画素401が暗部画素か否かを判定しても構わない。上述の判定方法を行うことにより、例えば、陰影は上から下へと暗くなることが多いといった前提条件を用いた重み付けにより、注目画素401の上下方向に位置する近傍画素402の判断を優先させることができる。これにより、多くの画像において、暗部画素の誤抽出を抑制できるため好適である。
 なお、上記では、暗部画素抽出部107は、近傍画素毎に第1の暗部画素か否かを判定した結果に対して重み付けを行い、注目画素401が暗部画素か否かを判定しているが、暗部画素抽出部107は、近傍画素毎に算出した色差と輝度差に対して重み付けを行った結果をすべて集計し、その集計値と上述した閾値とを用いて注目画素401を暗部画素か否かを判定しても構わない。具体的には、注目画素IPと近傍画素が8画素(NP1~NP8)の場合、注目画素IPと近傍画素NP1との輝度差をsy1、色差をsh1、注目画素IPと近傍画素NP2との輝度差をsy2、色差をsh2、・・・、注目画素IPと近傍画素NP8との輝度差をsy8、色差をsh8とした場合、暗部画素抽出部107は、輝度差の集計値sy_sumと色差の集計値sh_sumを式(4)と(5)で算出する構成としてもよい。
Figure JPOXMLDOC01-appb-M000004
Figure JPOXMLDOC01-appb-M000005
 ここでkは近傍画素の範囲を、αは輝度値に対する重み付け係数を、βは色差に対する重み付け係数を表す。αとβは正の値として設定する。重み付け係数αとβを全て1と設定すると、輝度差と色差の各々の総和が集計結果sy_sum、sh_sumとして算出される。αとβを、各々違う値に設定することで暗部画素抽出を制御できる。例えば、重み付け係数αを1に近い値に、βを0.01など0に近い値に設定すると、色差よりも輝度差を重視して暗部画素判定が行えるようになる。複雑なテクスチャを有する被写体でも、局所領域で見るとおおむね単一の色で構成されているとみなせるため、被写体に対し設定される局所諸領域が十分に小さい場合に有効である。
 以上により、暗部画素抽出部107による暗部画素抽出処理がなされる。
 次に、暗部画素補正部108による暗部画素補正処理の詳細について、図5を用いて説明する。図5は輝度差の分散と重みとの関係を説明する図である。暗部画素補正部108は、暗部画素と暗部画素以外の画素との画素値の差を小さくし、画像のコントラストの変化を抑制するように補正を行う。
 暗部画素補正部108は、暗部画素抽出部107で抽出された暗部画素に対し、暗部画素補正処理を施す。具体的には、注目画素I(i、j)が暗部画素である場合、暗部画素補正後の画像(補正画像)をI’とし、第1の暗部画素の近傍画素としてN×Mの近傍を用いる場合、補正後の画像I’を、式(6)、(7)を用いて算出する。
Figure JPOXMLDOC01-appb-M000006
Figure JPOXMLDOC01-appb-M000007
 ここで、画素値I(i、j)は、対象画像Iにおける第(i、j)画素の画素値を示す。注目画素I(i、j)が暗部画素でない場合は、I’(i、j)=I(i、j)となる。
 このように注目画素に対し近傍画素に重み付き平滑化処理を施すことで、暗部画素補正部は、暗部画素と暗部画素以外の画素との画素値の差を小さくし、コントラストの変化を抑制する。式(7)から明らかなように、重みωklは、ガウシアン(正規分布)型の重み係数である。重みωklは、暗部画素と近傍画素との輝度差が小さいときに値が大きくなる。すなわち、暗部画素補正部108は、暗部画素とその近傍画素のうち輝度差の小さなものは陰影である可能性が高いため重みを強くする。反対に、暗部画素補正部108は、暗部画素とその近傍画素のうち輝度差の大きなものは被写体の輪郭である可能性が高いため重みを弱くする。ここで、式(7)におけるσは暗部画素と近傍画素との輝度差の分散を表す。暗部画素補正部108は、分散σの値を変えることにより、注目画素の輝度と近傍画素との輝度の差をどの程度許容するかを制御することができる。暗部画素補正部108は、分散σの値を変えることにより、暗部画素以外の画素値を暗部画素に伝搬させる度合いを制御することができる。これにより、暗部画素補正部108は、平滑化の度合いを制御し、コントラストの変化を抑制する度合いを調節することができる。図5は横軸501が輝度差、縦軸502が重みωを表す。分散σを大きくすると曲線503に示すように伝搬の度合いは強くなるが、被写体の輪郭と非輪郭とを区別できなくなり、被写体の輪郭がぼやけてしまう。分散σに小さい値を設定すると曲線504に示すように伝搬の度合いは弱くなり被写体の輪郭のぼやけは防げるが、コントラストの変化の抑制度合いが小さくなってしまう。そこで、暗部画素補正部108は分散σに小さい値を設定し、暗部画素補正処理を繰り返し施す方法をとることが好ましい。このような方法を採用することにより、暗部画素補正処理を繰り返す毎に暗部画素以外の画素の画素値を暗部画素に伝搬させることができ、被写体の輪郭を保ったままコントラストの変化を抑制することができるため好適である。
 また、分散σの具体的な設定方法としては、抽出対象とする陰影の分散値の2倍程度に設定すると好適である。例えば、画素値が0~255階調をとり、陰影の分散値が10であるとき、分散σは20と設定すれば良い。ここでは、画素値であるRGB値が0以上1未満に正規化されて用いられているため、σ=0.08(=20/255)と設定する。陰影の分散値が既知でない場合は、σ=0.04(=10/255)など小さめに設定すると良い。
 以上により、暗部画素補正部108による暗部画素補正処理が行われる。
 次に、暗部モデル生成部109による暗部モデル生成処理について図6を用いて説明をする。図6は人間の顔にライティングを施したときに現れる陰影を暗部画素テンプレートとして使用する場合の例を説明する図である。暗部モデル生成部109は、暗部画素抽出部107によって抽出された暗部画素に基づき暗部モデルを生成する。暗部モデルとは、被写体に付与するための暗部画素から構成されるモデルのことである。例えば、被写体が人間の顔である場合、暗部画素抽出部107が抽出した暗部画素を左右対称となるように補正し、当該補正した暗部画素を暗部モデルとして用いることにより、暗部モデル生成部109は、顔の対称性が向上した画像を生成することができる。被写体から抽出した暗部画素を用いることにより、被写体に適した暗部モデルを生成できるため、画像生成部において生成される画像の画質を向上させることができ好適である。
 このように、暗部モデル生成部109は、暗部画素抽出部107が抽出した暗部画素を適宜複製して再配置することによって暗部モデルを生成することができる。
 また、暗部モデル生成部が、記憶部105に保持してある暗部画素テンプレートに基づき暗部モデルを生成する構成とすれば、様々なライティング手法を施したような暗部モデルを簡易に生成できるため好適である。ここで、暗部画素テンプレートとは、スプリットライトテンプレート601やレンブラントライトテンプレート602、バタフライライトテンプレート603、ループライトテンプレート604のように、被写体にライティングを施したときに現れる陰影を暗部画素として抽出したものである。暗部モデル生成部109は、これらの暗部画素テンプレートTに基づき暗部モデルSを、式(8)を用いて生成する。
Figure JPOXMLDOC01-appb-M000008
 ここで、関数fは暗部画素テンプレートTを暗部画素補正後の画像I’に適合するように補正する関数である。この補正において、暗部モデル生成部109は、暗部モデルSの画像I’上の付与位置と大きさの変更を行うことができる。まず、暗部モデルSを画像I’の画像中心に配置し、大きさは画像の半分とする。入出力部106から入力されるユーザの指示Uに従い、暗部モデルの付与位置と大きさの変更を行い、暗部モデルSの画像I’上の付与位置と大きさとの調整を行う。例えば、生成された暗部モデルが被写体よりも大きめに生成された場合、ユーザは暗部モデル縮小処理を行う指示を出すことで、暗部モデルを縮小する。また、生成された暗部モデルの位置が被写体位置とずれていた場合、ユーザは暗部モデルの移動処理を行う指示を出すことで、暗部モデルの位置を変更する。このとき、被写体が人間の顔など既知の物体であれば、暗部モデル生成部109が、画像中の肌色の分布に合わせて暗部モデルの付与位置と大きさの変更を自動的に行う構成とすれば、ユーザによる調整を行わずとも、適切な位置に暗部モデルが付与されるため好適である。
 以上により、暗部モデル生成部109による暗部モデル生成処理が行われる。
 最後に、画像生成部110による画像生成処理について図7を用いて詳しく説明する。図7は暗部モデルに基づいた暗部画素付与について説明する図である。
 画像生成部110は、暗部モデルSと暗部画素を補正した画像(補正画像)I’とから、暗部画素を付与した画像Oを、式(9)を用いて生成する。画像Oのことを暗部モデルSを適用した画像または暗部モデルSを付与した画像と呼ぶこともある。
Figure JPOXMLDOC01-appb-M000009
 暗部モデルSは、画素毎に0以上1以下の値をとる。第(i、j)画素の暗部モデルSの値S(i、j)が1であれば、生成画像Oの画素値O(i、j)と暗部画素を補正した画像I’の画素値I’(i、j)とは同じ値となる。第(i、j)画素の暗部モデルSの値S(i、j)が0であれば、生成画像Oの画素値O(i、j)は0となる。すなわち、暗部モデルSの値が0に近いほど生成画像Oの画素値は暗くなり、1に近いほど生成画像Oの画素値は暗部画素を補正した画像I’に近づく。
 また、人間の色の見え方を考慮して、画像生成部110は生成画像の明るさを補正するようにしても良い。人間の色の見え方のうち、明るさに関係するものの一つに、色の面積効果がある。色の面積効果とは、物理的には同じ色であっても、提示する面積の大きさによって色の見え方が変化する現象のことである。提示する面積が大きくなると、暗部画素はより暗く感じられるため、画像生成部110は色の面積効果を打ち消すように暗部モデルの明るさを変化させることが好ましい。具体的には、画像生成部110は、暗部モデルを付与する画像上の画素の総和(換言すれば、暗部モデルと重複する画素の総数)に応じて、暗部モデルの明るさ(暗部モデルを構成する暗部画素の明るさ)を変更し、当該変更した暗部モデルを用いて画像生成を行うことが好ましい。
 上記の処理では、画素の総和が大きくなるほど暗部モデルの明るさを大きくし、総和が小さくなるほど暗部モデルの明るさを小さくする。これにより、人間の色の見え方を考慮した自然な暗部モデル付与を行うことができるため好適である。
 なお、画像生成部110は、暗部モデルを適用したうえで、暗部モデルを付与した画素の総和(換言すれば、暗部モデルと重複する画素の総数)に応じて、暗部モデル適用後の明るさを変更する構成としてもよい。
 さらに、人間の色の見え方に応じて、画像生成部110は、生成画像の色相を補正するようにしても良い。人間の色の見え方のうち、色相に関係するものの一つに、ベゾルト-ブリュッケ現象がある。ベゾルト-ブリュッケ現象とは、明るさによって色相が変化する現象で、具体的には明るさが低下すると赤紫とオレンジは赤に、黄緑と青緑は緑にシフトする現象のことである。暗部モデルの明るさと暗部モデルを付与する画像上の画素の色相に応じて、画像生成部110は暗部モデルの色相を変化させる。画像生成部110は、暗部モデルの明るさが小さくなるほど、陰影の効果が強いと判断し、暗部モデルの色相の変化を大きくする。また、画像生成部110は、暗部モデルの明るさが大きくなるほど、陰影の効果が弱いと判断し、暗部モデルの色相の変化を小さくする。また、画像生成部110は、暗部モデルを付与する画像上の画素の色相が赤紫からオレンジに含まれるのであれば、赤が強くなるように暗部モデルの色相を変更する。画像生成部110は、暗部モデルを付与する画像上の画素の色相が黄緑から青緑に含まれるのであれば、緑が強くなるように暗部モデルの色相を変更する。暗部モデルを付与する被写体が人間の顔の場合、肌色の色相は赤紫からオレンジに含まれる可能性が高いため、画像生成部110において、赤が強くなるように暗部モデルの色相を変化させると、違和感の少ない自然な暗部モデル付与を行うことができ好適である。
 上述した処理により、人間の色の見え方を考慮した暗部モデルを付与できるため、生成される画質を向上させることができ好適である。
 なお、画像生成部110は、暗部モデルの明るさと暗部モデルを付与する画像上の画素の色相に応じて、暗部モデルを適用した後の画像の色相を変化させる構成としてもよい。
 以上により、画像生成部110による画像生成処理が行われる。
 以上、上記動作の流れを図8に示すフローチャートを用いて説明をする。
 まず、ステップS801では、画像処理装置101は、撮像部103または記憶部105から画像を取り込む。次に、ステップS802では、ステップS801にて取り込んだ画像から、暗部画素抽出部107が暗部画素を抽出する(上述した暗部画素抽出処理に対応)。次に、ステップS803では、ステップS802にて抽出された暗部画素を、暗部画素補正部108が補正する(上述した暗部画素補正処理に対応)。次に、ステップS804では、記憶部105から暗部画素テンプレートを取得する。次に、ステップS805では、ステップS804にて取得した暗部画素テンプレートを用いて、暗部モデル生成部109は暗部モデルを生成する(上述した暗部モデル生成処理に対応)。次に、ステップS806では、ステップS805にて生成された暗部モデルを用いて、画像生成部110が暗部画素補正後の画像に暗部モデルを付与し、照明位置を変更して撮像したかのような画像を生成する(上述した画像生成処理に対応)。そして、ステップS807では、ステップS806にて生成した画像を、画像生成部110が表示部104に出力する。以上が画像処理装置101の動作の流れである。以上のようにして、第1実施例の画像表示装置102は動作する。
 上述した本発明に係る画像処理装置101を備える画像表示装置102によれば、ユーザが所望しない暗部画素を補正した後、所望の陰影を付与することで好適な立体感を有する画像を表示することができる。また、従来技術のように、照明位置を変更しながら被写体を複数回撮像するといった処理が不要なため、動く物体に対しても容易に適用することができる。
 〔実施形態2〕
 次に、本発明の第2実施例に係る画像処理装置901を備える画像表示装置902の構成について、図9を用いて説明する。図9において、図1と同じ構成要素には同じ番号を付しており、これらの要素は図9の実施例と同じ処理を行うため説明を省略する。
 本実施例と第1実施例との違いは、画像表示装置102は、顔の大きさ情報を検出する顔検出部903と、顔検出部903で検出された顔の大きさ情報を基に、暗部画素抽出部107における近傍画素が取りうる範囲を決定する近傍画素範囲決定部904とを備えた構成になっていることである。
 次に、第2の実施例における画像表示装置902の動作について図10乃至図11を用いて詳しく説明する。まず、顔検出部903の動作について、図10を用いて詳しく説明する。図10は検出された顔の大きさを説明する図である。
<顔検出処理>
 顔検出部903は、画像から、被写体の顔の大きさを検出する。ここで、顔の大きさとは、検出された顔領域の横画素数W1001と縦画素数H1002のことである。画像から顔の大きさを検出する方法は、肌色を検出して顔領域を特定する方法や、多数の顔画像と顔以外の画像(非顔)の学習サンプルから統計的に識別関数を求め、顔の位置情報と顔の大きさ情報を検出する方法(P.Viola and M.Jones,“Rapid object detection using a boosting cascade of simple features”,Proc.IEEE Conf.CVPR,pp.511-518,2001)が知られており、上述した方法を用いることで実現できる。以上により、顔の大きさの検出がなされる。
<近傍画素範囲決定処理>
 次に、近傍画素範囲決定部904の動作について詳しく説明する。ここでは、暗部画素抽出で用いる近傍画素の大きさを決定する。被写体の顔の大きさが大きくなるに従って、生じる影もより大きくなるため、近傍画素範囲決定部904は近傍画素範囲をより大きくする。被写体の顔の大きさが小さくなるに従って、生じる影もより小さくなるため、近傍画素範囲決定部904は近傍画素範囲をより小さくする。近傍画素範囲がN×Mのとき、近傍画素範囲を大きくするとは近傍画素範囲をkN×kMに拡大することを指し、近傍画素範囲を小さくするとは近傍画素範囲をN/k×M/kに縮小することを指す(ここで、k>1であり、例えばk=2、3等の値が好適である)。これにより、被写体の顔の大きさが大きいにも関わらず小さな近傍画素範囲を用いて暗部画素抽出を行った結果、大きな影を構成する暗部画素を抽出できなかったり、被写体の顔の大きさが小さいにも関わらず大きな近傍画素範囲を用いて暗部画素抽出を行った結果、アイブロウ、アイラインや輪郭付近のシェーディングなどの好ましい印象を与える微小な陰影を暗部画素として抽出してしまったりすることを防ぐことができる。このように、上記構成によれば、好ましい暗部画素を残しながら不必要とされる暗部画素のみを補正することができる。
 また、近傍画素範囲決定部904は被写体の顔の大きさによって近傍画素範囲の形を変更してもよい。例えば、被写体の顔の大きさが縦長さと横長さとがほぼ同じ値であったとき、被写体の顔は丸みを帯びていると判断し、円形の近傍画素範囲を設定する。近傍画素範囲の形は、正方形や長方形、円形だけでなく、上下左右の4近傍で表される十字型や、斜めのみの4近傍で表されるクロス型など、別の画素の組み合わせでもよい。被写体に合わせて近傍画素範囲の形を変更することで、被写体に適した近傍範囲で画像処理を行うため、画像生成部は生成される画質を向上させることができ好適である。
 以下、上記動作の流れを図11に示すフローチャートを用いて説明をする。
 まず、ステップS1101では、画像処理装置901は、撮像部103または記憶部105から画像を取り込む。次に、ステップS1102では、ステップ1101にて取り込まれた画像から、顔検出部903が顔の大きさを検出する。この処理は、上述した顔検出処理に該当する。次に、ステップS1103では、ステップS1102にて検出された顔の大きさから、近傍画素範囲決定部904が近傍画素範囲を決定する。この処理は、上述した近傍画素範囲決定処理に該当する。次に、ステップS1104では、ステップS1101にて取り込んだ画像とステップS1103にて決定した近傍画素範囲とから、暗部画素抽出部107が暗部画素を抽出する。次に、ステップS1105では、ステップS1104にて抽出された暗部画素を、暗部画素補正部108が補正する。次に、ステップS1106では、記憶部105から暗部画素テンプレートを取得する。次に、ステップS1107では、ステップS1106にて取得した暗部画素テンプレートを用いて、暗部モデル生成部109は暗部モデルを生成する。次に、ステップS1108では、ステップS1107にて生成された暗部モデルを用いて、画像生成部110が、暗部画素補正後の画像に暗部モデルを付与し、照明位置を変更して撮像したかのような画像を生成する。そして、ステップS1109では、ステップS1108にて生成した画像を、画像生成部110が表示部104に出力する。以上が画像処理装置901の動作の流れである。以上のようにして、第2実施例の画像表示装置902は動作する。
 上述した本発明に係る画像処理装置901を備える画像表示装置902によれば、被写体の大きさに基づき抽出する暗部画素の範囲を制御するので、好ましい暗部画素を残しながら不必要とされる暗部画素を補正した画像に所望の暗部画素を付与することができ、好適な立体感を有する画像を表示することができる。
 なお、本発明は、上述した実施例によって限定的に解釈されるものではなく、特許請求の範囲に記載した事項の範囲内で、種々の変更が可能であり本発明の技術的範囲に含まれる。
 本発明による画像処理装置で動作するプログラムは、本発明に関わる上記実施例の機能を実現するように、CPU等を制御するプログラム(コンピュータを機能させるプログラム)であっても良い。そして、これら装置で取り扱われる情報は、その処理時に一時的にRAM(Random Access Memory)に蓄積され、その後、ROM(Read Only Memory)などの各種ROMやHDDに格納され、必要に応じてCPUによって読み出し、修正・書き込みが行われる。
 また、図1の各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、CPUなどが実行することにより各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OS(Operating System)および周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。
 また、上述した実施例における画像処理装置の一部、または全部を典型的には集積回路であるLSIとして実現してもよい。画像処理装置の各機能ブロックは個別にチップ化してもよいし、一部、または全部を集積してチップ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いることも可能である。
 また、上述の実施例において、制御線および情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。
〔まとめ〕
 本発明の態様1に係る画像処理装置は、対象画像から1又は複数の暗部画素を抽出する暗部画素抽出部107と、前記1又は複数の暗部画素を、上記対象画像のコントラストの変化を抑制するように補正することによって補正画像を生成する暗部画素補正部108と、前記暗部画素に基づいて暗部モデルを生成する暗部モデル生成部109と、
 前記補正画像に対して、前記暗部モデルを構成する暗部画素を付与する画像生成部110と、を備えている。
 上記の構成によれば、上記1又は複数の暗部画素を上記対象画像のコントラストの変化を抑制するように補正することによって生成した補正画像に対して上記暗部モデルを構成する暗部画素を付与するので、好適な立体感を有する画像を生成することができる。また、上記構成は、被写体が動く場合にも容易に適用できる。
 本発明の態様2に係る画像処理装置では、上記態様1において、前記暗部画素抽出部107は、前記対象画像における注目画素と当該注目画素の近傍に位置する近傍画素との色差及び輝度差の少なくとも何れかに応じて、当該注目画素を暗部画素として抽出することが好ましい。
 上記の構成によれば、暗部画素を好適に抽出することができる。
 本発明の態様3に係る画像処理装置では、上記態様2において、前記暗部画素抽出部107は、注目画素と近傍画素との色差が色差に関する閾値よりも小さく、かつ近傍画素の輝度から注目画素の輝度を引いた輝度差が正の値でありかつ輝度差に関する閾値よりも小さい場合に注目画素を暗部画素として抽出することが好ましい。
 上記の構成によれば、暗部画素をより好適に抽出することができる。
 本発明の態様4に係る画像処理装置では、上記態様1~3において、前記画像生成部110は、前記暗部モデルを適用する前記補正画像上の画素の総数に応じて、前記暗部モデルの明るさ、または、前記暗部モデルを適用した後の画像の明るさを変化させることが好ましい。
 上記の構成によれば、人間の色の見え方を考慮した自然な暗部モデル付与を行うことができる。
 本発明の態様5に係る画像処理装置では、上記態様1~4において、前記画像生成部110は、前記暗部モデルの明るさと前記暗部モデルを付与する前記補正画像上の画素の色相とに応じて、前記暗部モデルの色相、または、前記暗部モデルを適用した後の画像の色相を変化させることが好ましい。
 上記の構成によれば、人間の色の見え方を考慮した自然な暗部モデル付与を行うことができる。
 本発明の態様6に係る画像処理装置は、上記態様1~5において、画像から被写体の顔の大きさ情報を検出する顔検出部903と、前記顔の大きさ情報から前記暗部画素抽出部107における近傍画素が取りうる範囲を決定する近傍画素範囲決定部904と、をさらに備え、前記暗部画素抽出部107は前記決定された範囲内の画素を近傍画素とすることが好ましい。
 上記の構成によれば、被写体に適した近傍範囲を設定するので、生成される画像の画質を向上させることができる。
 本発明の態様7に係る画像処理方法は、対象画像から1又は複数の暗部画素を抽出する暗部画素抽出ステップと、前記1又は複数の暗部画素を、上記対象画像のコントラストの変化を抑制するように補正することによって補正画像を生成する暗部画素補正ステップと、前記暗部画素に基づいて暗部モデルを生成する暗部モデル生成ステップと、前記補正画像に対して、前記暗部モデルを構成する暗部画素を付与する画像生成ステップと、を含んでいる。
 上記の構成によれば、上記態様1と同様の効果を奏する。
 101 画像処理装置
 102 画像表示装置
 103 撮像部
 104 表示部
 105 記憶部
 106 入出力部
 107 暗部画素抽出部
 108 暗部画素補正部
 109 暗部モデル生成部
 110 画像生成部
 903 顔検出部
 904 近傍画素範囲決定部

Claims (7)

  1.  対象画像から1又は複数の暗部画素を抽出する暗部画素抽出部と、
     前記1又は複数の暗部画素を、上記対象画像のコントラストの変化を抑制するように補正することによって補正画像を生成する暗部画素補正部と、
     前記暗部画素に基づいて暗部モデルを生成する暗部モデル生成部と、
     前記補正画像に対して、前記暗部モデルを構成する暗部画素を付与する画像生成部と、
    を備えている
     ことを特徴とする画像処理装置。
  2.  前記暗部画素抽出部は、前記対象画像における注目画素と当該注目画素の近傍に位置する近傍画素との色差及び輝度差の少なくとも何れかに応じて、当該注目画素を暗部画素として抽出する
     ことを特徴とする請求項1に記載の画像処理装置。
  3.  前記暗部画素抽出部は、注目画素と近傍画素との色差が色差に関する閾値よりも小さく、かつ近傍画素の輝度から注目画素の輝度を引いた輝度差が正の値でありかつ輝度差に関する閾値よりも小さい場合に注目画素を暗部画素として抽出することを特徴とする請求項2に記載の画像処理装置。
  4.  前記画像生成部は、前記暗部モデルを適用する前記補正画像上の画素の総数に応じて、前記暗部モデルの明るさ、または、前記暗部モデルを適用した後の画像の明るさを変化させることを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
  5.  前記画像生成部は、前記暗部モデルの明るさと前記暗部モデルを付与する前記補正画像上の画素の色相とに応じて、前記暗部モデルの色相、または、前記暗部モデルを適用した後の画像の色相を変化させることを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
  6.  画像から被写体の顔の大きさ情報を検出する顔検出部と、
     前記顔の大きさ情報から前記暗部画素抽出部における近傍画素が取りうる範囲を決定する近傍画素範囲決定部と、
     をさらに備え、
     前記暗部画素抽出部は前記決定された範囲内の画素を近傍画素とすることを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。
  7.  対象画像から1又は複数の暗部画素を抽出する暗部画素抽出ステップと、
     前記1又は複数の暗部画素を、上記対象画像のコントラストの変化を抑制するように補正することによって補正画像を生成する暗部画素補正ステップと、
     前記暗部画素に基づいて暗部モデルを生成する暗部モデル生成ステップと、
     前記補正画像に対して、前記暗部モデルを構成する暗部画素を付与する画像生成ステップと、
     を備えることを特徴とする画像処理方法。
PCT/JP2016/057445 2015-03-30 2016-03-09 画像処理装置 Ceased WO2016158274A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017509480A JP6376673B2 (ja) 2015-03-30 2016-03-09 画像処理装置
US15/563,515 US10567670B2 (en) 2015-03-30 2016-03-09 Image-processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015070256 2015-03-30
JP2015-070256 2015-03-30

Publications (1)

Publication Number Publication Date
WO2016158274A1 true WO2016158274A1 (ja) 2016-10-06

Family

ID=57005606

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/057445 Ceased WO2016158274A1 (ja) 2015-03-30 2016-03-09 画像処理装置

Country Status (3)

Country Link
US (1) US10567670B2 (ja)
JP (1) JP6376673B2 (ja)
WO (1) WO2016158274A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005202807A (ja) * 2004-01-19 2005-07-28 Hitachi Software Eng Co Ltd 陰影部輝度を補正可能なプログラム及び陰影部輝度補正方法
JP2008004085A (ja) * 2006-05-23 2008-01-10 Matsushita Electric Ind Co Ltd 画像処理装置、画像処理方法、プログラム、記録媒体および集積回路
JP2010211300A (ja) * 2009-03-06 2010-09-24 Toshiba Corp 画像処理装置および方法
JP2011078041A (ja) * 2009-10-02 2011-04-14 Sanyo Electric Co Ltd 画像処理装置および電子カメラ
WO2012001949A1 (ja) * 2010-06-30 2012-01-05 日本電気株式会社 カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3505115B2 (ja) * 1999-04-28 2004-03-08 富士通株式会社 画像加工装置及びプログラム記録媒体
EP2280376B1 (en) * 2002-02-12 2015-10-28 Panasonic Intellectual Property Corporation of America Image processing apparatus and image processing method
JP4060625B2 (ja) * 2002-04-02 2008-03-12 東芝テック株式会社 画像形成装置と画像形成方法
JP2005202469A (ja) * 2004-01-13 2005-07-28 Fuji Xerox Co Ltd 画像処理装置、画像処理方法、およびプログラム
JP2005348237A (ja) * 2004-06-04 2005-12-15 Brother Ind Ltd 画像濃度調整装置及びこの装置を備えた画像読取装置
JP4448051B2 (ja) * 2005-04-19 2010-04-07 キヤノン株式会社 画像読取装置及び方法
US7869649B2 (en) * 2006-05-08 2011-01-11 Panasonic Corporation Image processing device, image processing method, program, storage medium and integrated circuit
US8164594B2 (en) * 2006-05-23 2012-04-24 Panasonic Corporation Image processing device, image processing method, program, storage medium and integrated circuit
US8009903B2 (en) * 2006-06-29 2011-08-30 Panasonic Corporation Image processor, image processing method, storage medium, and integrated circuit that can adjust a degree of depth feeling of a displayed high-quality image
JP2009098925A (ja) * 2007-10-17 2009-05-07 Sony Corp 画像処理装置、画像処理方法、および、プログラム
CN102985943A (zh) * 2010-06-30 2013-03-20 日本电气株式会社 彩色图像处理方法、彩色图像处理装置以及彩色图像处理程序
JP5548954B2 (ja) 2010-12-27 2014-07-16 カシオ計算機株式会社 撮像装置、撮像方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005202807A (ja) * 2004-01-19 2005-07-28 Hitachi Software Eng Co Ltd 陰影部輝度を補正可能なプログラム及び陰影部輝度補正方法
JP2008004085A (ja) * 2006-05-23 2008-01-10 Matsushita Electric Ind Co Ltd 画像処理装置、画像処理方法、プログラム、記録媒体および集積回路
JP2010211300A (ja) * 2009-03-06 2010-09-24 Toshiba Corp 画像処理装置および方法
JP2011078041A (ja) * 2009-10-02 2011-04-14 Sanyo Electric Co Ltd 画像処理装置および電子カメラ
WO2012001949A1 (ja) * 2010-06-30 2012-01-05 日本電気株式会社 カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MASASHI BABA ET AL.: "In'eido ni Motozuku Iro Hosei ni yoru Jissha Gazo karano In'ei Jokyo", VISUAL COMPUTING GRAPHICS TO CAD GODO SYMPOSIUM 2003 YOKOSHU, 19 June 2003 (2003-06-19), pages 37 - 42 *

Also Published As

Publication number Publication date
US20180097982A1 (en) 2018-04-05
US10567670B2 (en) 2020-02-18
JPWO2016158274A1 (ja) 2017-12-28
JP6376673B2 (ja) 2018-08-22

Similar Documents

Publication Publication Date Title
US11250241B2 (en) Face image processing methods and apparatuses, and electronic devices
CN109639982B (zh) 一种图像降噪方法、装置、存储介质及终端
KR101446975B1 (ko) 얼굴 검출 기능을 사용한 얼굴 및 피부의 자동 미화
WO2022161009A1 (zh) 图像处理方法及装置、存储介质、终端
JP4461789B2 (ja) 画像処理装置
JP5463866B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
KR101590868B1 (ko) 피부색을 보정하는 영상 처리 방법, 장치, 디지털 촬영 장치, 및 컴퓨터 판독가능 저장매체
US9135726B2 (en) Image generation apparatus, image generation method, and recording medium
CN111127591B (zh) 图像染发处理方法、装置、终端和存储介质
WO2018176925A1 (zh) Hdr图像的生成方法及装置
WO2009102514A1 (en) Adjusting color attribute of an image in a non-uniform way
CN114663950B (zh) 低照度的人脸检测方法、装置、计算机设备及存储介质
CN113723385A (zh) 视频处理方法及装置、神经网络的训练方法及装置
US20170154437A1 (en) Image processing apparatus for performing smoothing on human face area
CN112686800B (zh) 图像处理方法、装置、电子设备及存储介质
WO2022052862A1 (zh) 图像的边缘增强处理方法及应用
CN114862729A (zh) 图像处理方法、装置、计算机设备和存储介质
CN107705279A (zh) 实现双重曝光的图像数据实时处理方法及装置、计算设备
JP2009251634A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6376673B2 (ja) 画像処理装置
JP2007241424A (ja) 画像処理装置および画像処理方法
CN113421197A (zh) 一种美颜图像的处理方法及其处理系统
JP6627530B2 (ja) 画像処理装置及びプログラム
US9563940B2 (en) Smart image enhancements
JP6603722B2 (ja) 画像処理装置およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16772158

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017509480

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15563515

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16772158

Country of ref document: EP

Kind code of ref document: A1