[go: up one dir, main page]

JP2010220122A - Image processing apparatus, image capturing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image capturing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP2010220122A
JP2010220122A JP2009067068A JP2009067068A JP2010220122A JP 2010220122 A JP2010220122 A JP 2010220122A JP 2009067068 A JP2009067068 A JP 2009067068A JP 2009067068 A JP2009067068 A JP 2009067068A JP 2010220122 A JP2010220122 A JP 2010220122A
Authority
JP
Japan
Prior art keywords
area
image
image data
subject
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009067068A
Other languages
Japanese (ja)
Inventor
Haike Guan
海克 関
Tao Li
タオ リー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2009067068A priority Critical patent/JP2010220122A/en
Publication of JP2010220122A publication Critical patent/JP2010220122A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Exposure Control For Cameras (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To correctly detect an object area and thereby to provide image data high in power of expression. <P>SOLUTION: The image processing apparatus includes: a face area detection processing unit 103 for detecting a face area of an object included in image data; an image area division processing unit 105 for obtaining a plurality of divided areas of the image data in response to luminance information or color information of the image data; and a personal area generation part 106 for obtaining divided areas constituting the object within the plurality of obtained divided areas based on the detected face area. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像処理装置、撮像装置、画像処理方法および画像処理プログラムに関する。   The present invention relates to an image processing device, an imaging device, an image processing method, and an image processing program.

近年、画像データの表現力を向上させるために、被写界深度の浅い画像データが求められている。しかし、デジタルカメラは、CCD(Charge Coupled Device)のサイズが小さいためにレンズの焦点距離が短い。そのため、デジタルカメラで撮像された画像データは、被写界深度が深い画像データであることが多い。そこで、画像データの顔領域を検知して、検知した顔領域の周辺にぼかし処理を施すことで、画像データの表現力を向上させることができる。しかし、より表現力の高い画像データを得るために、顔領域ではなく被写体全体の領域をより高い精度で検知する必要がある。   In recent years, image data having a shallow depth of field has been demanded in order to improve the ability to express image data. However, since the digital camera has a small CCD (Charge Coupled Device) size, the focal length of the lens is short. Therefore, image data captured by a digital camera is often image data having a deep depth of field. Therefore, the expressiveness of the image data can be improved by detecting the face area of the image data and performing blurring processing around the detected face area. However, in order to obtain image data with higher expressive power, it is necessary to detect not the face area but the entire subject area with higher accuracy.

このように被写体領域を検出する技術として、例えば、背景にブルーやグリーンの単色の色を使って対象を撮影した映像から、被写体領域を検知するという技術が知られている(特許文献1参照)。   As a technique for detecting a subject area in this manner, for example, a technique is known in which a subject area is detected from an image obtained by photographing a target using a single color of blue or green as a background (see Patent Document 1). .

また、例えば、画像データの被写体領域に含まれる顔領域を検知するという技術が知られている(特許文献2参照)。具体的には、この特許文献2の技術では、顔領域の肌色を検出し、かつ彩度による領域分割を行い、さらに領域のサイズによる検知を行う。   For example, a technique of detecting a face area included in a subject area of image data is known (see Patent Document 2). Specifically, in the technique of Patent Document 2, the skin color of the face area is detected, the area is divided by the saturation, and the detection is performed based on the size of the area.

また、例えば、画像データの被写体領域の身体部分を検知するという技術が知られている(特許文献3参照)。ここで、身体部分は、被写体の頭と顔と手と足と胴体とを含む。   For example, a technique of detecting a body part of a subject area of image data is known (see Patent Document 3). Here, the body part includes the head, face, hands, feet, and torso of the subject.

しかしながら、特許文献1に開示された発明では、画像データの背景に、ブルーやグリーンの単色の色が使用されていない場合、被写体領域を検知することができないという問題がある。   However, the invention disclosed in Patent Document 1 has a problem that the subject area cannot be detected when a single color of blue or green is not used as the background of the image data.

また、特許文献2に開示された発明では、画像データから顔領域を検知できるが、顔領域を含む被写体領域を検知できないという問題がある。   In the invention disclosed in Patent Document 2, a face area can be detected from image data, but a subject area including the face area cannot be detected.

また、特許文献3に開示された発明では、画像データから被写体領域を検知する際に、被写体領域を楕円形状で近似して求めるため、検知された領域に被写体以外の領域が含まれる可能性があり、その場合に被写体領域を正確に検出できないという問題がある。   Further, in the invention disclosed in Patent Document 3, when the subject area is detected from the image data, the subject area is approximated by an elliptical shape, and therefore there is a possibility that the detected area includes an area other than the subject. In this case, there is a problem that the subject area cannot be accurately detected.

本発明は、上記に鑑みてなされたものであって、正確に被写体領域を検知することができ、これにより、表現力の高い画像データを得ることのできる画像処理装置、撮像装置、画像処理方法、および画像処理プログラムを提供することを目的とする。   The present invention has been made in view of the above, and is capable of accurately detecting a subject area, thereby obtaining image data with high expressive power, an imaging apparatus, and an image processing method. And an image processing program.

本発明にかかる画像処理装置は、画像データに含まれる被写体の顔領域を検知する顔領域検知手段と、前記画像データの輝度情報、または色情報に応じて前記画像データの部分領域情報を複数取得する領域情報取得手段と、検知された前記顔領域に基づき、取得された複数の前記部分領域情報のうち前記被写体を構成する部分領域情報を取得する被写体領域取得手段と、を備えることを特徴とする。   An image processing apparatus according to the present invention obtains a plurality of pieces of partial area information of the image data according to brightness information or color information of the image data, and a face area detection unit that detects a face area of a subject included in the image data. An area information acquisition means for performing acquisition, and a subject area acquisition means for acquiring partial area information constituting the subject among the plurality of acquired partial area information based on the detected face area. To do.

また、本発明にかかる撮像装置は、被写体を撮像する撮像部と、前記撮像部によって撮像された画像情報を画像データとして取得する画像情報取得手段と、前記画像データに含まれる被写体の顔領域を検知する顔領域検知手段と、前記画像データの輝度情報、または色情報に応じて前記画像データの部分領域情報を複数取得する領域情報取得手段と、検知された前記顔領域に基づき、取得された複数の前記部分領域情報のうち前記被写体を構成する部分領域情報を取得する被写体領域取得手段と、を備えることを特徴とする。   An imaging apparatus according to the present invention includes an imaging unit that images a subject, image information acquisition means that acquires image information captured by the imaging unit as image data, and a face area of the subject included in the image data. Acquired based on the detected face area detection means, area information acquisition means for acquiring a plurality of partial area information of the image data in accordance with luminance information or color information of the image data, and the detected face area Subject area obtaining means for obtaining partial area information constituting the subject among the plurality of pieces of partial area information.

本発明によれば、輝度情報、または色情報に応じて画像データから複数の部分領域情報を取得するとともに、画像データから検知した被写体の顔領域の情報を参照し、複数の部分領域情報から被写体を構成する部分領域情報を選択する。そのため、顔領域を含む被写体全体の領域をより高い精度で検知することができるという効果を奏する。   According to the present invention, a plurality of pieces of partial area information is acquired from image data according to luminance information or color information, and the subject's face area information detected from the image data is referred to, and the subject is obtained from the pieces of partial area information. Is selected. As a result, the entire area including the face area can be detected with higher accuracy.

図1は、第1の実施の形態にかかる画像処理部の機能的構成を示すブロック図である。FIG. 1 is a block diagram illustrating a functional configuration of the image processing unit according to the first embodiment. 図2は、第1の実施の形態にかかる顔検知処理の処理結果の一例を示す説明図である。FIG. 2 is an explanatory diagram illustrating an example of a processing result of the face detection processing according to the first embodiment. 図3は、第1の実施の形態にかかる楕円領域生成の一例を示す説明図である。FIG. 3 is an explanatory diagram illustrating an example of elliptical area generation according to the first embodiment. 図4は、第1の実施の形態にかかる画像領域分割処理の領域分割における小分割領域の生成の一例を示す説明図である。FIG. 4 is an explanatory diagram illustrating an example of generation of a small divided area in the area division of the image area dividing process according to the first embodiment. 図5は、第1の実施の形態にかかる画像領域分割処理の領域分割における分割領域の生成の一例を示す説明図である。FIG. 5 is an explanatory diagram illustrating an example of generation of a divided area in the area division of the image area division processing according to the first embodiment. 図6は、第1の実施の形態にかかる人物領域生成の処理の一例を示す説明図である。FIG. 6 is an explanatory diagram illustrating an example of a person area generation process according to the first embodiment. 図7は、第1の実施の形態にかかる人物領域生成の処理結果の一例を示す説明図である。FIG. 7 is an explanatory diagram illustrating an example of a processing result of the person area generation according to the first embodiment. 図8は、第1の実施の形態にかかる画像処理部における処理の手順を示すフローチャートである。FIG. 8 is a flowchart illustrating a processing procedure in the image processing unit according to the first embodiment. 図9は、第1の実施の形態にかかる画像領域分割処理部が行う画像領域分割の処理手順を示すフローチャートである。FIG. 9 is a flowchart illustrating a processing procedure of image region division performed by the image region division processing unit according to the first embodiment. 図10は、第1の実施の形態にかかる人物領域生成部が行う人物領域を生成する手順を示すフローチャートである。FIG. 10 is a flowchart illustrating a procedure of generating a person area performed by the person area generating unit according to the first embodiment. 図11は、第1の実施の形態にかかるデジタルカメラのハードウェア構成を示すブロック図である。FIG. 11 is a block diagram illustrating a hardware configuration of the digital camera according to the first embodiment. 図12は、第2の実施の形態にかかる画像処理装置の機能的構成を示すブロック図である。FIG. 12 is a block diagram of a functional configuration of the image processing apparatus according to the second embodiment. 図13は、第2の実施の形態にかかる画像処理装置のハードウェア構成を示すブロック図である。FIG. 13 is a block diagram of a hardware configuration of the image processing apparatus according to the second embodiment. 図14は、第2の実施の形態にかかる画像処理装置における処理の手順を示すフローチャートである。FIG. 14 is a flowchart illustrating a processing procedure in the image processing apparatus according to the second embodiment.

以下に添付図面を参照して、この発明にかかる画像処理装置、撮像装置、画像処理方法および画像処理プログラムの最良な実施の形態を詳細に説明する。   Exemplary embodiments of an image processing apparatus, an imaging apparatus, an image processing method, and an image processing program according to the present invention are explained in detail below with reference to the accompanying drawings.

(第1の実施の形態)
第1の実施の形態について、添付図面を参照して説明する。まず、本発明が適用されるデジタルカメラに含まれる画像処理部の構成例について説明する。
(First embodiment)
A first embodiment will be described with reference to the accompanying drawings. First, a configuration example of an image processing unit included in a digital camera to which the present invention is applied will be described.

図1は、第1の実施の形態にかかる画像処理部の機能的構成を示すブロック図である。撮像部100が生成した画像データは画像処理部101により画像処理され、外部記憶装置109に送信される。画像処理部101は、画像入力部102と、顔領域検知処理部103と、楕円領域生成部104と、画像領域分割処理部105と、人物領域生成部106と、画像補正処理部107と、画像出力部108とを主に備えている。   FIG. 1 is a block diagram illustrating a functional configuration of the image processing unit according to the first embodiment. Image data generated by the imaging unit 100 is subjected to image processing by the image processing unit 101 and transmitted to the external storage device 109. The image processing unit 101 includes an image input unit 102, a face region detection processing unit 103, an elliptical region generation unit 104, an image region division processing unit 105, a person region generation unit 106, an image correction processing unit 107, an image An output unit 108 is mainly provided.

画像入力部102は、外部からの画像データの入力を受け付け、画像データを顔領域検知処理部103と画像領域分割処理部105に入力する。   The image input unit 102 receives input of image data from the outside, and inputs the image data to the face region detection processing unit 103 and the image region division processing unit 105.

顔領域検知処理部103は、画像入力部102によって取得された画像データに対して、顔領域検知処理を行い、顔領域画像情報として顔矩形領域を検知する。顔矩形領域とは、顔領域を含む矩形として認識される矩形であり、本実施形態の矩形は正方形として説明とする。   The face area detection processing unit 103 performs face area detection processing on the image data acquired by the image input unit 102, and detects a face rectangular area as face area image information. The face rectangular area is a rectangle recognized as a rectangle including the face area, and the rectangle in this embodiment is described as a square.

ここで、顔領域検知の処理は、公知の顔領域検知技術を用いる。例えば、クロマキー処理によって人物の頭髪の頂点を検出し、頂点を基準とした顔矩形領域を検知する。また、利用者が顔矩形領域を手動で特定しても良いし、また、利用者によって入力された情報を基準として、半自動で顔矩形領域を検知しても良い。   Here, the face area detection process uses a known face area detection technique. For example, a vertex of a person's hair is detected by chroma key processing, and a face rectangular area based on the vertex is detected. Further, the user may manually specify the face rectangular area, or the face rectangular area may be detected semi-automatically based on the information input by the user.

図2は、顔検知処理の処理結果の一例を示す説明図である。画像200は、顔検知処理を行った画像データであり、顔領域201と顔矩形領域202と身体領域203と背景領域204を含んでいる。顔領域201は、人物領域に含まれる顔の領域である。ここで、人物領域とは、換言すれば被写体領域に相当する。なお、本実施の形態の被写体領域は人物領域として説明しているが、他の被写体領域を示すものとして、人形や動物等の対象物の全体像に適用することもできる。   FIG. 2 is an explanatory diagram illustrating an example of a processing result of the face detection processing. The image 200 is image data that has undergone face detection processing, and includes a face area 201, a face rectangular area 202, a body area 203, and a background area 204. The face area 201 is a face area included in the person area. Here, the person area corresponds to the subject area in other words. Although the subject area of the present embodiment has been described as a person area, it can also be applied to an overall image of an object such as a doll or an animal as an example of another subject area.

顔矩形領域202は、顔検知処理の結果として出力されるものであり、矩形の領域である。身体領域203は、人物領域に含まれる、顔領域以外の領域である。背景領域204は、人物の背景の領域である。   The face rectangular area 202 is output as a result of the face detection process, and is a rectangular area. The body area 203 is an area other than the face area included in the person area. The background area 204 is a background area of a person.

候補領域生成手段として機能する楕円領域生成部104は、顔領域検知処理部103で検知された顔矩形領域の中心座標(x,y)と顔矩形領域の幅wを用いて楕円を生成する。ここで、顔領域の位置と大きさが、それぞれ顔矩形領域の中心座標と幅に相当する。 The ellipse area generation unit 104 functioning as candidate area generation means generates an ellipse using the center coordinates (x o , yo ) of the face rectangular area detected by the face area detection processing unit 103 and the width w of the face rectangular area. To do. Here, the position and size of the face area correspond to the center coordinates and the width of the face rectangular area, respectively.

また、楕円は、人物候補領域を示すものであり、換言すれば被写体候補領域に相当する。また、楕円領域生成部104は、候補となる領域を生成するものであり、換言すれば候補生成手段に相当する。なお、本実施の形態の候補生成手段としては楕円の生成部として説明しているが、人物候補領域を示すものとして、その他の形を適用することもできる。 The ellipse indicates a person candidate area, in other words, corresponds to a subject candidate area. The ellipse region generation unit 104 generates a candidate region, in other words, corresponds to a candidate generation unit. Note that although the ellipse generation unit has been described as the candidate generation unit of the present embodiment, other forms may be applied to indicate the person candidate region.

図3は、楕円領域生成の一例を示す説明図である。楕円301は、顔矩形領域202の中心座標(x,y)と顔矩形領域の幅wから決定される。楕円の中心座標(x,y)とし、楕円の短軸をaとし、楕円の長軸をbとし、E(x,y,a,b)で楕円を定義する。なお、この場合、図示した通り、顔矩形領域202の中心点と、楕円301の中心点は同じ直線上にある。 FIG. 3 is an explanatory diagram showing an example of elliptical region generation. The ellipse 301 is determined from the center coordinates (x o , y o ) of the face rectangular area 202 and the width w of the face rectangular area. The ellipse is defined by E (x, y, a, b), with the ellipse center coordinates (x, y), the short axis of the ellipse as a, the long axis of the ellipse as b. In this case, as illustrated, the center point of the face rectangular area 202 and the center point of the ellipse 301 are on the same straight line.

楕円の求め方の一例として、楕円は実験により以下のような手法で導出される。まず、人物領域の幅をWpとして、Wpのwに対する比率をkaとした場合、実験結果の一例として、ka=2を得ることができた。ここで、Wpの最大値が楕円短軸aと同じであるとき、以下の(1)式を得る。
a=2w・・・(1)
As an example of how to obtain an ellipse, the ellipse is derived by an experiment by the following method. First, when the width of the person area is Wp and the ratio of Wp to w is ka, ka = 2 can be obtained as an example of the experimental result. Here, when the maximum value of Wp is the same as the ellipse minor axis a, the following equation (1) is obtained.
a = 2w (1)

次に、楕円の長軸bと顔矩形領域の幅wの関係を求める。人物の高さの半分をhbとし、hbのwに対する比率をkbとした場合、実験結果の一例として、kb=6.5を得ることができた。ここで、hbの最大値が長軸の半径と同じであるとき、以下の(2)式を得る。
b=13w・・・(2)
Next, the relationship between the major axis b of the ellipse and the width w of the face rectangular area is obtained. Assuming that half the height of the person is hb and the ratio of hb to w is kb, kb = 6.5 could be obtained as an example of the experimental result. Here, when the maximum value of hb is the same as the radius of the major axis, the following equation (2) is obtained.
b = 13w (2)

また、上述した通り、顔矩形領域の中心点と楕円の中心点は同じ直線上にあるので、以下の(3)式を得る。
x=x・・・(3)
Further, as described above, since the center point of the face rectangular area and the center point of the ellipse are on the same straight line, the following equation (3) is obtained.
x = x o (3)

また、楕円のy座標を求める。顔矩形領域の中心点から顔領域の頂点までのy軸方向距離をybとする。実験の一例として、ybは顔矩形領域の幅wの約1.5倍という結果を得ることができた。よって、以下の(4)式を得る。
y=y+1.5w−0.5b・・・(4)
Also, the y coordinate of the ellipse is obtained. The distance in the y-axis direction from the center point of the face rectangular area to the vertex of the face area is yb. As an example of the experiment, yb was able to obtain a result of about 1.5 times the width w of the face rectangular area. Therefore, the following expression (4) is obtained.
y = y o + 1.5w-0.5b ··· (4)

よって、図3に示すように顔矩形領域の中心座標(x,y)と顔矩形領域の幅wから楕円が決められる場合、一例として(1)式〜(4)式により楕円が求められる。 Therefore, as shown in FIG. 3, when the ellipse is determined from the center coordinates (x o , yo ) of the face rectangular area and the width w of the face rectangular area, the ellipse is obtained by Expressions (1) to (4) as an example. It is done.

また、本実施の形態では(1)式〜(4)式から楕円を求めたが、実験環境を変えることで実験結果が変わるため、x,y,a,bとw,x,yの関係を変化させても良い。 In the present embodiment, the ellipse is obtained from the equations (1) to (4). However, since the experiment result changes by changing the experiment environment, x, y, a, b and w, x o , yo The relationship may be changed.

また、楕円領域生成部104は、画像データから人物領域を取得する際に、利用者が人物候補領域を確認するため、後述する操作部に楕円を示す構成にしても良い。ここで、操作部は、楕円を表示するための表示部のことである。   Further, the ellipse area generation unit 104 may be configured to show an ellipse in an operation unit described later so that the user can confirm the person candidate area when acquiring the person area from the image data. Here, the operation unit is a display unit for displaying an ellipse.

画像領域分割処理部105は、画像入力部102によって取得された画像データに対して、画像処理を行う。なお、画像領域分割処理部105は、換言すれば領域情報取得手段に相当する。画像データの輝度情報と色情報に着目し、コントラストと色の違いが少ない領域を同じ領域として、分割処理を行う。   The image region division processing unit 105 performs image processing on the image data acquired by the image input unit 102. The image area division processing unit 105 corresponds to an area information acquisition unit in other words. Focusing on the luminance information and color information of the image data, the division processing is performed by setting the regions where the difference between contrast and color is small as the same region.

まず、画像領域分割処理部105は、画像データに対してローパスフィルタでフィルタリングを行う。フィルタリングを行うことで、画像データの輝度と色とが平滑化される。   First, the image region division processing unit 105 performs filtering on image data with a low-pass filter. By performing the filtering, the brightness and color of the image data are smoothed.

次に、画像領域分割処理部105は、色とエッジが平滑化された画像データに対して、色とコントラストが異なる領域をそれぞれ特定する。つまり、平滑化された画像データの隣り合う画素の色とコントラストの差分が、ある閾値以下であれば、同じグループの画素とする。よって、多数のグループが生成されることで、画像領域が複数の領域に分割される。この領域を小分割領域とする。   Next, the image area division processing unit 105 specifies areas having different colors and contrasts from the image data in which colors and edges are smoothed. That is, if the difference between the color and contrast of adjacent pixels in the smoothed image data is equal to or less than a certain threshold value, the pixels are in the same group. Therefore, the image area is divided into a plurality of areas by generating a large number of groups. This area is defined as a small divided area.

図4は、画像領域分割処理の領域分割における小分割領域の生成の一例を示す説明図である。画像400は、画像領域分割処理が施された画像データであり、小分割領域401〜416を含む。   FIG. 4 is an explanatory diagram showing an example of generation of a small divided area in the area division of the image area dividing process. The image 400 is image data that has been subjected to image region division processing, and includes small divided regions 401 to 416.

そして、画像領域分割処理部105は、グループ化された小分割領域に存在する画素数が、ある閾値の画素数より少ない場合、色とコントラストの近い隣接する画素数の多い領域のグループと結合させる。分割領域は、この結合した領域のグループのことであり、換言すれば部分領域情報に相当する。上述の処理を行い、分割領域の画像データを得ることができる。   Then, when the number of pixels existing in the grouped sub-divided area is smaller than a certain threshold number of pixels, the image area division processing unit 105 combines with a group of adjacent areas having a large number of adjacent pixels that are close in color and contrast. . The divided area is a group of the combined areas, and in other words, corresponds to partial area information. The image data of the divided area can be obtained by performing the above processing.

図5は、画像領域分割処理における分割領域の生成の一例を示す説明図である。画像500は、画像領域分割処理における分割領域の生成を行った画像データであり、分割領域501と分割領域502と分割領域503とを含んでいる。   FIG. 5 is an explanatory diagram showing an example of generation of divided areas in the image area dividing process. The image 500 is image data in which a divided area is generated in the image area dividing process, and includes a divided area 501, a divided area 502, and a divided area 503.

分割領域501は、図4の小分割領域401と小分割領域402と小分割領域403と小分割領域404と小分割領域405とを含む領域である。   The divided area 501 is an area including the small divided area 401, the small divided area 402, the small divided area 403, the small divided area 404, and the small divided area 405 of FIG.

分割領域502は、小分割領域414と小分割領域415と小分割領域416とを含む領域である。   The divided area 502 is an area including a small divided area 414, a small divided area 415, and a small divided area 416.

分割領域503は、小分割領域406と小分割領域407と小分割領域408と小分割領域409と小分割領域410と小分割領域411と小分割領域412と小分割領域413とを含む領域である。   The divided area 503 is an area including a small divided area 406, a small divided area 407, a small divided area 408, a small divided area 409, a small divided area 410, a small divided area 411, a small divided area 412, and a small divided area 413. .

人物領域生成部106は、楕円領域生成部104により生成した楕円を用いて画像領域分割処理部105から出力した分割領域の画像データから人物を構成する分割領域を選択することで、人物領域を生成する処理を行う。具体的には、人物領域生成部106は、楕円の外周と接触する分割領域を取り除くことにより、楕円に含まれる分割領域を取得し、人物領域を検知して生成する。なお、人物領域生成部106は、換言すれば被写体領域取得手段に相当する。   The person area generation unit 106 generates a person area by selecting a divided area constituting the person from the image data of the divided area output from the image area division processing unit 105 using the ellipse generated by the ellipse area generation unit 104. Perform the process. Specifically, the person area generation unit 106 acquires a divided area included in the ellipse by removing the divided area that contacts the outer periphery of the ellipse, and detects and generates the person area. In other words, the person area generation unit 106 corresponds to subject area acquisition means.

画像データの輝度情報や色情報を参照して、輝度情報や色情報が任意の閾値以下となる近隣の画素をグループ化して画像データを領域分割する方法があるが、この手法は光のあたり具合等の画像データの撮像条件や衣服の色情報に影響を受けるため、高い精度で人物領域を取得することができなかった。よって、本実施の形態における人物領域生成部106では、顔領域の位置や大きさの情報を参照して候補領域を生成し、生成した人物候補領域に包含される分割領域を人物領域として取得する。   There is a method of dividing the image data into regions by grouping neighboring pixels whose luminance information or color information is below an arbitrary threshold by referring to the luminance information and color information of the image data. Therefore, it is impossible to acquire a person region with high accuracy. Therefore, the person area generation unit 106 according to the present embodiment generates a candidate area by referring to the position and size information of the face area, and acquires a divided area included in the generated person candidate area as a person area. .

図6は、人物領域生成の処理の一例を示す説明図である。画像600は、楕円領域生成部104から出力した楕円に、画像領域分割処理部105から出力した分割領域の画像データを重ねて、人物領域生成の処理を行う画像データである。画像600は、分割領域501と分割領域502と分割領域503と楕円301とを含んでいる。楕円301の内部領域が、人物領域の候補となる領域である。   FIG. 6 is an explanatory diagram illustrating an example of a person area generation process. The image 600 is image data for performing a human region generation process by superimposing the divided region image data output from the image region division processing unit 105 on the ellipse output from the elliptic region generation unit 104. The image 600 includes a divided area 501, a divided area 502, a divided area 503, and an ellipse 301. The inner area of the ellipse 301 is a person area candidate.

ここで、楕円301の外周と接触する分割領域502と分割領域503を取り除くことで、分割領域501を人物領域として生成することができる。   Here, by removing the divided area 502 and the divided area 503 that are in contact with the outer periphery of the ellipse 301, the divided area 501 can be generated as a person area.

図7は、人物領域生成の処理結果の一例を示す説明図である。画像700は、人物領域生成の処理結果の画像データであり、人物領域701と人物外領域702とを含んでいる。   FIG. 7 is an explanatory diagram illustrating an example of a processing result of person area generation. An image 700 is image data of a person area generation processing result, and includes a person area 701 and an outside person area 702.

画像補正処理部107は、人物領域生成部106から生成された画像データを利用して、人物領域701と人物外領域702のそれぞれに対して、画像補正処理を行う。   The image correction processing unit 107 performs image correction processing on each of the person area 701 and the outside person area 702 using the image data generated from the person area generation unit 106.

例えば、画像補正処理部107は、人物領域701と人物外領域702のそれぞれに対して、AWB(Auto White Balance)処理を行い、最適な色処理を行う。この画像補正の処理を行うことで、画像データの高画質化を行える。   For example, the image correction processing unit 107 performs AWB (Auto White Balance) processing on each of the person area 701 and the outside person area 702, and performs optimal color processing. By performing this image correction process, it is possible to improve the image quality of the image data.

また、例えば、画像補正処理部107は、人物外領域702のみに対してぼかし処理を行うことで、背景ぼかし処理を行うことになり、人物が浮かび上がるような表現力の高い画像データを生成できる。   Further, for example, the image correction processing unit 107 performs background blurring processing by performing blurring processing only on the non-person area 702, and can generate image data with high expressive power that makes a person appear. .

画像出力部108は、画像補正処理部107によって補正処理された画像データを出力する。   The image output unit 108 outputs the image data corrected by the image correction processing unit 107.

次に、以上のように構成された本実施の形態にかかる画像処理部101における入力画像データから人物領域を生成する処理について説明する。図8は、本実施の形態にかかる画像処理部101における上述した処理の手順を示すフローチャートである。   Next, processing for generating a person area from input image data in the image processing unit 101 according to the present embodiment configured as described above will be described. FIG. 8 is a flowchart illustrating the above-described processing procedure in the image processing unit 101 according to the present embodiment.

まず、画像入力部102は、顔領域検知処理部103と画像領域分割処理部105に画像データを入力する(ステップS801)。   First, the image input unit 102 inputs image data to the face area detection processing unit 103 and the image area division processing unit 105 (step S801).

次に、顔領域検知処理部103は、画像入力部102によって取得された画像データから、顔領域を検知する(ステップS802)。顔領域を検知する処理の一例として、クロマキー処理によって人物の頭髪の頂点が検出し、頂点を基準とした顔矩形領域を検知することができる。   Next, the face area detection processing unit 103 detects a face area from the image data acquired by the image input unit 102 (step S802). As an example of processing for detecting a face area, a vertex of a person's hair can be detected by chroma key processing, and a face rectangular area based on the vertex can be detected.

次に、楕円領域生成部104は、顔領域検知処理部103で検知された顔矩形領域の中心座標と顔矩形領域の幅を参照することで、楕円を生成する(ステップS803)。楕円の一例として、(1)式〜(4)式を用いて楕円が生成される。   Next, the ellipse area generation unit 104 generates an ellipse by referring to the center coordinates of the face rectangle area detected by the face area detection processing unit 103 and the width of the face rectangle area (step S803). As an example of an ellipse, an ellipse is generated using equations (1) to (4).

画像領域分割処理部105は、画像入力部102によって取得された画像データから、画像領域を分割する(ステップS804)。なお、ステップS804は、ステップS802、ステップ803の処理と平行して実行される。画像領域分割処理の詳細は、後述する。   The image area division processing unit 105 divides the image area from the image data acquired by the image input unit 102 (step S804). Note that step S804 is executed in parallel with the processing of step S802 and step 803. Details of the image region dividing process will be described later.

次に、人物領域生成部106は、楕円領域生成部104により生成した楕円に、画像領域分割処理部105から出力した分割領域の画像データを重ねて、人物領域を生成する(ステップS805)。人物領域生成の処理の詳細は、後述する。   Next, the person area generation unit 106 generates a person area by superimposing the image data of the divided area output from the image area division processing unit 105 on the ellipse generated by the ellipse area generation unit 104 (step S805). Details of the person area generation processing will be described later.

次に、画像補正処理部107は、人物領域生成部106から生成された画像データを利用して、画像を補正する(ステップS806)。つまり、人物領域と人物外領域のそれぞれに対して、画像補正処理を行う。   Next, the image correction processing unit 107 corrects the image using the image data generated from the person area generation unit 106 (step S806). That is, image correction processing is performed on each of the person area and the outside person area.

次に、画像出力部108は、画像補正処理部107によって補正処理された画像データを出力する(ステップS807)。   Next, the image output unit 108 outputs the image data corrected by the image correction processing unit 107 (step S807).

上述した処理手順により、画像データに対して顔領域を検知することで、顔領域の情報から楕円を生成し、楕円領域から人物領域を生成することが可能となる。なお、上述した手順は、第1の実施の形態にかかる画像処理部101における画像データに対して顔領域検知処理を行って楕円を生成し、楕円領域の内部に存在する人物外領域を取り除くことで人物領域を生成する手順の例を示したものであり、上述した処理手順に制限するものではない。   By detecting the face area for the image data by the processing procedure described above, it is possible to generate an ellipse from the face area information and to generate a person area from the ellipse area. Note that the above-described procedure performs face area detection processing on the image data in the image processing unit 101 according to the first embodiment to generate an ellipse, and removes the non-human area existing inside the ellipse area. Shows an example of a procedure for generating a person area, and is not limited to the processing procedure described above.

次に、画像領域分割処理の詳細について説明する。図9は、画像領域分割処理部105が行う画像領域分割の処理手順を示すフローチャートである。   Next, details of the image region dividing process will be described. FIG. 9 is a flowchart illustrating a processing procedure of image region division performed by the image region division processing unit 105.

まず、画像領域分割処理部105が画像情報を取得する(ステップS901)。   First, the image area division processing unit 105 acquires image information (step S901).

次に、画像データに対してフィルタリング処理を行う(ステップS902)。まず、画像データに対してローパスフィルタでフィルタリングを行う。ローパスフィルタは、通常のガウシアンフィルタを使用する。フィルタリングにより、画像データの輝度と色を平滑化する。   Next, a filtering process is performed on the image data (step S902). First, the image data is filtered with a low-pass filter. As the low-pass filter, a normal Gaussian filter is used. The brightness and color of the image data are smoothed by filtering.

なお、本実施の形態では、画像領域分割処理部105において画像データに行うローパスフィルタとして通常のガウシアンフィルタを使用しているが、ガウシアンフィルタを使用せず、他のローパスフィルタによって、画像データの輝度と色を平滑化するように処理を行ってもよい。   In this embodiment, a normal Gaussian filter is used as a low-pass filter for image data in the image region division processing unit 105, but the Gaussian filter is not used, and the luminance of the image data is not reduced by another low-pass filter. Processing may be performed so as to smooth the colors.

次に、各画素をグループ化して、小分割領域を生成する(ステップS903)。つまり、色とエッジが平滑化された画像データに対して、色とコントラストが異なる領域をそれぞれ特定する。つまり、平滑化された画像データの隣り合う画素の色とコントラストの差分が、ある閾値以下であれば、同じグループの画素とする。そして、多数のグループが小分割領域として生成される。   Next, each pixel is grouped to generate a small divided region (step S903). That is, areas having different colors and contrasts are specified for image data in which colors and edges are smoothed. That is, if the difference between the color and contrast of adjacent pixels in the smoothed image data is equal to or less than a certain threshold value, the pixels are in the same group. A large number of groups are generated as small divided areas.

次に、画素数の少ない小分割領域を、画素数の多い小分割領域に結合させて、分割領域を生成する(ステップS904)。つまり、グループ化された小分割領域に存在する画素数が、ある閾値の画素数より少ない場合、色とコントラストの近い隣接する画素数の多い領域のグループと結合させて、分割領域を生成する。   Next, a small divided region with a small number of pixels is combined with a small divided region with a large number of pixels to generate a divided region (step S904). That is, when the number of pixels existing in the grouped small divided region is smaller than a certain threshold number of pixels, the divided region is generated by combining with a group of adjacent regions having a large number of adjacent pixels that are close in color and contrast.

そして、人物領域生成部106に、分割領域の画像データを出力する(ステップS905)。   Then, the image data of the divided area is output to the person area generation unit 106 (step S905).

上述した処理手順により、色とコントラストの近い隣接する画素に着目することで、画像領域の分割が可能となる。なお、上述した手順は、第1の実施の形態にかかる画像領域分割処理部105における画像データに対して、平滑化の処理を行って画像領域の分割の手順の例を示したものであり、上述した処理手順に制限するものではない。   By paying attention to adjacent pixels close in color and contrast by the processing procedure described above, the image area can be divided. The above-described procedure is an example of a procedure for dividing an image area by performing a smoothing process on the image data in the image area division processing unit 105 according to the first embodiment. The present invention is not limited to the processing procedure described above.

次に、人物領域生成の処理の詳細について説明する。図10は、人物領域生成部106が行う人物領域を生成する手順を示すフローチャートである。   Next, details of the person area generation processing will be described. FIG. 10 is a flowchart showing a procedure for generating a person area performed by the person area generator 106.

まず、人物領域生成部106は、楕円領域生成部104から、人物候補領域である楕円を取得する(ステップS110)。取得した楕円の内部領域が、人物領域の候補となる領域である。   First, the person area generation unit 106 acquires an ellipse that is a person candidate area from the ellipse area generation unit 104 (step S110). The acquired inner area of the ellipse is a candidate area for the person area.

次に、画像領域分割処理部105から、分割領域の画像データを取得する(ステップS111)。   Next, the image data of the divided area is acquired from the image area division processing unit 105 (step S111).

次に、ステップS110で取得した楕円とステップS111で取得した分割領域の画像データとを合成して、楕円と接触する部分領域を削除する(ステップS112)。つまり、楕円と接触する複数の分割領域は、人物領域ではないと判断して取り除く。これにより、残った分割領域を人物領域として判別し、生成することができる。   Next, the ellipse acquired in step S110 and the image data of the divided area acquired in step S111 are combined, and the partial area that contacts the ellipse is deleted (step S112). That is, it is determined that the plurality of divided areas that are in contact with the ellipse are not person areas and are removed. Thereby, the remaining divided areas can be identified and generated as person areas.

次に、上述した画像処理を実施する撮像装置の一例であるデジタルカメラのハードウェア構成について説明する。図11は、本実施の形態にかかるデジタルカメラのハードウェア構成を示すブロック図である。図11に示すように被写体光は、まずデジタルカメラ1000の撮影光学系1を通してCCD(Charge Coupled Device)3に入射される。また、撮影光学系1とCCD3との間は、メカシャッタ2が配置されており、このメカシャッタ2によりCCD3への入射光を遮断することが出来る。なお、撮影光学系1及びメカシャッタ2は、モータドライバ6より駆動される。   Next, a hardware configuration of a digital camera that is an example of an imaging apparatus that performs the above-described image processing will be described. FIG. 11 is a block diagram showing a hardware configuration of the digital camera according to the present embodiment. As shown in FIG. 11, subject light first enters a CCD (Charge Coupled Device) 3 through the photographing optical system 1 of the digital camera 1000. A mechanical shutter 2 is disposed between the photographing optical system 1 and the CCD 3, and incident light on the CCD 3 can be blocked by the mechanical shutter 2. The photographing optical system 1 and the mechanical shutter 2 are driven by a motor driver 6.

CCD3は、撮像面に結像された光学像を電気信号に変換して、アナログの画像データとして出力する。CCD3から出力された画像情報は、CDS(Correlated Double Sampling:相関2重サンプリング)回路4によりノイズ成分を除去され、A/D変換器5によりデジタル値に変換された後、画像処理回路8に対して出力される。   The CCD 3 converts an optical image formed on the imaging surface into an electrical signal and outputs it as analog image data. The image information output from the CCD 3 is subjected to removal of noise components by a CDS (Correlated Double Sampling) circuit 4 and converted to a digital value by an A / D converter 5, and then to an image processing circuit 8. Is output.

画像処理回路8は、画像データを一時格納するSDRAM(Synchronous DRAM)12を用いて、YCrCb変換処理や、ホワイトバランス制御処理、コントラスト補正処理、エッジ強調処理、色変換処理などの各種画像処理を行う。なお、ホワイトバランス制御処理は、画像情報の色濃さを調整し、コントラスト補正処理は、画像情報のコントラストを調整する画像処理である。エッジ強調処理は、画像情報のシャープネスを調整し、色変換処理は、画像情報の色合いを調整する画像処理である。また、画像処理回路8は、信号処理や画像処理が施された画像情報を液晶ディスプレイ16(以下、「LCD16」と略記する)に表示する。   The image processing circuit 8 performs various image processing such as YCrCb conversion processing, white balance control processing, contrast correction processing, edge enhancement processing, and color conversion processing using an SDRAM (Synchronous DRAM) 12 that temporarily stores image data. . The white balance control process is an image process for adjusting the color density of image information, and the contrast correction process is an image process for adjusting the contrast of image information. The edge enhancement process adjusts the sharpness of image information, and the color conversion process is an image process that adjusts the hue of image information. The image processing circuit 8 displays the image information subjected to signal processing and image processing on a liquid crystal display 16 (hereinafter abbreviated as “LCD 16”).

また、信号処理、画像処理が施された画像情報は、圧縮伸張回路13を介して、メモリカード14に記録される。上記圧縮伸張回路13は、操作部15から取得した指示によって、画像処理回路8から出力される画像情報を圧縮してメモリカード14に出力すると共に、メモリカード14から読み出した画像情報を伸張して画像処理回路8に出力する回路である。   The image information subjected to the signal processing and the image processing is recorded in the memory card 14 via the compression / decompression circuit 13. The compression / decompression circuit 13 compresses the image information output from the image processing circuit 8 according to the instruction acquired from the operation unit 15 and outputs the compressed image information to the memory card 14, and decompresses the image information read from the memory card 14. This is a circuit for outputting to the image processing circuit 8.

また、CCD3、CDS回路4及びA/D変換器5は、タイミング信号を発生するタイミング信号発生器7を介してCPU(Central Processing Unit)9によって、タイミングが制御されている。さらに、画像処理回路8、圧縮伸張回路13、メモリカード14も、CPU9によって制御されている。   The timing of the CCD 3, the CDS circuit 4, and the A / D converter 5 is controlled by a CPU (Central Processing Unit) 9 via a timing signal generator 7 that generates a timing signal. Further, the image processing circuit 8, the compression / decompression circuit 13, and the memory card 14 are also controlled by the CPU 9.

撮像装置において、CPU9はプログラムに従って各種演算処理を行い、プログラムなどを格納した読み出し専用メモリであるROM(Read Only Memory)11および各種の処理過程で利用するワークエリア、各種データ格納エリアなどを有する読み出し書き込み自在のメモリであるRAM(Random Access Memory)10などを内蔵し、これらがバスラインによって相互接続されている。   In the imaging apparatus, the CPU 9 performs various arithmetic processes in accordance with a program, and has a ROM (Read Only Memory) 11 that is a read-only memory storing the program, a work area used in various processes, and various data storage areas. A RAM (Random Access Memory) 10 that is a writable memory is built in, and these are interconnected by a bus line.

撮像装置は、まず画像データを入力し、入力した画像をメモリ領域SDRAMに一時的に保存する。このとき、人物領域生成処理、画像補正プログラムをROM11から起動し、人物領域生成処理を行う。人物領域生成結果を受けて、画像補正処理を行う。   The imaging apparatus first inputs image data, and temporarily stores the input image in the memory area SDRAM. At this time, a person area generation process and an image correction program are started from the ROM 11 to perform the person area generation process. In response to the person region generation result, image correction processing is performed.

本実施の形態のデジタルカメラで実行される画像処理プログラムは、上述した人物領域分離、画像補正機能を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体から画像処理プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、人物領域を生成し、画像補正処理し、画像を圧縮して、メモリカードに生成されるようになっている。   The image processing program executed by the digital camera according to the present embodiment has a module configuration including the above-described human area separation and image correction functions. As actual hardware, a CPU (processor) can store images from the storage medium. By reading and executing the processing program, the above-described units are loaded onto the main storage device, a person area is generated, image correction processing is performed, and the image is compressed to be generated on the memory card.

このように第1の実施の形態にかかる撮像装置によれば、撮像部100から取得した画像データを画像入力部102が顔領域検知処理部103に送出し、顔領域検知処理部103が人物の顔領域を検知し、検知した顔領域の情報から楕円領域生成部104が楕円を生成した場合であって、画像入力部102から取得した画像データから画像領域分割処理部105が複数の分割領域を取得した場合に、人物領域生成部106が楕円に分割領域を重ねることにより、楕円に包含される分割領域を人物領域として取得するため、顔領域を含む人物領域をより高い精度で検知することができる。このため、画像データの表現力を向上させることができる。   As described above, according to the imaging apparatus according to the first embodiment, the image input unit 102 sends the image data acquired from the imaging unit 100 to the face area detection processing unit 103, and the face area detection processing unit 103 When the face area is detected and the ellipse area generation unit 104 generates an ellipse from the detected face area information, the image area division processing unit 105 selects a plurality of divided areas from the image data acquired from the image input unit 102. When acquired, the person area generation unit 106 superimposes the divided area on the ellipse, thereby acquiring the divided area included in the ellipse as a person area. Therefore, the person area including the face area can be detected with higher accuracy. it can. For this reason, the expressive power of image data can be improved.

また、第1の実施の形態は、撮像装置に適応した例について説明した。しかしながら、撮像装置に制限するものではなく、さまざまな装置に適用できる。そこで、別の装置に適応した実施の形態の例として、第2の実施の形態を説明する。   In the first embodiment, an example in which the first embodiment is applied to an imaging apparatus has been described. However, the present invention is not limited to the imaging device, and can be applied to various devices. Therefore, the second embodiment will be described as an example of an embodiment adapted to another device.

(第2の実施の形態)
第2の実施の形態について、添付図面を参照して説明する。第2の実施の形態は、画像処理装置を適用した例である。ここでは、第1の実施の形態と異なる部分について説明する。
(Second Embodiment)
A second embodiment will be described with reference to the accompanying drawings. The second embodiment is an example in which an image processing apparatus is applied. Here, a different part from 1st Embodiment is demonstrated.

本実施例は撮影装置から記録した画像ファイルを画像入力部により入力する。入力した画像データに対して、人物領域生成処理を行い、画像補正を行う。   In this embodiment, an image file recorded from the photographing apparatus is input by an image input unit. A human region generation process is performed on the input image data to perform image correction.

図12は、画像処理装置の機能的構成を示すブロック図である。メモリカードドライバ120から取り込まれた画像データが画像処理装置121により画像処理され、記憶装置129とプリンタエンジン130に送信される。画像処理装置121は、画像入力部122と、顔領域検知処理部123と、楕円領域生成部124と、画像領域分割処理部125と、人物領域生成部126と、画像補正処理部127と、画像出力部128とを主に備えている。ここで、画像処理装置121と、画像入力部122と、顔領域検知処理部123と、楕円領域生成部124と、画像領域分割処理部125と、人物領域生成部126と、画像補正処理部127と、画像出力部128の機能および構成は、第1の実施の形態と同様であるため、説明を省略する。   FIG. 12 is a block diagram illustrating a functional configuration of the image processing apparatus. Image data captured from the memory card driver 120 is subjected to image processing by the image processing device 121 and transmitted to the storage device 129 and the printer engine 130. The image processing apparatus 121 includes an image input unit 122, a face region detection processing unit 123, an elliptical region generation unit 124, an image region division processing unit 125, a person region generation unit 126, an image correction processing unit 127, an image An output unit 128 is mainly provided. Here, the image processing device 121, the image input unit 122, the face area detection processing unit 123, the ellipse area generation unit 124, the image area division processing unit 125, the person area generation unit 126, and the image correction processing unit 127. Since the function and configuration of the image output unit 128 are the same as those in the first embodiment, description thereof is omitted.

メモリカードドライバ120は、メモリカードに格納されている画像ファイルを読み取るドライバである。また、記憶装置129は、画像処理装置121により画像処理された画像データを格納する。また、プリンタエンジン130は、印刷を実行する部分である。   The memory card driver 120 is a driver that reads an image file stored in the memory card. Further, the storage device 129 stores the image data that has been subjected to image processing by the image processing device 121. The printer engine 130 is a part that executes printing.

次に、以上のように構成された画像処理装置121における処理について説明する。図14は、画像処理装置121における上述した処理の手順を示すフローチャートである。   Next, processing in the image processing apparatus 121 configured as described above will be described. FIG. 14 is a flowchart illustrating the above-described processing procedure in the image processing apparatus 121.

まず、画像入力部122は、画像ファイルを取得して、顔領域検知処理部123と画像領域分割処理部125に画像データを入力する(ステップS141)。   First, the image input unit 122 acquires an image file, and inputs image data to the face area detection processing unit 123 and the image area division processing unit 125 (step S141).

次に、第1の実施の形態の図8のステップS802〜S807と同様にして、画像データに対して顔領域検知処理を行って楕円を生成し、楕円領域の内部に存在する人物外領域を取り除くことで人物領域を生成するまでの処理を行う(ステップS142〜S147)。よって、画像ファイルを取得し、顔領域を検知することで、顔領域の情報から楕円を生成し、楕円領域から人物領域を生成することが可能となる。   Next, in the same manner as steps S802 to S807 in FIG. 8 of the first embodiment, face area detection processing is performed on the image data to generate an ellipse, and an area outside the person existing inside the ellipse area is determined. The process until the person area is generated by removing is performed (steps S142 to S147). Therefore, by acquiring an image file and detecting the face area, it is possible to generate an ellipse from the face area information and generate a person area from the ellipse area.

図13は、本実施の形態にかかる画像処理装置のハードウェア構成を示すブロック図である。画像処理装置2000は、各部を集中的に制御するCPU(Central Processing Unit)24を備えており、このCPU24には、BIOSなどを記憶した読出し専用メモリであるROM(Read Only Memory)22と、各種データを書換え可能に記憶してCPUの作業エリアとして機能するRAM(Random Access Memory)21とがバスで接続されており、マイクロコンピュータを構成している。さらにバスには、制御プログラムが記憶されたHDD25と、CD(Compact Disc)−ROMを読み取るCD−ROMドライブ26と、プリンタ部等との通信を司るインタフェースであるI/F23とが接続されている。   FIG. 13 is a block diagram showing a hardware configuration of the image processing apparatus according to the present embodiment. The image processing apparatus 2000 includes a CPU (Central Processing Unit) 24 that centrally controls each unit. The CPU 24 includes a ROM (Read Only Memory) 22 that is a read-only memory storing a BIOS and the like, and various types of CPUs. A RAM (Random Access Memory) 21 that stores data so as to be rewritable and functions as a work area of the CPU is connected by a bus to constitute a microcomputer. Further, an HDD 25 in which a control program is stored, a CD-ROM drive 26 that reads a CD (Compact Disc) -ROM, and an I / F 23 that is an interface that manages communication with a printer unit and the like are connected to the bus. .

図13に示すCD−ROM28は、所定の制御プログラムが記憶されている。CPU24は、CD−ROM28に記憶されている制御プログラムをCD−ROMドライブ26で読み取り、HDD25にインストールする。これにより、上述したような各種の処理を行うことが可能な状態となる。また、メモリカード29には、画像情報などが格納され、メモリカードドライバ27で読み取られる。   A CD-ROM 28 shown in FIG. 13 stores a predetermined control program. The CPU 24 reads the control program stored in the CD-ROM 28 with the CD-ROM drive 26 and installs it in the HDD 25. Thereby, it will be in the state which can perform various processes as mentioned above. The memory card 29 stores image information and the like and is read by the memory card driver 27.

なお、記憶媒体としては、CD−ROMやメモリカードのみならず、DVDなどの各種の光ディスク、各種光磁気ディスク、フロッピー(登録商標)ディスクなどの各種磁気ディスク、半導体メモリ等、各種方式のメディアを用いることができる。また、インターネットなどのネットワークからプログラムをダウンロードし、HDD25にインストールするようにしてもよい。この場合に、送信側のサーバでプログラムを記憶している記憶装置も、この発明の記憶媒体である。なお、プログラムは、所定のOS(Operating System)上で動作するものであってもよいし、その場合に後述の各種処理の一部の実行をOSに肩代わりさせるものであってもよいし、ワープロソフトなど所定のアプリケーションソフトやOSなどを構成する一群のプログラムファイルの一部として含まれているものであってもよい。   As storage media, not only CD-ROMs and memory cards but also various types of media such as various optical disks such as DVDs, various magneto-optical disks such as DVDs, floppy disks (registered trademark), semiconductor memories, etc. Can be used. Alternatively, the program may be downloaded from a network such as the Internet and installed in the HDD 25. In this case, the storage device storing the program in the server on the transmission side is also a storage medium of the present invention. Note that the program may operate on a predetermined OS (Operating System), in which case the OS may execute a part of various processes described later, or a word processor. It may be included as part of a group of program files that constitute predetermined application software such as software or an OS.

また、本実施の形態の画像処理装置で実行される背景ぼかしプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施の形態の画像処理装置で実行される画像処理プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。   The background blurring program executed by the image processing apparatus according to the present embodiment may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. Further, the image processing program executed by the image processing apparatus of the present embodiment may be provided or distributed via a network such as the Internet.

また、本実施の形態の画像処理プログラムを、ROM等に予め組み込んで提供するように構成してもよい。   Further, the image processing program according to the present embodiment may be provided by being incorporated in advance in a ROM or the like.

本実施の形態は、撮影する場合に、画像記録時の撮影条件を記録することが必要であり、撮影条件の情報は画像ファイルに記録される。人物領域生成方法や画像補正処理方法は第1の実施の形態と同じである。   In this embodiment, when shooting, it is necessary to record shooting conditions at the time of image recording, and shooting condition information is recorded in an image file. The person area generation method and the image correction processing method are the same as those in the first embodiment.

本実施形態の画像処理装置で実行される画像処理プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。   An image processing program executed by the image processing apparatus according to the present embodiment is an installable or executable file, such as a CD-ROM, a flexible disk (FD), a CD-R, or a DVD (Digital Versatile Disk). The program is provided by being recorded on a computer-readable recording medium.

このように第2の実施の形態にかかる画像処理装置よれば、画像入力部122から取得した画像データから顔領域検知処理部123が人物の顔領域を検知し、検知した顔領域の情報から楕円領域生成部124が楕円を生成した場合であって、画像領域分割処理部125が画像入力部122から取得した画像データから複数の分割領域を取得した場合に、人物領域生成部126が楕円に分割領域を重ねることにより、楕円に包含される分割領域を人物領域として取得するため、顔領域を含む人物領域をより高い精度で検知することができる。このため、画像データの表現力を向上させることができる。   As described above, according to the image processing apparatus according to the second embodiment, the face area detection processing unit 123 detects the human face area from the image data acquired from the image input unit 122, and the ellipse is detected from the detected face area information. When the region generation unit 124 generates an ellipse and the image region division processing unit 125 acquires a plurality of divided regions from the image data acquired from the image input unit 122, the person region generation unit 126 divides the ellipse into ellipses. Since the divided areas included in the ellipse are acquired as person areas by overlapping the areas, the person area including the face area can be detected with higher accuracy. For this reason, the expressive power of image data can be improved.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。本発明の実施態様は、以上に説明したような特定の実施形態に限定されるものではない。   Further effects and modifications can be easily derived by those skilled in the art. The embodiments of the present invention are not limited to the specific embodiments as described above.

100 撮像部
101 画像処理部
102 画像入力部
103 顔領域検知処理部
104 楕円領域生成部
105 画像領域分割処理部
106 人物領域生成部
107 画像補正処理部
108 画像出力部
109 外部記憶装置
200 画像
201 顔領域
202 顔矩形領域
203 身体領域
204 背景領域
301 楕円
400 画像
401 小分割領域
402 小分割領域
403 小分割領域
404 小分割領域
405 小分割領域
406 小分割領域
407 小分割領域
408 小分割領域
409 小分割領域
410 小分割領域
411 小分割領域
412 小分割領域
413 小分割領域
414 小分割領域
415 小分割領域
416 小分割領域
500 画像
501 分割領域
502 分割領域
503 分割領域
600 画像
700 画像
701 人物領域
702 人物外領域
DESCRIPTION OF SYMBOLS 100 Image pick-up part 101 Image processing part 102 Image input part 103 Face area detection process part 104 Elliptical area generation part 105 Image area division | segmentation process part 106 Person area generation part 107 Image correction process part 108 Image output part 109 External storage device 200 Image 201 Face Area 202 face rectangular area 203 body area 204 background area 301 ellipse 400 image 401 small divided area 402 small divided area 403 small divided area 404 small divided area 405 small divided area 406 small divided area 407 small divided area 408 small divided area 409 small divided area 409 Area 410 Subdivision area 411 Subdivision area 412 Subdivision area 413 Subdivision area 414 Subdivision area 415 Subdivision area 416 Subdivision area 500 image 501 subdivision area 502 subdivision area 503 subdivision area 600 image 700 image 701 person area 02 people outside the region

特開平8‐191458号公報JP-A-8-191458 特開2004‐185555号公報JP 2004-185555 A 特開2004‐303193号公報JP 2004-303193 A

Claims (7)

画像データに含まれる被写体の顔領域を検知する顔領域検知手段と、
前記画像データの輝度情報、または色情報に応じて前記画像データの部分領域情報を複数取得する領域情報取得手段と、
検知された前記顔領域に基づき、取得された複数の前記部分領域情報のうち前記被写体を構成する部分領域情報を選択する被写体領域取得手段と、
を備えることを特徴とする画像処理装置。
Face area detecting means for detecting a face area of a subject included in image data;
Area information acquisition means for acquiring a plurality of partial area information of the image data according to luminance information of the image data or color information;
Subject area acquisition means for selecting partial area information constituting the subject from the plurality of acquired partial area information based on the detected face area;
An image processing apparatus comprising:
検知された前記顔領域に基づき被写体領域の候補を生成するための被写体候補領域を生成する候補生成手段をさらに備え、
前記被写体領域取得手段は、生成された前記被写体候補領域に包含される前記部分領域情報を選択することを特徴とする請求項1に記載の画像処理装置。
Candidate generation means for generating a subject candidate area for generating a candidate for the subject area based on the detected face area;
The image processing apparatus according to claim 1, wherein the subject area acquisition unit selects the partial area information included in the generated subject candidate area.
前記被写体領域取得手段は、前記顔領域の位置、および大きさに基づき前記部分領域情報を取得すること
を特徴とする請求項1および請求項2に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the subject area acquisition unit acquires the partial area information based on a position and a size of the face area.
利用者が前記画像データから前記被写体領域を取得するために前記被写体候補領域を確認するための表示部をさらに備え、
前記候補生成手段は、前記被写体候補領域を楕円領域として枠で前記表示部に表示すること、
を特徴とする請求項1〜3のいずれか1つに記載の画像処理装置。
A display unit for a user to confirm the subject candidate region in order to obtain the subject region from the image data;
The candidate generation means displays the subject candidate area as an elliptical area in a frame on the display unit;
The image processing apparatus according to any one of claims 1 to 3.
被写体を撮像する撮像部と、
前記撮像部によって撮像された画像情報を画像データとして取得する画像情報取得手段と、
前記画像データに含まれる被写体の顔領域を検知する顔領域検知手段と、
前記画像データの輝度情報、または色情報に応じて前記画像データの部分領域情報を複数取得する領域情報取得手段と、
検知された前記顔領域に基づき、取得された複数の前記部分領域情報のうち前記被写体を構成する部分領域情報を取得する被写体領域取得手段と、
を備えることを特徴とする撮像装置。
An imaging unit for imaging a subject;
Image information acquisition means for acquiring image information captured by the imaging unit as image data;
Face area detecting means for detecting a face area of a subject included in the image data;
Area information acquisition means for acquiring a plurality of partial area information of the image data according to luminance information of the image data or color information;
Subject area acquisition means for acquiring partial area information constituting the subject among the plurality of acquired partial area information based on the detected face area;
An imaging apparatus comprising:
画像データに含まれる被写体の顔領域を検知する顔領域検知ステップと、
前記画像データの輝度情報、または色情報に応じて前記画像データの部分領域情報を複数取得する領域情報取得ステップと、
検知された前記顔領域に基づき、取得された複数の前記部分領域情報のうち前記被写体を構成する部分領域情報を取得する被写体領域取得ステップと、
を含むことを特徴とする画像処理方法。
A face area detecting step for detecting a face area of a subject included in the image data;
A region information acquisition step of acquiring a plurality of partial region information of the image data according to luminance information of the image data or color information;
A subject region acquisition step of acquiring partial region information constituting the subject among the plurality of acquired partial region information based on the detected face region;
An image processing method comprising:
請求項6に記載された画像データから被写体領域を取得する画像処理方法をコンピュータに実行させるための画像処理プログラム。   An image processing program for causing a computer to execute an image processing method for acquiring a subject area from image data according to claim 6.
JP2009067068A 2009-03-18 2009-03-18 Image processing apparatus, image capturing apparatus, image processing method, and image processing program Pending JP2010220122A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009067068A JP2010220122A (en) 2009-03-18 2009-03-18 Image processing apparatus, image capturing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009067068A JP2010220122A (en) 2009-03-18 2009-03-18 Image processing apparatus, image capturing apparatus, image processing method, and image processing program

Publications (1)

Publication Number Publication Date
JP2010220122A true JP2010220122A (en) 2010-09-30

Family

ID=42978430

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009067068A Pending JP2010220122A (en) 2009-03-18 2009-03-18 Image processing apparatus, image capturing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP2010220122A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105631892A (en) * 2016-02-23 2016-06-01 武汉大学 Aviation image building damage detection method based on shadow and texture characteristics
CN104012088B (en) * 2012-11-19 2016-09-28 松下知识产权经营株式会社 Image processing apparatus and image processing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008092515A (en) * 2006-10-05 2008-04-17 Nikon Corp Electronic camera, image processing apparatus, and program
JP2008187260A (en) * 2007-01-26 2008-08-14 Nikon Corp Imaging device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008092515A (en) * 2006-10-05 2008-04-17 Nikon Corp Electronic camera, image processing apparatus, and program
JP2008187260A (en) * 2007-01-26 2008-08-14 Nikon Corp Imaging device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104012088B (en) * 2012-11-19 2016-09-28 松下知识产权经营株式会社 Image processing apparatus and image processing method
CN105631892A (en) * 2016-02-23 2016-06-01 武汉大学 Aviation image building damage detection method based on shadow and texture characteristics
CN105631892B (en) * 2016-02-23 2018-03-13 武汉大学 It is a kind of that detection method is damaged based on the aviation image building of shade and textural characteristics

Similar Documents

Publication Publication Date Title
US9569831B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium for extracting information embedded in a printed material
US20090109304A1 (en) Image processing device, image processing method, and computer program product
JP5818091B2 (en) Image processing apparatus, image processing system, image processing method, and program
JP4078334B2 (en) Image processing apparatus and image processing method
JP6421794B2 (en) Image processing apparatus, image processing method, and program
JP5251629B2 (en) Image processing apparatus, imaging apparatus, image processing method, and computer program
US9602691B2 (en) Image processing apparatus that determines code corresponding to a digital watermark embedded in an image
JP2009077202A (en) Image processor, image processing method, and image processing program, and imaging apparatus
JP2007201541A (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP5246078B2 (en) Object location program and camera
JP2011035636A (en) Image processor and method
JP4375322B2 (en) Image processing apparatus, image processing method, program thereof, and computer-readable recording medium recording the program
KR102562720B1 (en) Detection apparatus, image processing apparatus, detection method, and image processing method
JP2010220122A (en) Image processing apparatus, image capturing apparatus, image processing method, and image processing program
JP5181913B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US9710897B2 (en) Image processing apparatus, image processing method, and recording medium
JP5606300B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP5750934B2 (en) Image processing apparatus and image processing program
US20240155210A1 (en) Data generation apparatus and control method
JP6070098B2 (en) Threshold setting device, threshold setting method and program
JP6318549B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP2023114304A (en) Information processing device, and control method and program thereof
JP6142604B2 (en) Image processing apparatus, image processing method, and program
JP6098227B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP5263010B2 (en) Image processing apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130520

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130903