[go: up one dir, main page]

JP4597391B2 - Facial region detection apparatus and method, and computer-readable recording medium - Google Patents

Facial region detection apparatus and method, and computer-readable recording medium Download PDF

Info

Publication number
JP4597391B2
JP4597391B2 JP2001013818A JP2001013818A JP4597391B2 JP 4597391 B2 JP4597391 B2 JP 4597391B2 JP 2001013818 A JP2001013818 A JP 2001013818A JP 2001013818 A JP2001013818 A JP 2001013818A JP 4597391 B2 JP4597391 B2 JP 4597391B2
Authority
JP
Japan
Prior art keywords
region
area
skin color
contour
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001013818A
Other languages
Japanese (ja)
Other versions
JP2002216129A (en
Inventor
直亮 住田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2001013818A priority Critical patent/JP4597391B2/en
Publication of JP2002216129A publication Critical patent/JP2002216129A/en
Application granted granted Critical
Publication of JP4597391B2 publication Critical patent/JP4597391B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Processing Of Color Television Signals (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、カラー画像から人の顔領域を検出する顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体に関する。
【0002】
【従来の技術】
自律移動型ロボットの開発において、人間の識別や表情の認識を行うために画像中から顔領域を自動的に抽出することは重要な課題の一つである。例えば、テンプレートマッチング法は従来から知られている顔領域の抽出方法の一つである。この方法は、事前に準備したさまざまな種類の顔領域だけの画像をテンプレートとして、処理対象である画像中の顔画像とのマッチングを濃淡値を用いて行い、マッチング度の最も高いテンプレートを選択するものである。また、その他の方法として固有顔と呼ばれる特徴ベクトルを用いたEigenface法、色情報を用いた肌色領域のクラスタリング法などが知られている。
【0003】
【発明が解決しようとする課題】
しかしながら、上述したようなテンプレートマッチング法等の従来手法には次のような問題点がある。同じ画像中でも撮影されたカメラからの距離によって人物の顔の大きさが異なる場合や、動画像において人物が移動することによって各フレームにおける同一人物の顔の大きさが変化してしまう場合には、同じ人物の顔であっても同一のテンプレートで抽出することができない。したがって、あらゆる場合を想定して人物の顔領域を検出できるようにするためには、さまざまな大きさや種類の顔に対応した膨大な枚数のテンプレート等を事前に準備しなければならない。
【0004】
また、テンプレートマッチング法では、テンプレート数を増大することによって計算コストが増大してしまうという欠点が生じてしまう。自律移動型ロボットの顔領域認識手法には、実用的な処理時間内で複数の顔を同時に探索して追跡する必要があるので、テンプレートマッチング法のような探索時間が必要となる手法を適用することは好ましくない。
さらに、色情報を用いるクラスタリング法を顔領域の検出に用いる場合、照明の変化や背景に肌色部分が存在すると肌色領域である顔領域を有効に抽出することができないといった問題が生じてしまう。
【0005】
この発明は、このような事情を考慮してなされたものであり、テンプレートマッチング法のように膨大な枚数のテンプレートをあらかじめ記憶させておく必要がなく、高速に顔領域を検出することができる顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体を提供することを目的とする。
【0006】
【課題を解決するための手段】
上記課題を解決するために、請求項1に記載の発明は、撮像装置で取得されたカラー画像から肌色領域を抽出する抽出手段と、顔領域の輪郭を与える輪郭モデルを生成する輪郭モデル生成手段と、前記輪郭モデルと前記肌色領域の輪郭画素とが一致した画素の数と、前記輪郭モデルに囲まれた領域内に含まれる前記肌色領域内の画素の数とをパラメータとした評価値の高さに応じて前記顔領域を特定する顔領域特定手段とを有し、前記輪郭モデル生成手段は、前記カラー画像の奥行き情報を有する距離画像を用い、前記肌色領域の奥行き情報に対応した大きさの前記輪郭モデルを生成することを特徴とする。
【0007】
請求項2に記載の発明は、請求項1に記載の発明において、前記距離画像内の領域であってあらかじめ指定された距離内の被写体を含む領域を、前記評価値を算出すべき領域として設定する探索領域設定手段をさらに有することを特徴とする。
【0008】
請求項3に記載の発明は、連続するシーンのカラー画像の一のフレームから顔領域を検出し、次フレーム以降において該顔領域を追跡する顔領域検出装置であって、前記カラー画像から肌色領域を抽出する抽出手段と、前記顔領域の輪郭を与える輪郭モデルを生成する輪郭モデル生成手段と、前記輪郭モデルと前記肌色領域の輪郭画素とが一致した画素の数と、前記輪郭モデルに囲まれた領域内に含まれる前記肌色領域内の画素の数とをパラメータとした評価値の高さに応じて前記顔領域を特定する顔領域特定手段と、前記距離画像内の領域であってあらかじめ指定された距離内の被写体を含む領域を、前記評価値を算出すべき領域として設定する探索領域設定手段と、前記一のフレームに設定された前記評価値を算出すべき領域の位置を反映させて、次フレームでの前記評価値を算出すべき領域の位置を設定する追跡手段とを有し、前記一のフレームのカラー画像の奥行き情報を有する距離画像を用い、前記肌色領域の奥行き情報に対応した大きさの前記輪郭モデルを生成することを特徴とする。
【0009】
請求項4に記載の発明は、請求項1ないし3のいずれかの項に記載の発明において、前記抽出手段は、前記カラー画像の色相成分を利用することを特徴とする。
【0010】
請求項5に記載の発明は、請求項1ないし4のいずれかの項に記載の発明において、前記距離画像は、互いに対応付けられた2台の撮像装置から取得された2枚の画像で構成されるステレオ画像を立体視することによって得られる奥行き情報を利用して作成されることを特徴とする。
【0012】
請求項に記載の発明は、撮像装置で取得されたカラー画像から肌色領域を抽出する第1の過程と、前記距離画像内の領域であってあらかじめ指定された距離内の被写体を含む領域を評価値を算出すべき領域として設定する第2の過程と、顔領域の輪郭を与える輪郭モデルを生成する第3の過程と、前記輪郭モデルと前記肌色領域の輪郭画素とが一致した画素の数と、前記輪郭モデルに囲まれた領域内に含まれる前記肌色領域内の画素の数とをパラメータとした評価値の高さに応じて前記顔領域を特定する第4の過程とを有し、前記第2の過程では、前記カラー画像の奥行き情報を有する距離画像を用い、前記肌色領域の奥行き情報に対応した大きさの前記輪郭モデルを生成することを特徴とする。
【0013】
請求項に記載の発明は、連続するシーンのカラー画像の一のフレームから顔領域を検出し、次フレーム以降において該顔領域を追跡する顔領域検出方法であって、前記カラー画像から肌色領域を抽出する第1の過程と、前記距離画像内の領域であってあらかじめ指定された距離内の被写体を含む領域を評価値を算出すべき領域として設定する第2の過程と、前記顔領域の輪郭を与える輪郭モデルを生成する第3の過程と、前記輪郭モデルと前記肌色領域の輪郭画素とが一致した画素の数と、前記輪郭モデルに囲まれた領域内に含まれる前記肌色領域内の画素の数とをパラメータとした評価値の高さに応じて前記顔領域を特定する第4の過程と、前記一のフレームに設定された前記評価値を算出すべき領域の位置を反映させて、次フレームでの前記評価値を算出すべき領域の位置を設定する第5の過程とを有し、前記第3の過程では、前記カラー画像の奥行き情報を有する距離画像を用い、前記肌色領域の奥行き情報に対応した大きさの前記輪郭モデルを生成することを特徴とする。
【0015】
請求項に記載の発明は、撮像装置で取得されたカラー画像から肌色領域を抽出する第1の手順と、前記距離画像内の領域であってあらかじめ指定された距離内の被写体を含む領域を評価値を算出すべき領域として設定する第2の手順と、顔領域の輪郭を与える輪郭モデルを生成する第3の手順と、前記輪郭モデルと前記肌色領域の輪郭画素とが一致した画素の数と、前記輪郭モデルに囲まれた領域内に含まれる前記肌色領域内の画素の数とをパラメータとした評価値の高さに応じて前記顔領域を特定する第4の手順とをコンピュータに実行させ、前記第3の手順では、前記カラー画像の奥行き情報を有する距離画像を用い、前記肌色領域の奥行き情報に対応した大きさの前記輪郭モデルを生成する手順を前記コンピュータに実行させるプログラムを記録したことを特徴とする。
【0016】
請求項に記載の発明は、連続するシーンのカラー画像の一のフレームから顔領域を検出し、次フレーム以降において該顔領域を追跡する顔領域検出方法であって、前記カラー画像から肌色領域を抽出する第1の手順と、前記距離画像内の領域であってあらかじめ指定された距離内の被写体を含む領域を評価値を算出すべき領域として設定する第2の手順と、前記顔領域の輪郭を与える輪郭モデルを生成する第3の手順と、前記輪郭モデルと前記肌色領域の輪郭画素とが一致した画素の数と、前記輪郭モデルに囲まれた領域内に含まれる前記肌色領域内の画素の数とをパラメータとした評価値の高さに応じて前記顔領域を特定する第4の手順と、前記一のフレームに設定された前記評価値を算出すべき領域の位置を反映させて、次フレームでの前記評価値を算出すべき領域の位置を設定する第5の手順とをコンピュータに実行させ、前記第3の手順では、前記カラー画像の奥行き情報を有する距離画像を用い、前記肌色領域の奥行き情報に対応した大きさの前記輪郭モデルを生成する手順を前記コンピュータに実行させるプログラムを記録したことを特徴とする。
【0018】
請求項10に記載の発明は、撮像装置で取得されたカラー画像から肌色領域を抽出する第1の手順と、前記距離画像内の領域であってあらかじめ指定された距離内の被写体を含む領域を評価値を算出すべき領域として設定する第2の手順と、顔領域の輪郭を与える輪郭モデルを生成する第3の手順と、前記輪郭モデルと前記肌色領域の輪郭画素とが一致した画素の数と、前記輪郭モデルに囲まれた領域内に含まれる前記肌色領域内の画素の数とをパラメータとした評価値の高さに応じて前記顔領域を特定する第4の手順とをコンピュータに実行させ、前記第3の手順では、前記カラー画像の奥行き情報を有する距離画像を用い、前記肌色領域の奥行き情報に対応した大きさの前記輪郭モデルを生成する手順を前記コンピュータに実行させることを特徴とする。
【0019】
請求項11に記載の発明は、連続するシーンのカラー画像の一のフレームから顔領域を検出し、次フレーム以降において該顔領域を追跡する顔領域検出方法であって、前記カラー画像から肌色領域を抽出する第1の手順と、前記距離画像内の領域であってあらかじめ指定された距離内の被写体を含む領域を評価値を算出すべき領域として設定する第2の手順と、前記顔領域の輪郭を与える輪郭モデルを生成する第3の手順と、前記輪郭モデルと前記肌色領域の輪郭画素とが一致した画素の数と、前記輪郭モデルに囲まれた領域内に含まれる前記肌色領域内の画素の数とをパラメータとした評価値の高さに応じて前記顔領域を特定する第4の手順と、前記一のフレームに設定された前記評価値を算出すべき領域の位置を反映させて、次フレームでの前記評価値を算出すべき領域の位置を設定する第5の手順とをコンピュータに実行させ、前記第3の手順では、前記カラー画像の奥行き情報を有する距離画像を用い、前記肌色領域の奥行き情報に対応した大きさの前記輪郭モデルを生成する手順を前記コンピュータに実行させることを特徴とする。
【0021】
【発明の実施の形態】
以下、図面を参照して、この発明の一実施形態について説明する。図1は、この発明の一実施形態による顔領域検出装置の構成を示すブロック図である。
図1において、11はステレオ画像入力手段であり、互いに対応付けられた2台のCCDカメラ等の撮像装置によってカラーのステレオ画像を取得し、顔領域検出装置に入力するための手段である。12は距離画像生成手段であり、ステレオ画像入力手段11で入力された同一シーンを撮影した2枚のステレオ画像を立体視することによって被写体の画像情報として奥行き情報を獲得する。そして、それらの奥行き情報をステレオ画像のうちの一方のカラー画像に対応させた距離画像を生成するための手段である。
【0022】
13は肌色領域抽出手段であり、RGB座標で取得したカラー画像をHLS座標に色座標変換して、色相成分等を用いて肌色に相当する領域だけを抽出することによって肌色領域とそれ以外の領域とからなる肌色領域画像を作成する手段である。
14はエッジ抽出手段であり、肌色領域抽出手段13で抽出された肌色領域の輪郭部分をエッジとして抽出してエッジ画像を作成する手段である。
【0023】
15は輪郭モデル決定手段であり、距離画像生成手段12で生成した距離画像内の領域であって、対象とする肌色領域に対応した領域の奥行き情報を利用して決定する大きさをもった顔領域の輪郭モデルを生成するための手段である。尚、本実施形態では八角形の形状をした枠で表現された輪郭モデルを使用する。
16は探索領域設定手段であり、距離画像生成手段12で生成された距離画像を利用してあらかじめ指定された距離情報を有する被写体の領域だけを抽出し、その領域を含んだ矩形領域を顔領域を検出するための探索領域とする手段である。
【0024】
17はマッチング手段であり、輪郭モデル決定手段15で決定された輪郭モデルとエッジ抽出手段14で抽出された肌色領域の輪郭画素との一致画素数、並びに輪郭モデルに囲まれた領域内に含まれる肌色領域抽出手段13で抽出された肌色領域内の肌色画素数とをパラメータとした相関値を計算する手段である。尚、この計算は探索領域設定手段16で決定された探索領域内に限定される。
18は顔領域判定手段であり、マッチング手段17で計算された2種類の画素数に基づいて設定される相関値が、あらかじめ設定されたしきい値よりも大きい場合であって、かつ探索領域内で最大である場合の肌色領域を顔領域と判定する手段である。
【0025】
次に、図面を参照して、同実施形態の動作について説明する。
図2は、上述した実施形態における顔領域検出手順を説明するためのフローチャートである。
まず、互いに対応付けられた2台のCCDカメラ等の撮像装置であるステレオ画像入力手段11によってカラーのステレオ画像を取得する(ステップS11)。図3は、人物の顔を含むシーンのステレオ画像のうちの1枚のカラー画像の概要を示す図である。図3において、3は3人の人物31、32、33を屋内で撮影したシーンのカラー画像である。
【0026】
そして、距離画像生成手段12によってステレオ画像を立体視することによって奥行き情報を有する距離画像を生成する(ステップS12)。距離画像を作成する場合には2枚のモノクロ画像でもよい。図4は、図3のカラー画像3に対応した奥行き情報を有する距離画像の概要を示す図であり、これを4とする。距離画像4においては、カメラから近い部分は明るく、カメラから遠くなるほど暗くなるようにして距離が表現されている。すなわち、カメラに近く、ほぼ同じ距離に位置する人物31、32、33はほぼ同じ濃淡値の明るさで表現される。尚、本実施形態ではカメラから近い部分は白色、遠い部分は斜線で表示している。
【0027】
次に、肌色領域抽出手段13でステレオ画像の一方のカラー画像3から肌色領域を抽出することによって顔領域を含んだ肌色領域画像を作成する(ステップS13)。
ここでステップS13で肌色領域画像を作成する手順について図5を用いて詳細に説明する。図5は、図2におけるステップS13における肌色領域画像の作成手順を説明するためのフローチャートである。
まず、入力されたカラー画像をRGB座標からHLS色座標に色座標変換する(ステップS131)。これによって、赤色、緑色、青色成分で表現されていた各画素の値を色相成分等で取り出すことができる。
そして、色相成分等からあらかじめ肌色画素とみなす範囲の大きさをもつ画素を設定しておき肌色画素として抽出し、その肌色画素の集合を肌色領域とする(ステップS132)。
【0028】
次に、肌色領域とそれ以外の領域に分ける二値化処理を行う(ステップS133)。
さらに、二値化された画像において肌色領域に相当する部分に対して領域の膨張処理と収縮処理を行う(ステップS134)。
そして、その画像内に含まれる各領域の中からある一定数以上の画素数を有しない領域は顔領域ではなくノイズであるとみなして除去するノイズ除去処理を行う(ステップS135)。これによって二値の肌色領域画像を作成することができる。図6は、上述した手順において作成された肌色領域画像の概要を示す図であり、これを6とする。図6において、61〜65は肌色領域である。
【0029】
そして、肌色領域画像の各肌色領域の輪郭だけをエッジとして抽出したエッジ画像を作成する(ステップS136)。図7は、エッジ画像の概要を示す図であり、これを7とする。図7において、71〜75は図6の肌色領域61〜65の輪郭部分に相当するエッジである。
【0030】
さらに、あらかじめ設定された範囲内の距離情報を有する距離画像内の領域を含んだ矩形領域を探索領域設定手段16によって求め、その領域を輪郭モデルを用いてマッチングを行うための探索領域とする(ステップS14)。本実施形態では、カメラからの距離が5メートル以内の奥行き情報を有する領域だけを距離画像4から求めて、その領域を含む矩形領域を一つの探索領域とする。
図8は、距離画像4から作成した探索領域を説明するための図である。図8において、符号8の点線で示される部分が探索領域の境界であり、その内側が探索領域である。この際、5メートル以内の領域が同一画像の中で離れて存在する場合には2つ以上の探索領域が作成される可能性がある。尚、カメラからの距離は本装置を適用する環境等の条件に応じて適宜設定することができる。
【0031】
そして、2つ以上の探索領域が設定された場合は1つの探索領域を指定して(ステップS15)、1つの探索領域しか設定されなければその探索領域について以下の処理を行う。
ステップS13で作成した肌色領域画像6上にステップS15で指定された探索領域8を適用し、その探索領域内に存在する各肌色領域から、顔領域の検出処理を行う一の肌色領域を指定する(ステップS16)。
例えば、本実施形態において図6の肌色領域61が指定された場合について考える。そこで、指定された肌色領域61に対応する距離画像内の領域の奥行き情報に基づいて、カメラから5メートル以内であるといった有効範囲内の肌色領域であるかどうかを判定する(ステップS17)。
そして、判定結果がYESであればステップS18に進み、NOであれば検出すべき顔領域ではないと判断してステップS16に戻り、別の肌色領域を対象としてステップS17の処理を行う。本実施形態ではYESと判断されてステップS18に進む。
【0032】
ステップS18では、対象となっている肌色領域61に対応する距離画像内の奥行き情報に基づいて、輪郭モデル決定手段15によってその奥行き情報に対応した大きさの八角形の輪郭モデルを生成する。図9は、図6で生成された肌色領域画像6上に適用された探索領域8と輪郭モデルを説明するための図である。
図9において、91は肌色領域61に基づいて輪郭モデル決定手段15で決定された輪郭モデルである。そして、探索領域8内においてステップS18で作成された輪郭モデル91を1画素ずつ走査させながら肌色領域とのマッチングを行う。
【0033】
また、図10は図7で生成されたエッジ画像7上に適用された探索領域8と輪郭モデル91を説明するための図である。そして、探索領域8内において輪郭モデル91を1画素ずつ走査させながら各肌色領域の輪郭であるエッジとのマッチングを行う(ステップS19)。
このマッチングでは、作成された輪郭モデルと肌色領域の輪郭画素であるエッジとの一致画素数、並びに輪郭モデルに囲まれた肌色画素数を計算する。そして、一致画素数と肌色画素数をパラメータとした相関値を顔領域かどうかを判定するための評価値とする(ステップS20)。
【0034】
本実施形態では、次のようにして評価値を求める。まず、図9に示すように肌色領域画像6上に適用された輪郭モデル91に囲まれた肌色画素数を計算し、これをM1とする。次に、輪郭モデル91で囲まれる領域内の全画素数を計算し、これをM2とする。そして、M1をM2で除算して得られた値をM3とする。
また、図10に示すようにエッジ画像7上に適用された輪郭モデル91と一致するエッジ画素を計算し、これをN1とする。次に、輪郭モデルを構成する画素数を計算し、これをN2とする。そして、N1をN2で除算して得られた値をN3とする。
そして、M3、N3のそれぞれの値に対してあらかじめ指定された重み係数を乗算し、さらに両者を加算した値を評価値Zとする。
【0035】
この計算を探索領域8内において実施し、評価値Zが探索領域8内で最大かつしきい値以上であった場合に、対象としている肌色領域は顔領域であると判定する。また、それ以外の場合は顔領域ではないと判定する(ステップS21)。
尚、評価値Zを求める基礎となったM3、N3についてもそれぞれしきい値を設定しておき、両者が共にしきい値以上の場合に評価値Zを求めるようにしてもよい。このように本実施形態においては、輪郭モデル91に基づいて肌色領域61は顔領域であると判定される。
【0036】
以上の処理が終了すると次にステップS22に進む。ステップS22において、同一探索領域内に他の肌色領域が存在する場合(YES)、ステップS16に戻って当該肌色領域について上述した手順で顔領域検出のための処理を実行する(ステップS22)。また、他の肌色領域が存在しない場合(NO)、当該探索領域における顔領域はすべて検出されたのでステップS23に進む。
【0037】
ステップS23において、本実施形態では探索領域8内に肌色領域61の他に肌色領域62〜65が存在するのでYESと判断され、上述した手順と同様にして、肌色領域62〜65について顔領域であるかどうかが判定される。その結果、肌色領域61、62、63の3つの領域が顔領域と判定され、肌色領域64、65については、評価値Zが小さくなるので顔領域とは判定されない。
このようにして、図11に示されるように、一の画像においてすべての顔領域を検出することができる。
【0038】
次に、ステップS23では、同一画像内に他の探索領域が存在するかどうかを判断する。
そして、他の探索領域が存在する場合(YES)、ステップS15に戻って同様の処理を行う。また、他の探索領域が存在しない場合(NO)、当該画像内のすべての顔領域が検出されたので終了する。本実施形態では、他の探索領域がないので終了する。
【0039】
次に、連続するシーンのカラー画像の一のフレームから顔領域を検出し、次フレーム以降において顔領域を追跡する処理手順について説明する。図12は、連続フレームにおいて顔領域を追跡する手順を説明するためのフローチャートである。
顔領域の追跡に関する処理は、まず上述した手順に基づいて一のフレームにおける顔領域を検出する(ステップS31)。そして、連続する次のフレームにおいて、探索領域を設定する(ステップS32)。このとき、設定する探索領域の位置は前フレームで設定した位置に基づいて前位置と同位置またはその近傍に設定される。
【0040】
次フレームの画像に探索領域が設定されると、前フレームで決定された輪郭モデルを使用して、図2のステップS19に示される処理手順と同様にして肌色画素数等が計算されて評価値が算出される(ステップS33)。
次に、その評価値が当該探索領域内で最大であって、かつ一定のしきい値以上であるかどうかを判断する(ステップS34)。
そして、判断結果がYESであれば、その位置が顔領域であるとみなしてステップS35へ進む。また、判断結果がNOであれば、その輪郭モデルに対応する顔領域は当該探索領域内にはすでにないとして終了する。
【0041】
また、ステップS35では、さらに次フレームで追跡するかどうかを判断する。そして、判断結果がYESならば、ステップS32に戻って次フレームにおける追跡処理を実行する。また、判断結果がNOならば、顔領域を追跡しないとして終了する。
【0042】
尚、上述した実施形態では、CCDカメラ等の撮像装置を用いて撮影したカラーのステレオ画像を直接入力する方法について示したが、あらかじめ撮影して保存されていた画像ファイルを入力して同様の手順で顔領域を検出することもできる。
また、輪郭モデル内の肌色画素数を計算する代わりに、色ヒストグラム計算を用いてもよい。
【0043】
さらに、上述した実施形態においては、輪郭モデルとして八角形のフレームのモデルを使用したが、楕円やその他多角形等の形状をしたモデルを使用してもよい。
さらにまた、輪郭モデルの縦横比を変化させることによって、個人差のある顔形状に対してより細かなマッチング処理を行うことができる。
さらにまた、実際の顔の輪郭に近い形状の輪郭モデルを使用することにより、正確な顔の位置の特定も可能になる。
【0044】
尚、本実施形態においては、2次元であるカラー画像だけでなく距離画像を使用しているので、輪郭モデルを用いて肌色領域画像6やエッジ画像7とのマッチングを行うのではなく、距離画像と3次元の顔モデルによるマッチングを行うことも可能である。
【0045】
また、顔領域の初期探索と追跡を同時に行うことによって、顔領域を追跡しながら新たに出現した顔領域にの検出も行うことができる。あるいは、しきい値を変化させることによって、容易に環境の変動に対応することもできる。
さらにまた、過去に使用した探索領域8や輪郭モデルの大きさ等の履歴を記録しておくことで、連続画像の途中で画面外に出ていった顔領域や間違えて検出された顔領域で必要がないものを効率的に削除することもできる。
【0046】
なお、図1における各処理手段の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより顔領域の検出を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
【0047】
また、「コンピュータ読み取り可能な記録媒体」とは、フロッピーディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
【0048】
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
【0049】
【発明の効果】
以上説明したように、請求項1に記載の発明によれば、撮像装置で取得されたカラー画像から肌色領域を抽出する抽出手段と、顔領域の輪郭を与える輪郭モデルを生成する輪郭モデル生成手段と、輪郭モデルと肌色領域の輪郭画素とが一致した画素の数と、輪郭モデルに囲まれた領域内に含まれる肌色領域内の画素の数とをパラメータとした評価値の高さに応じて顔領域を特定する顔領域特定手段とを有し、輪郭モデル生成手段は、カラー画像の奥行き情報を有する距離画像を用い、肌色領域の奥行き情報に対応した大きさの輪郭モデルを生成するので、テンプレートマッチング法のように膨大な枚数のテンプレートをあらかじめ記憶させておく必要がなく、高速に顔領域を検出することができる。
【0050】
請求項2に記載の発明によれば、距離画像内の領域であってあらかじめ指定された距離内の被写体を含む領域を評価値を算出すべき領域として設定する探索領域設定手段をさらに有するので、顔領域の検出にかかる処理速度をより向上することができる。
【0051】
請求項3に記載の発明によれば、連続するシーンのカラー画像の一のフレームから顔領域を検出し、次フレーム以降において顔領域を追跡する顔領域検出装置であって、カラー画像から肌色領域を抽出する抽出手段と、顔領域の輪郭を与える輪郭モデルを生成する輪郭モデル生成手段と、輪郭モデルと肌色領域の輪郭画素とが一致した画素の数と、輪郭モデルに囲まれた領域内に含まれる肌色領域内の画素の数とをパラメータとした評価値の高さに応じて顔領域を特定する顔領域特定手段と、距離画像内の領域であってあらかじめ指定された距離内の被写体を含む領域を評価値を算出すべき領域として設定する探索領域設定手段と、一のフレームに設定された評価値を算出すべき領域の位置を反映させて、次フレームでの評価値を算出すべき領域の位置を設定する追跡手段とを有し、一のフレームのカラー画像の奥行き情報を有する距離画像を用い、肌色領域の奥行き情報に対応した大きさの輪郭モデルを生成するので、連続するフレームから複数の顔領域を効率よく追跡することができ、自律移動ロボットの目の部分等に用いて好適である。さらに、次フレーム以降における顔領域の追跡に奥行き情報を有する距離画像を使用する必要もない。
【0052】
請求項4に記載の発明によれば、抽出手段は、カラー画像の色相成分等を利用することを特徴とする。色相成分を利用することにより、通常のRGBの値により肌色を識別するよりも、ロバストな肌色の検出が可能となる。
【0053】
請求項5に記載の発明によれば、距離画像は、互いに対応付けられた2台の撮像装置から取得された2枚の画像で構成されるステレオ画像を立体視することによって得られる奥行き情報を利用して作成されることを特徴とするので、カラー画像と距離情報とを同時に取得することができ、距離画像作成のためにカメラ以外の特殊な装置を用いる必要がない。
【0054】
本願発明によれば、顔領域特定手段は、輪郭モデルと肌色領域の輪郭画素とが一致した画素の数と、輪郭モデルに囲まれた領域内に含まれる肌色領域内の画素の数とをパラメータとした評価値の高さに応じて顔領域を特定することを特徴とするので、輪郭モデルと肌色領域とのマッチングを2つのパラメータによって評価することができ、高い信頼性で人の顔領域を検出することができる。
【図面の簡単な説明】
【図1】 この発明の一実施形態による顔領域検出装置の構成を示すブロック図である。
【図2】 上述した実施形態における顔領域検出手順を説明するためのフローチャートである。
【図3】 人物の顔を含むシーンのステレオ画像のうちの1枚のカラー画像3の概要を示す図である。
【図4】 カラー画像3に対応した奥行き情報を有する距離画像4の概要を示す図である。
【図5】 図2のステップS13における肌色領域画像6の作成手順を説明するためのフローチャートである。
【図6】 上述した実施形態において作成された肌色領域画像6の概要を示す図である。
【図7】 肌色領域画像6から作成されたエッジ画像の概要を示す図である。
【図8】 距離画像4の奥行き情報を利用して作成した探索領域8を説明するための図である。
【図9】 肌色領域画像6上に適用される探索領域8と輪郭モデルを説明するための図である。
【図10】 エッジ画像上に適用される探索領域8と輪郭モデルを説明するための図である。
【図11】 一の画像におけるすべての顔領域を検出した結果を説明するための図である。
【図12】 連続フレームにおいて顔領域を追跡する手順を説明するためのフローチャートである。
【符号の説明】
3 カラー画像
4 距離画像
6 肌色領域画像
7 エッジ画像
8 探索領域
11 ステレオ画像入力手段
12 距離画像生成手段
13 肌色領域抽出手段
14 エッジ抽出手段
15 輪郭モデル決定手段
16 探索領域設定手段
17 マッチング手段
18 顔領域判定手段
91、92、93 輪郭モデル
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a face area detecting apparatus and method for detecting a human face area from a color image, and a computer-readable recording medium.
[0002]
[Prior art]
In the development of an autonomous mobile robot, it is one of the important issues to automatically extract a facial region from an image in order to identify humans and recognize facial expressions. For example, the template matching method is one of conventionally known face region extraction methods. In this method, images of only various types of face regions prepared in advance are used as templates, matching with face images in the image to be processed is performed using gray values, and the template with the highest matching degree is selected. Is. As other methods, an Eigenface method using feature vectors called eigenfaces, a skin color region clustering method using color information, and the like are known.
[0003]
[Problems to be solved by the invention]
However, the conventional methods such as the template matching method described above have the following problems. If the size of a person's face varies depending on the distance from the camera taken in the same image, or if the size of the same person's face in each frame changes due to the movement of the person in the moving image, Even the faces of the same person cannot be extracted with the same template. Therefore, in order to be able to detect the face area of a person assuming all cases, it is necessary to prepare a huge number of templates corresponding to faces of various sizes and types in advance.
[0004]
Further, the template matching method has a disadvantage that the calculation cost increases by increasing the number of templates. As a face area recognition method for autonomous mobile robots, it is necessary to search and track multiple faces simultaneously within a practical processing time, so apply a method that requires search time, such as the template matching method. That is not preferable.
Further, when the clustering method using color information is used for detection of a face area, there arises a problem that a face area that is a skin color area cannot be extracted effectively if there is a change in illumination or a skin color portion exists in the background.
[0005]
The present invention has been made in consideration of such circumstances, and it is not necessary to store an enormous number of templates in advance as in the template matching method, and the face can be detected at high speed. An object of the present invention is to provide an area detection apparatus and method, and a computer-readable recording medium.
[0006]
[Means for Solving the Problems]
In order to solve the above-described problem, the invention according to claim 1 includes an extraction unit that extracts a skin color region from a color image acquired by an imaging device. ,face Outline model generation means for generating an outline model that gives an outline of the area, the outline model, and the skin color area According to the height of the evaluation value using as parameters the number of pixels that coincide with the contour pixel and the number of pixels in the skin color region included in the region surrounded by the contour model A face area specifying means for specifying the face area. The contour model generation means generates the contour model having a size corresponding to the depth information of the skin color region using a distance image having depth information of the color image. It is characterized by doing.
[0007]
According to a second aspect of the present invention, in the first aspect of the present invention, the subject within the distance image and within a predetermined distance The area containing The above Evaluation value Area to calculate As It further has search area setting means for setting.
[0008]
The invention according to claim 3 is a face area detection device that detects a face area from one frame of a color image of a continuous scene and tracks the face area in the next frame and thereafter, wherein the skin color area is detected from the color image. Extraction means for extracting ,in front Contour model generation means for generating a contour model that gives the contour of the facial expression region, the contour model and the skin color region According to the height of the evaluation value using as parameters the number of pixels that coincide with the contour pixel and the number of pixels in the skin color region included in the region surrounded by the contour model A face area specifying means for specifying the face area, and a subject within the distance image and within a predetermined distance; The area containing The above Evaluation value Area to calculate As Search area setting means for setting, and the one set in the one frame Evaluation value Reflecting the position of the area where the Evaluation value Tracking means to set the position of the area Then, using the distance image having the depth information of the color image of the one frame, the contour model having a size corresponding to the depth information of the skin color region is generated. It is characterized by doing.
[0009]
According to a fourth aspect of the present invention, in the invention according to any one of the first to third aspects, the extracting means uses a hue component of the color image.
[0010]
The invention according to claim 5 is the invention according to any one of claims 1 to 4, wherein the distance image is composed of two images acquired from two imaging devices associated with each other. It is created using depth information obtained by stereoscopically viewing a stereo image to be viewed.
[0012]
Claim 6 In the first aspect of the present invention, a skin color region is extracted from a color image acquired by an imaging apparatus, and a subject within a predetermined distance that is a region in the distance image. The area containing , Evaluation value Area to calculate As A second step to set up and ,face A third step of generating a contour model that gives a contour of the region, the contour model and the skin color region According to the height of the evaluation value using as parameters the number of pixels that coincide with the contour pixel and the number of pixels in the skin color region included in the region surrounded by the contour model And a fourth process for identifying the face area. In the second step, the contour model having a size corresponding to the depth information of the skin color region is generated using a distance image having the depth information of the color image. It is characterized by doing.
[0013]
Claim 7 The invention described in 1 is a face area detection method for detecting a face area from one frame of a color image of a continuous scene and tracking the face area after the next frame, and extracting a skin color area from the color image A first process and a subject within a predetermined distance in an area in the distance image The area containing , Evaluation value Area to calculate As A second step to set up and ,in front A third step of generating a contour model for giving a contour of the face writing region, the contour model and the skin color region According to the height of the evaluation value using as parameters the number of pixels that coincide with the contour pixel and the number of pixels in the skin color region included in the region surrounded by the contour model A fourth process of identifying the face area, and the one set in the one frame Evaluation value Reflecting the position of the area where the Evaluation value And a fifth process for setting the position of the region where In the third process, the distance model having the depth information of the color image is used to generate the contour model having a size corresponding to the depth information of the skin color region. It is characterized by doing.
[0015]
Claim 8 The invention described in 1 is a first procedure for extracting a skin color region from a color image acquired by an imaging device, and a subject within a predetermined distance that is a region in the distance image. The area containing , Evaluation value Area to calculate As The second step to set and ,face A third procedure for generating a contour model that gives a contour of the region; and the contour model and the skin color region Depending on the height of the evaluation value using as parameters the number of pixels that coincide with the contour pixel of the image and the number of pixels in the skin color region included in the region surrounded by the contour model Causing the computer to execute a fourth procedure for identifying the face area. In the third procedure, the computer is caused to execute a procedure of generating the contour model having a size corresponding to the depth information of the skin color region using a distance image having depth information of the color image. The program is recorded.
[0016]
Claim 9 The invention described in 1 is a face area detection method for detecting a face area from one frame of a color image of a continuous scene and tracking the face area in subsequent frames, and extracting a skin color area from the color image A first procedure and a subject within a predetermined distance that is an area in the distance image; The area containing , Evaluation value Area to calculate As The second step to set and ,in front A third procedure for generating a contour model for giving a contour of the face writing region, the contour model and the skin color region Depending on the height of the evaluation value using as parameters the number of pixels that coincide with the contour pixel of the image and the number of pixels in the skin color region included in the region surrounded by the contour model A fourth procedure for identifying the face area; and the one set for the one frame. Evaluation value Reflecting the position of the area where the Evaluation value And causing the computer to execute a fifth procedure for setting the position of the area in which to calculate The third procedure causes the computer to execute a procedure for generating the contour model having a size corresponding to the depth information of the skin color region using a distance image having depth information of the color image. The program is recorded.
[0018]
Claim 10 The invention described in 1 is a first procedure for extracting a skin color region from a color image acquired by an imaging device, and a subject within a predetermined distance that is a region in the distance image. The area containing , Evaluation value Area to calculate As The second step to set and ,face A third procedure for generating a contour model that gives a contour of the region; and the contour model and the skin color region According to the height of the evaluation value using as parameters the number of pixels that coincide with the contour pixel and the number of pixels in the skin color region included in the region surrounded by the contour model Causing the computer to execute a fourth procedure for identifying the face area. The third procedure causes the computer to execute a procedure for generating the contour model having a size corresponding to the depth information of the skin color region using a distance image having depth information of the color image. It is characterized by that.
[0019]
Claim 11 The invention described in 1 is a face area detection method for detecting a face area from one frame of a color image of a continuous scene and tracking the face area in subsequent frames, and extracting a skin color area from the color image A first procedure and a subject within a predetermined distance that is an area in the distance image; The area containing , Evaluation value Area to calculate As The second step to set and ,in front A third procedure for generating a contour model for giving a contour of the face writing region, the contour model and the skin color region According to the height of the evaluation value using as parameters the number of pixels that coincide with the contour pixel and the number of pixels in the skin color region included in the region surrounded by the contour model A fourth procedure for identifying the face area; and the one set for the one frame. Evaluation value Reflecting the position of the area where the Evaluation value And causing the computer to execute a fifth procedure for setting the position of the area in which to calculate The third procedure causes the computer to execute a procedure for generating the contour model having a size corresponding to the depth information of the skin color region using a distance image having depth information of the color image. It is characterized by that.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a face area detecting apparatus according to an embodiment of the present invention.
In FIG. 1, reference numeral 11 denotes a stereo image input means, which is a means for acquiring a color stereo image with two imaging devices such as two CCD cameras associated with each other and inputting the color stereo image to the face area detection device. A distance image generation unit 12 obtains depth information as image information of a subject by stereoscopically viewing two stereo images of the same scene input by the stereo image input unit 11. And it is a means for producing | generating the distance image which matched those depth information with one color image of a stereo image.
[0022]
13 is a skin color area extracting means, which converts a color image acquired by RGB coordinates into HLS coordinates and extracts only the area corresponding to the skin color by using a hue component or the like, thereby extracting the skin color area and other areas. Is a means for creating a skin color region image consisting of
Reference numeral 14 denotes edge extraction means for extracting an outline portion of the skin color area extracted by the skin color area extraction means 13 as an edge and creating an edge image.
[0023]
15 is an outline model determining unit, which is a region in the distance image generated by the distance image generating unit 12, and has a size determined by using depth information of the region corresponding to the target skin color region It is a means for generating a contour model of a region. In the present embodiment, a contour model expressed by an octagonal frame is used.
Reference numeral 16 denotes search area setting means, which extracts only a subject area having distance information designated in advance using the distance image generated by the distance image generation means 12, and determines a rectangular area including the area as a face area. It is a means used as a search area for detecting.
[0024]
Reference numeral 17 denotes matching means, which is included in the number of matching pixels between the contour model determined by the contour model determination means 15 and the contour pixels of the skin color area extracted by the edge extraction means 14, and within the area surrounded by the contour model. It is a means for calculating a correlation value using the number of skin color pixels in the skin color area extracted by the skin color area extraction means 13 as a parameter. This calculation is limited to the search area determined by the search area setting means 16.
Reference numeral 18 denotes a face area determination means, which is a case where the correlation value set based on the number of two types of pixels calculated by the matching means 17 is larger than a preset threshold value, and within the search area. This is means for determining the skin color area in the case of the maximum as the face area.
[0025]
Next, operations of the embodiment will be described with reference to the drawings.
FIG. 2 is a flowchart for explaining the face area detection procedure in the embodiment described above.
First, a color stereo image is acquired by the stereo image input means 11 which is an imaging device such as two CCD cameras associated with each other (step S11). FIG. 3 is a diagram showing an outline of one color image among stereo images of a scene including a human face. In FIG. 3, 3 is a color image of a scene in which three persons 31, 32, and 33 are photographed indoors.
[0026]
Then, a distance image having depth information is generated by stereoscopically viewing the stereo image by the distance image generating means 12 (step S12). When creating a distance image, two monochrome images may be used. FIG. 4 is a diagram showing an outline of a distance image having depth information corresponding to the color image 3 of FIG. In the distance image 4, the distance is expressed so that the portion near the camera is bright and the distance from the camera becomes darker. That is, the persons 31, 32, and 33 that are close to the camera and located at substantially the same distance are expressed with substantially the same brightness value. In this embodiment, a portion near the camera is displayed in white, and a portion far from the camera is displayed with diagonal lines.
[0027]
Next, a skin color area image including the face area is created by extracting the skin color area from one color image 3 of the stereo image by the skin color area extracting means 13 (step S13).
Here, the procedure for creating the skin color region image in step S13 will be described in detail with reference to FIG. FIG. 5 is a flowchart for explaining the procedure for creating the skin color area image in step S13 in FIG.
First, the input color image is subjected to color coordinate conversion from RGB coordinates to HLS color coordinates (step S131). As a result, the value of each pixel represented by the red, green, and blue components can be extracted as the hue component.
Then, a pixel having a size in a range regarded as a skin color pixel is set in advance from the hue component and the like, extracted as a skin color pixel, and a set of the skin color pixels is set as a skin color region (step S132).
[0028]
Next, a binarization process is performed to divide the skin color area into other areas (step S133).
Further, region expansion processing and contraction processing are performed on the portion corresponding to the skin color region in the binarized image (step S134).
Then, a noise removal process is performed in which an area that does not have a certain number of pixels or more out of each area included in the image is not a face area but is regarded as noise (step S135). As a result, a binary skin color region image can be created. FIG. 6 is a diagram showing an outline of the skin color area image created in the above-described procedure. In FIG. 6, reference numerals 61 to 65 denote skin color regions.
[0029]
And the edge image which extracted only the outline of each skin color area | region of a skin color area image as an edge is produced (step S136). FIG. 7 is a diagram showing an outline of the edge image. In FIG. 7, reference numerals 71 to 75 denote edges corresponding to the contour portions of the skin color regions 61 to 65 in FIG.
[0030]
Furthermore, a rectangular area including an area in the distance image having distance information within a preset range is obtained by the search area setting means 16, and the area is set as a search area for performing matching using the contour model ( Step S14). In the present embodiment, only a region having depth information within a distance of 5 meters from the camera is obtained from the distance image 4, and a rectangular region including the region is set as one search region.
FIG. 8 is a diagram for explaining a search area created from the distance image 4. In FIG. 8, the portion indicated by the dotted line 8 is the boundary of the search area, and the inside is the search area. At this time, if areas within 5 meters exist apart in the same image, two or more search areas may be created. The distance from the camera can be appropriately set according to conditions such as the environment to which the present apparatus is applied.
[0031]
If two or more search areas are set, one search area is designated (step S15). If only one search area is set, the following processing is performed for the search area.
The search area 8 specified in step S15 is applied to the skin color area image 6 created in step S13, and one skin color area for performing face area detection processing is specified from each skin color area existing in the search area. (Step S16).
For example, consider the case where the skin color region 61 of FIG. 6 is designated in the present embodiment. Therefore, based on the depth information of the area in the distance image corresponding to the designated skin color area 61, it is determined whether or not the skin color area is in an effective range such as within 5 meters from the camera (step S17).
If the determination result is YES, the process proceeds to step S18. If the determination result is NO, the face area to be detected is determined and the process returns to step S16, and the process of step S17 is performed for another skin color area. In this embodiment, it is determined as YES and the process proceeds to step S18.
[0032]
In step S18, based on the depth information in the distance image corresponding to the target skin color area 61, the contour model determining means 15 generates an octagonal contour model having a size corresponding to the depth information. FIG. 9 is a diagram for explaining the search area 8 and the contour model applied on the skin color area image 6 generated in FIG.
In FIG. 9, 91 is a contour model determined by the contour model determining means 15 based on the skin color region 61. Then, matching with the skin color region is performed while scanning the contour model 91 created in step S18 in the search region 8 pixel by pixel.
[0033]
FIG. 10 is a diagram for explaining the search area 8 and the contour model 91 applied on the edge image 7 generated in FIG. Then, the contour model 91 is scanned pixel by pixel in the search region 8 and matching with the edge that is the contour of each skin color region is performed (step S19).
In this matching, the number of coincident pixels between the created contour model and the edge that is the contour pixel of the skin color region and the number of skin color pixels surrounded by the contour model are calculated. Then, the correlation value using the number of coincident pixels and the number of skin color pixels as parameters is used as an evaluation value for determining whether or not the face region (step S20).
[0034]
In the present embodiment, the evaluation value is obtained as follows. First, as shown in FIG. 9, the number of skin color pixels surrounded by the contour model 91 applied on the skin color region image 6 is calculated, and this is set as M1. Next, the total number of pixels in the region surrounded by the contour model 91 is calculated, and this is set as M2. A value obtained by dividing M1 by M2 is M3.
Further, as shown in FIG. 10, an edge pixel coinciding with the contour model 91 applied on the edge image 7 is calculated, and this is set as N1. Next, the number of pixels constituting the contour model is calculated, and this is set as N2. A value obtained by dividing N1 by N2 is N3.
Then, each value of M3 and N3 is multiplied by a weighting factor designated in advance, and a value obtained by adding both is defined as an evaluation value Z.
[0035]
When this calculation is performed in the search area 8 and the evaluation value Z is the maximum in the search area 8 and equal to or greater than the threshold value, it is determined that the target skin color area is a face area. In other cases, it is determined that the face area is not included (step S21).
Note that threshold values may also be set for M3 and N3, which are the basis for obtaining the evaluation value Z, and the evaluation value Z may be obtained when both are equal to or greater than the threshold value. Thus, in the present embodiment, the skin color area 61 is determined to be a face area based on the contour model 91.
[0036]
When the above process ends, the process proceeds to step S22. In step S22, when another skin color area exists in the same search area (YES), the process returns to step S16 and the processing for face area detection is executed in the procedure described above for the skin color area (step S22). If no other skin color area exists (NO), all face areas in the search area are detected, and the process proceeds to step S23.
[0037]
In step S23, in the present embodiment, since there are skin color regions 62 to 65 in addition to the skin color region 61 in the search region 8, it is determined YES, and in the same manner as described above, the skin color regions 62 to 65 are detected in the face region. It is determined whether it exists. As a result, the three skin color areas 61, 62, and 63 are determined as face areas, and the skin color areas 64 and 65 are not determined as face areas because the evaluation value Z is small.
In this way, as shown in FIG. 11, all face regions can be detected in one image.
[0038]
Next, in step S23, it is determined whether another search area exists in the same image.
If another search area exists (YES), the process returns to step S15 and the same process is performed. If no other search area exists (NO), the process ends because all face areas in the image have been detected. In the present embodiment, the process ends because there is no other search area.
[0039]
Next, a processing procedure for detecting a face area from one frame of a color image of a continuous scene and tracking the face area in the subsequent frames will be described. FIG. 12 is a flowchart for explaining a procedure for tracking a face area in a continuous frame.
In the process related to the tracking of the face area, first, the face area in one frame is detected based on the above-described procedure (step S31). Then, a search area is set in the next successive frame (step S32). At this time, the position of the search area to be set is set to the same position as the previous position or the vicinity thereof based on the position set in the previous frame.
[0040]
When the search area is set in the image of the next frame, using the contour model determined in the previous frame, the number of skin color pixels is calculated in the same manner as the processing procedure shown in step S19 of FIG. Is calculated (step S33).
Next, it is determined whether or not the evaluation value is the maximum in the search area and is equal to or greater than a certain threshold value (step S34).
And if a judgment result is YES, it will consider that the position is a face area and will progress to step S35. On the other hand, if the determination result is NO, the face region corresponding to the contour model is determined not to exist in the search region, and the process ends.
[0041]
In step S35, it is further determined whether or not tracking is performed in the next frame. If the determination result is YES, the process returns to step S32 to execute the tracking process in the next frame. On the other hand, if the determination result is NO, the face region is not tracked and the process ends.
[0042]
In the above-described embodiment, a method for directly inputting a color stereo image captured using an imaging device such as a CCD camera has been described. However, the same procedure is performed by inputting an image file that has been captured and stored in advance. It is also possible to detect the face area.
Further, instead of calculating the number of skin color pixels in the contour model, color histogram calculation may be used.
[0043]
Furthermore, in the above-described embodiment, an octagonal frame model is used as the contour model, but a model having an ellipse or other polygonal shape may be used.
Furthermore, by changing the aspect ratio of the contour model, finer matching processing can be performed on face shapes having individual differences.
Furthermore, by using a contour model having a shape close to the actual face contour, it is possible to specify the exact face position.
[0044]
In the present embodiment, since not only a two-dimensional color image but also a distance image is used, matching with the skin color region image 6 and the edge image 7 is not performed using the contour model, but the distance image is used. It is also possible to perform matching using a three-dimensional face model.
[0045]
Further, by simultaneously performing the initial search and tracking of the face area, it is possible to detect a newly appearing face area while tracking the face area. Alternatively, it is possible to easily cope with environmental changes by changing the threshold value.
Furthermore, by recording a history such as the size of the search area 8 and the contour model used in the past, the face area that has gone out of the screen in the middle of the continuous image or the face area that was mistakenly detected is recorded. It is also possible to delete unnecessary items efficiently.
[0046]
1 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into the computer system and executed, thereby executing the processing of the facial area. Detection may be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
[0047]
The “computer-readable recording medium” refers to a portable medium such as a floppy disk, a magneto-optical disk, a ROM, or a CD-ROM, and a storage device such as a hard disk built in the computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.
[0048]
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.
[0049]
【The invention's effect】
As described above, according to the first aspect of the present invention, the extraction means for extracting the skin color region from the color image acquired by the imaging device; ,face Outline model generation means for generating an outline model that gives an outline of an area, and the outline model and skin color area Depending on the height of the evaluation value using as parameters the number of pixels that match the contour pixels of the image and the number of pixels in the skin color region included in the region surrounded by the contour model A face area specifying means for specifying the face area. The contour model generation means generates a contour model having a size corresponding to the depth information of the skin color region by using the distance image having the depth information of the color image. Therefore, it is not necessary to store a huge number of templates in advance as in the template matching method, and the face area can be detected at high speed.
[0050]
According to the second aspect of the present invention, a subject within a distance image and within a predetermined distance The area containing , Evaluation value Area to calculate As Since the search area setting means for setting is further included, the processing speed for detecting the face area can be further improved.
[0051]
According to the third aspect of the present invention, there is provided a face area detecting device that detects a face area from one frame of a color image of a continuous scene and tracks the face area in the next and subsequent frames. Extraction means for extracting ,face Outline model generation means for generating an outline model that gives an outline of an area, and the outline model and skin color area Depending on the height of the evaluation value using as parameters the number of pixels that match the contour pixels of the image and the number of pixels in the skin color region included in the region surrounded by the contour model Face area specifying means for specifying a face area, and an object in a distance image that is within a predetermined distance The area containing , Evaluation value Area to calculate As Search area setting means to be set and set to one frame Evaluation value Reflecting the position of the area where Evaluation value Tracking means to set the position of the area Then, using a distance image having depth information of the color image of one frame, a contour model having a size corresponding to the depth information of the skin color region is generated. Therefore, it is possible to efficiently track a plurality of face regions from successive frames, and it is suitable for use in an eye part of an autonomous mobile robot. Further, it is not necessary to use a distance image having depth information for tracking the face area in the subsequent frames.
[0052]
According to a fourth aspect of the present invention, the extracting means uses a hue component of a color image. By using the hue component, it is possible to detect the skin color more robustly than the skin color is identified by the normal RGB values.
[0053]
According to the fifth aspect of the present invention, the distance image includes depth information obtained by stereoscopically viewing a stereo image composed of two images acquired from two imaging devices associated with each other. Since it is created by using, a color image and distance information can be acquired at the same time, and it is not necessary to use a special device other than a camera for creating a distance image.
[0054]
This application According to the invention, the face area specifying means includes the contour model and the skin color area. Depending on the height of the evaluation value using as parameters the number of pixels that match the contour pixels of the image and the number of pixels in the skin color region included in the region surrounded by the contour model Since the face area is specified, the matching between the contour model and the skin color area can be evaluated by two parameters, and the human face area can be detected with high reliability.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a face area detecting apparatus according to an embodiment of the present invention.
FIG. 2 is a flowchart for explaining a face area detection procedure in the embodiment described above.
FIG. 3 is a diagram showing an outline of one color image 3 among stereo images of a scene including a human face.
FIG. 4 is a diagram showing an outline of a distance image 4 having depth information corresponding to a color image 3;
FIG. 5 is a flowchart for explaining a procedure for creating a skin color area image 6 in step S13 of FIG. 2;
6 is a diagram showing an outline of a skin color region image 6 created in the embodiment described above. FIG.
7 is a diagram showing an outline of an edge image created from a skin color area image 6. FIG.
FIG. 8 is a diagram for explaining a search area 8 created by using depth information of a distance image 4;
FIG. 9 is a diagram for explaining a search area 8 and a contour model applied on a skin color area image 6;
FIG. 10 is a diagram for explaining a search area 8 and a contour model applied on an edge image.
FIG. 11 is a diagram for explaining a result of detecting all face regions in one image.
FIG. 12 is a flowchart for explaining a procedure for tracking a face area in successive frames.
[Explanation of symbols]
3 Color image
4 range image
6 Skin color area image
7 Edge image
8 Search area
11 Stereo image input means
12 Distance image generation means
13 Skin color area extraction means
14 Edge extraction means
15 Contour model determining means
16 Search area setting means
17 Matching means
18 Face area determination means
91, 92, 93 Contour model

Claims (11)

撮像装置で取得されたカラー画像から肌色領域を抽出する抽出手段と、
領域の輪郭を与える輪郭モデルを生成する輪郭モデル生成手段と、
前記輪郭モデルと前記肌色領域の輪郭画素とが一致した画素の数と、前記輪郭モデルに囲まれた領域内に含まれる前記肌色領域内の画素の数とをパラメータとした評価値の高さに応じて前記顔領域を特定する顔領域特定手段と
を有し、
前記輪郭モデル生成手段は、前記カラー画像の奥行き情報を有する距離画像を用い、前記肌色領域の奥行き情報に対応した大きさの前記輪郭モデルを生成することを特徴とする顔領域検出装置。
Extraction means for extracting a skin color region from a color image acquired by the imaging device;
Contour model generating means for generating a contour model that gives a contour of a face area;
The height of the evaluation value using the number of pixels in which the contour model and the contour pixels in the skin color region match and the number of pixels in the skin color region included in the region surrounded by the contour model as parameters. Correspondingly possess a face region specifying means for specifying the facial area,
The face area detection device, wherein the outline model generation means generates the outline model having a size corresponding to the depth information of the skin color area using a distance image having depth information of the color image .
前記距離画像内の領域であってあらかじめ指定された距離内の被写体を含む領域を、前記評価値を算出すべき領域として設定する探索領域設定手段をさらに有することを特徴とする請求項1に記載の顔領域検出装置。2. The search area setting means for setting an area in the distance image that includes a subject within a predetermined distance as an area for calculating the evaluation value. Face area detection device. 連続するシーンのカラー画像の一のフレームから顔領域を検出し、次フレーム以降において該顔領域を追跡する顔領域検出装置であって、
前記カラー画像から肌色領域を抽出する抽出手段と、
記顔領域の輪郭を与える輪郭モデルを生成する輪郭モデル生成手段と、
前記輪郭モデルと前記肌色領域の輪郭画素とが一致した画素の数と、前記輪郭モデルに囲まれた領域内に含まれる前記肌色領域内の画素の数とをパラメータとした評価値の高さに応じて前記顔領域を特定する顔領域特定手段と、
前記距離画像内の領域であってあらかじめ指定された距離内の被写体を含む領域を、前記評価値を算出すべき領域として設定する探索領域設定手段と、
前記一のフレームに設定された前記評価値を算出すべき領域の位置を反映させて、次フレームでの前記評価値を算出すべき領域の位置を設定する追跡手段と
を有し、
前記一のフレームのカラー画像の奥行き情報を有する距離画像を用い、前記肌色領域の奥行き情報に対応した大きさの前記輪郭モデルを生成することを特徴とする顔領域検出装置。
A face area detection device that detects a face area from one frame of a color image of a continuous scene and tracks the face area in subsequent frames,
Extracting means for extracting a skin color region from the color image;
A contour model generating means for generating a contour model giving the contour of the front Kikao region,
The height of the evaluation value using the number of pixels in which the contour model and the contour pixels in the skin color region match and the number of pixels in the skin color region included in the region surrounded by the contour model as parameters. A face area specifying means for specifying the face area in response ,
Search area setting means for setting an area in the distance image that includes a subject within a predetermined distance as an area for calculating the evaluation value ;
To reflect the position of the region to be calculated the set in one frame the evaluation value, possess a tracking means for setting the position of the evaluation value to be calculated area in the next frame,
An apparatus for detecting a face area , comprising generating a contour model having a size corresponding to the depth information of the skin color area using a distance image having depth information of the color image of the one frame .
前記抽出手段は、前記カラー画像の色相成分を利用することを特徴とする請求項1ないし3のいずれかの項に記載の顔領域検出装置。  The face area detection apparatus according to claim 1, wherein the extraction unit uses a hue component of the color image. 前記距離画像は、互いに対応付けられた2台の撮像装置から取得された2枚の画像で構成されるステレオ画像を立体視することによって得られる奥行き情報を利用して作成されることを特徴とする請求項1ないし4のいずれかの項に記載の顔領域検出装置。  The distance image is created using depth information obtained by stereoscopically viewing a stereo image composed of two images acquired from two imaging devices associated with each other. The face area detection device according to any one of claims 1 to 4. 撮像装置で取得されたカラー画像から肌色領域を抽出する第1の過程と、
前記距離画像内の領域であってあらかじめ指定された距離内の被写体を含む領域を評価値を算出すべき領域として設定する第2の過程と、
領域の輪郭を与える輪郭モデルを生成する第3の過程と、
前記輪郭モデルと前記肌色領域の輪郭画素とが一致した画素の数と、前記輪郭モデルに囲まれた領域内に含まれる前記肌色領域内の画素の数とをパラメータとした評価値の高さに応じて前記顔領域を特定する第4の過程と
を有し、
前記第3の過程では、前記カラー画像の奥行き情報を有する距離画像を用い、前記肌色領域の奥行き情報に対応した大きさの前記輪郭モデルを生成することを特徴とする顔領域検出方法。
A first step of extracting a skin color region from a color image acquired by the imaging device;
The region including the subject in the distance the distance a region in an image is specified in advance, a second step of setting a region for calculating an evaluation value,
A third step of generating a contour model that gives a contour of the face area;
The height of the evaluation value using the number of pixels in which the contour model and the contour pixels in the skin color region match and the number of pixels in the skin color region included in the region surrounded by the contour model as parameters. Correspondingly it possesses a fourth step of identifying the face region,
In the third step, the distance model having depth information of the color image is used to generate the contour model having a size corresponding to the depth information of the skin color region .
連続するシーンのカラー画像の一のフレームから顔領域を検出し、次フレーム以降において該顔領域を追跡する顔領域検出方法であって、
前記カラー画像から肌色領域を抽出する第1の過程と、
前記距離画像内の領域であってあらかじめ指定された距離内の被写体を含む領域を評価値を算出すべき領域として設定する第2の過程と、
記顔領域の輪郭を与える輪郭モデルを生成する第3の過程と、
前記輪郭モデルと前記肌色領域の輪郭画素とが一致した画素の数と、前記輪郭モデルに囲まれた領域内に含まれる前記肌色領域内の画素の数とをパラメータとした評価値の高さに応じて前記顔領域を特定する第4の過程と、
前記一のフレームに設定された前記評価値を算出すべき領域の位置を反映させて、次フレームでの前記評価値を算出すべき領域の位置を設定する第5の過程と
を有し、
前記第3の過程では、前記カラー画像の奥行き情報を有する距離画像を用い、前記肌色領域の奥行き情報に対応した大きさの前記輪郭モデルを生成することを特徴とする顔領域検出方法。
A face area detection method for detecting a face area from one frame of a color image of a continuous scene and tracking the face area in the subsequent frames,
A first step of extracting a skin color region from the color image;
The region including the subject in the distance the distance a region in an image is specified in advance, a second step of setting a region for calculating an evaluation value,
A third process of generating a contour model giving the contour of the front Kikao region,
The height of the evaluation value using the number of pixels in which the contour model and the contour pixels in the skin color region match and the number of pixels in the skin color region included in the region surrounded by the contour model as parameters. And a fourth step of identifying the face region in response ,
To reflect the position of the region to be calculated the evaluation value the set in one frame, possess a fifth step of setting the position of should be calculated area the evaluation value in the next frame,
In the third step, the distance model having depth information of the color image is used to generate the contour model having a size corresponding to the depth information of the skin color region .
撮像装置で取得されたカラー画像から肌色領域を抽出する第1の手順と、
前記距離画像内の領域であってあらかじめ指定された距離内の被写体を含む領域を評価値を算出すべき領域として設定する第2の手順と、
領域の輪郭を与える輪郭モデルを生成する第3の手順と、
前記輪郭モデルと前記肌色領域の輪郭画素とが一致した画素の数と、前記輪郭モデルに囲まれた領域内に含まれる前記肌色領域内の画素の数とをパラメータとした評価値の高さに応じて前記顔領域を特定する第4の手順と
をコンピュータに実行させ
前記第3の手順では、前記カラー画像の奥行き情報を有する距離画像を用い、前記肌色領域の奥行き情報に対応した大きさの前記輪郭モデルを生成する手順を前記コンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体。
A first procedure for extracting a skin color region from a color image acquired by an imaging device;
A second procedure for setting an area in the distance image that includes an object within a predetermined distance as an area for which an evaluation value is to be calculated;
A third procedure for generating a contour model that gives a contour of the face area;
The height of the evaluation value using the number of pixels in which the contour model and the contour pixels in the skin color region match and the number of pixels in the skin color region included in the region surrounded by the contour model as parameters. In response , the computer executes a fourth procedure for identifying the face area ,
Wherein in the third step, using a range image having depth information of the color image, and the procedure for generating the contour model of a size corresponding to the depth information of the skin color area storing a program Ru is executed by the computer Computer-readable recording medium.
連続するシーンのカラー画像の一のフレームから顔領域を検出し、次フレーム以降において該顔領域を追跡する顔領域検出方法であって、
前記カラー画像から肌色領域を抽出する第1の手順と、
前記距離画像内の領域であってあらかじめ指定された距離内の被写体を含む領域を評価値を算出すべき領域として設定する第2の手順と、
記顔領域の輪郭を与える輪郭モデルを生成する第3の手順と、
前記輪郭モデルと前記肌色領域の輪郭画素とが一致した画素の数と、前記輪郭モデルに囲まれた領域内に含まれる前記肌色領域内の画素の数とをパラメータとした評価値の高さに応じて前記顔領域を特定する第4の手順と、
前記一のフレームに設定された前記評価値を算出すべき領域の位置を反映させて、次フレームでの前記評価値を算出すべき領域の位置を設定する第5の手順と
をコンピュータに実行させ
前記第3の手順では、前記カラー画像の奥行き情報を有する距離画像を用い、前記肌色領域の奥行き情報に対応した大きさの前記輪郭モデルを生成する手順を前記コンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体。
A face area detection method for detecting a face area from one frame of a color image of a continuous scene and tracking the face area in the subsequent frames,
A first procedure for extracting a skin color region from the color image;
A second procedure for setting an area in the distance image that includes an object within a predetermined distance as an area for which an evaluation value is to be calculated;
A third step of generating a contour model giving the contour of the front Kikao region,
The height of the evaluation value using the number of pixels in which the contour model and the contour pixels in the skin color region match and the number of pixels in the skin color region included in the region surrounded by the contour model as parameters. And a fourth procedure for identifying the face area in response ,
To reflect the position of the region to be calculated the evaluation value the set in one frame, to execute a fifth step of setting the position of the region to be calculated the evaluation value in the next frame to the computer ,
Wherein in the third step, using a range image having depth information of the color image, and the procedure for generating the contour model of a size corresponding to the depth information of the skin color area storing a program Ru is executed by the computer Computer-readable recording medium.
撮像装置で取得されたカラー画像から肌色領域を抽出する第1の手順と、
前記距離画像内の領域であってあらかじめ指定された距離内の被写体を含む領域を評価値を算出すべき領域として設定する第2の手順と、
領域の輪郭を与える輪郭モデルを生成する第3の手順と、
前記輪郭モデルと前記肌色領域の輪郭画素とが一致した画素の数と、前記輪郭モデルに囲まれた領域内に含まれる前記肌色領域内の画素の数とをパラメータとした評価値の高さに応じて前記顔領域を特定する第4の手順と
をコンピュータに実行させ
前記第3の手順では、前記カラー画像の奥行き情報を有する距離画像を用い、前記肌色領域の奥行き情報に対応した大きさの前記輪郭モデルを生成する手順を前記コンピュータに実行させるためのプログラム。
A first procedure for extracting a skin color region from a color image acquired by an imaging device;
A second procedure for setting an area in the distance image that includes an object within a predetermined distance as an area for which an evaluation value is to be calculated;
A third procedure for generating a contour model that gives a contour of the face area;
The height of the evaluation value using the number of pixels in which the contour model and the contour pixels in the skin color region match and the number of pixels in the skin color region included in the region surrounded by the contour model as parameters. In response , the computer executes a fourth procedure for identifying the face area ,
Wherein in the third step, the use of a range image having depth information of a color image, because of the program procedures of generating a magnitude the contour model corresponding to the depth information of the skin color area is performed on the computer.
連続するシーンのカラー画像の一のフレームから顔領域を検出し、次フレーム以降において該顔領域を追跡する顔領域検出方法であって、
前記カラー画像から肌色領域を抽出する第1の手順と、
前記距離画像内の領域であってあらかじめ指定された距離内の被写体を含む領域を評価値を算出すべき領域として設定する第2の手順と、
記顔領域の輪郭を与える輪郭モデルを生成する第3の手順と、
前記輪郭モデルと前記肌色領域の輪郭画素とが一致した画素の数と、前記輪郭モデルに囲まれた領域内に含まれる前記肌色領域内の画素の数とをパラメータとした評価値の高さに応じて前記顔領域を特定する第4の手順と、
前記一のフレームに設定された前記評価値を算出すべき領域の位置を反映させて、次フレームでの前記評価値を算出すべき領域の位置を設定する第5の手順と
をコンピュータに実行させ
前記第3の手順では、前記カラー画像の奥行き情報を有する距離画像を用い、前記肌色領域の奥行き情報に対応した大きさの前記輪郭モデルを生成する手順を前記コンピュータに実行させるためのプログラム。
A face area detection method for detecting a face area from one frame of a color image of a continuous scene and tracking the face area in the subsequent frames,
A first procedure for extracting a skin color region from the color image;
A second procedure for setting an area in the distance image that includes an object within a predetermined distance as an area for which an evaluation value is to be calculated;
A third step of generating a contour model giving the contour of the front Kikao region,
The height of the evaluation value using the number of pixels in which the contour model and the contour pixels in the skin color region match and the number of pixels in the skin color region included in the region surrounded by the contour model as parameters. And a fourth procedure for identifying the face area in response ,
To reflect the position of the region to be calculated the evaluation value the set in one frame, to execute a fifth step of setting the position of the region to be calculated the evaluation value in the next frame to the computer ,
Wherein in the third step, the use of a range image having depth information of a color image, because of the program procedures of generating a magnitude the contour model corresponding to the depth information of the skin color area is performed on the computer.
JP2001013818A 2001-01-22 2001-01-22 Facial region detection apparatus and method, and computer-readable recording medium Expired - Fee Related JP4597391B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001013818A JP4597391B2 (en) 2001-01-22 2001-01-22 Facial region detection apparatus and method, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001013818A JP4597391B2 (en) 2001-01-22 2001-01-22 Facial region detection apparatus and method, and computer-readable recording medium

Publications (2)

Publication Number Publication Date
JP2002216129A JP2002216129A (en) 2002-08-02
JP4597391B2 true JP4597391B2 (en) 2010-12-15

Family

ID=18880606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001013818A Expired - Fee Related JP4597391B2 (en) 2001-01-22 2001-01-22 Facial region detection apparatus and method, and computer-readable recording medium

Country Status (1)

Country Link
JP (1) JP4597391B2 (en)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1586423B1 (en) 2002-12-10 2011-10-05 Honda Motor Co., Ltd. Robot control device, robot control method, and robot control program
JP4546956B2 (en) 2003-06-12 2010-09-22 本田技研工業株式会社 Target orientation estimation using depth detection
JP4272539B2 (en) * 2004-01-05 2009-06-03 本田技研工業株式会社 Moving object detection device, moving object detection method, and moving object detection program
JP4272538B2 (en) * 2004-01-05 2009-06-03 本田技研工業株式会社 Moving object detection apparatus, moving object detection method, and moving object detection program
JP4611675B2 (en) 2004-06-30 2011-01-12 本田技研工業株式会社 Customer service robot
JP4459735B2 (en) 2004-06-30 2010-04-28 本田技研工業株式会社 Product explanation robot
JP4745724B2 (en) * 2005-06-08 2011-08-10 キヤノン株式会社 Image processing method and image processing apparatus
JP4478093B2 (en) 2005-10-17 2010-06-09 富士フイルム株式会社 Object image retrieval apparatus, digital camera, and control method thereof
JP5041458B2 (en) * 2006-02-09 2012-10-03 本田技研工業株式会社 Device for detecting three-dimensional objects
JP4780198B2 (en) * 2006-11-10 2011-09-28 コニカミノルタホールディングス株式会社 Authentication system and authentication method
JP5047658B2 (en) * 2007-03-20 2012-10-10 株式会社日立製作所 Camera device
KR100882139B1 (en) 2007-09-12 2009-02-06 전자부품연구원 Face detection method
JP2009141475A (en) 2007-12-04 2009-06-25 Nikon Corp camera
KR100930722B1 (en) 2007-12-28 2009-12-09 주식회사 케이티 3D image generating method and apparatus using hierarchical image model, image recognition method, feature point extraction method, and recording medium recording program for performing the method
JP5073700B2 (en) * 2009-03-24 2012-11-14 富士重工業株式会社 Object detection device
KR101269175B1 (en) 2011-03-31 2013-05-31 경북대학교 산학협력단 Method for detecting an area and area detecting apparatus applying the same
JP5679456B2 (en) * 2011-12-05 2015-03-04 サクサ株式会社 Human detection device, human detection method, and human detection program
CN103208005A (en) * 2012-01-13 2013-07-17 富士通株式会社 Object recognition method and object recognition device
KR101545408B1 (en) 2013-12-11 2015-08-19 한국 한의학 연구원 Method for detecting profile line and device for detecting profile line
CN104376551A (en) * 2014-08-25 2015-02-25 浙江工业大学 Color image segmentation method integrating region growth and edge detection
KR101741758B1 (en) * 2016-01-21 2017-05-30 광운대학교 산학협력단 A Real-time Face Tracking Method Robust to Occlusion Based on Improved CamShift with Depth Information
CN107481186B (en) * 2017-08-24 2020-12-01 Oppo广东移动通信有限公司 Image processing method, apparatus, computer-readable storage medium, and computer device
CN109844754A (en) * 2017-09-12 2019-06-04 深圳市汇顶科技股份有限公司 Face detects starting method, face's detecting starter and electronic device
WO2019071489A1 (en) * 2017-10-11 2019-04-18 深圳传音通讯有限公司 Intelligent terminal-based method and system for measuring temperature by photographing
CN111223111B (en) * 2020-01-03 2023-04-25 歌尔光学科技有限公司 Depth image contour generation method, device, equipment and storage medium
CN115909031A (en) * 2022-11-22 2023-04-04 厦门靠谱云股份有限公司 Method for Searching and Locating Template Graphs in Natural Scenes
JP2025004418A (en) * 2023-06-26 2025-01-15 井関農機株式会社 Robotic Work Vehicle

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3557659B2 (en) * 1994-08-22 2004-08-25 コニカミノルタホールディングス株式会社 Face extraction method
JP3757502B2 (en) * 1996-11-28 2006-03-22 松下電器産業株式会社 Moving object travel control device
JP2000076454A (en) * 1998-08-31 2000-03-14 Minolta Co Ltd Three-dimensional shape data processor
JP2000099691A (en) * 1998-09-18 2000-04-07 Toshiba Corp People photography equipment
GB2343945B (en) * 1998-11-18 2001-02-28 Sintec Company Ltd Method and apparatus for photographing/recognizing a face

Also Published As

Publication number Publication date
JP2002216129A (en) 2002-08-02

Similar Documents

Publication Publication Date Title
JP4597391B2 (en) Facial region detection apparatus and method, and computer-readable recording medium
JP3753722B2 (en) Extraction method of tooth region from tooth image and identification method and apparatus using tooth image
US8331619B2 (en) Image processing apparatus and image processing method
CN110675487B (en) Three-dimensional face modeling and recognition method and device based on multi-angle two-dimensional face
JP6125188B2 (en) Video processing method and apparatus
JP5837508B2 (en) Posture state estimation apparatus and posture state estimation method
US6404900B1 (en) Method for robust human face tracking in presence of multiple persons
JP5715833B2 (en) Posture state estimation apparatus and posture state estimation method
KR101538935B1 (en) Method for classifying elements of face using depth difference
JP6587435B2 (en) Image processing apparatus, information processing method, and program
WO2019128508A1 (en) Method and apparatus for processing image, storage medium, and electronic device
KR101362631B1 (en) Head recognition method
KR101781358B1 (en) Personal Identification System And Method By Face Recognition In Digital Image
KR20200063292A (en) Emotional recognition system and method based on face images
JP2004086891A (en) Object detection method in digital image
CN107330371A (en) Acquisition methods, device and the storage device of the countenance of 3D facial models
JP2011141622A (en) Detection apparatus and method
CN107368778A (en) Method for catching, device and the storage device of human face expression
WO2012036669A1 (en) Smile detection systems and methods
JPWO2001015086A1 (en) Image processing device, image processing method, and recording medium
KR102198360B1 (en) Eye tracking system and method based on face images
US11315360B2 (en) Live facial recognition system and method
JP4348028B2 (en) Image processing method, image processing apparatus, imaging apparatus, and computer program
JP5217917B2 (en) Object detection and tracking device, object detection and tracking method, and object detection and tracking program
JP7459151B2 (en) Information processing device, information processing system, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100914

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100922

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131001

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees