[go: up one dir, main page]

JP2006350578A - 画像分析装置 - Google Patents

画像分析装置 Download PDF

Info

Publication number
JP2006350578A
JP2006350578A JP2005174412A JP2005174412A JP2006350578A JP 2006350578 A JP2006350578 A JP 2006350578A JP 2005174412 A JP2005174412 A JP 2005174412A JP 2005174412 A JP2005174412 A JP 2005174412A JP 2006350578 A JP2006350578 A JP 2006350578A
Authority
JP
Japan
Prior art keywords
image data
information
moving image
target portion
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005174412A
Other languages
English (en)
Other versions
JP4687265B2 (ja
Inventor
Hitoshi Ikeda
仁 池田
Motofumi Fukui
基文 福井
隆比古 ▲桑▼原
Takahiko Kuwabara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2005174412A priority Critical patent/JP4687265B2/ja
Priority to US11/330,151 priority patent/US7650014B2/en
Publication of JP2006350578A publication Critical patent/JP2006350578A/ja
Application granted granted Critical
Publication of JP4687265B2 publication Critical patent/JP4687265B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】 複数の動画像データからそれぞれ得られる認識対象体の対象部分の位置情報の利用可能性を向上できる画像分析装置を提供する。
【解決手段】 認識対象体を互いに異なる位置から撮像して得た、複数の動画像データを受け入れ、複数の動画像データのそれぞれに含まれる一連のフレーム画像データから、認識対象体の検出対象部分を検出し、各動画像データから検出された対象部分の検出位置の情報を比較し、当該比較の結果に基づいて、各動画像データから検出された対象部分の検出位置の情報のうち少なくとも一部を補正する画像分析装置である。
【選択図】 図1

Description

本発明は、人物等、対象物の動作や姿勢に関する情報を出力する画像分析装置に関する。
撮像した画像データから、被写体である人物の姿勢を識別する装置としては、従来から手や肩の相対的位置関係を利用するものなどが開発されている(例えば特許文献1)。こうした装置は、例えばリハビリテーションの現場において、撮像された人物のリハビリテーションの効果を確認する際などに利用される。
特開平8−320920号公報
一方、こうした対象物の動作や姿勢に関する情報を分析する分野においては、実際には対象物を複数の位置から撮像して、複数の動画像データを得ておき、各動画像データを分析するのが普通になっている。しかしながら、従来の技術においては、各動画像データにそれぞれ含まれる対象物の位置情報は、例えば対象物と撮像に用いるカメラとの距離など、カメラの配置位置に応じて、同じ軸方向の値であっても、互いに異なって認識されてしまうのにも関わらず、補正を行っていないので、このように複数の動画像データがある場合には、それぞれの動画像データに応じて異なる座標系の情報が得られることになってしまい、相互関係の分析や、三次元的情報の生成などの各種処理等にそのまま用いることができず、利用範囲が狭い。
本発明は上記実情に鑑みて為されたもので、複数の動画像データからそれぞれ得られる認識対象体の対象部分の位置情報の利用可能性を向上できる画像分析装置を提供することを、その目的の一つとする。
上記従来例の問題点を解決するための本発明は、画像分析装置であって、認識対象体を互いに異なる位置から撮像して得た、複数の動画像データを受け入れる手段と、複数の動画像データのそれぞれに含まれる一連のフレーム画像データから、認識対象体の検出対象部分を検出する手段と、前記各動画像データから検出された対象部分の検出位置の情報を比較し、当該比較の結果に基づいて、各動画像データから検出された対象部分の検出位置の情報のうち少なくとも一部を補正する補正手段と、を含むことを特徴としている。
これにより、各動画像データにおける対象部分の検出位置の情報を補正でき、対象物の三次元的な位置情報を取得できる。
ここで前記補正手段は、前記各動画像データから検出された対象部分の検出位置の情報に含まれる座標値のうち、指定された軸方向の座標値を比較し、当該比較の結果に基づいて、各動画像データから検出された対象部分の検出位置の情報のうち少なくとも一部を補正することとしてもよい。
また、前記補正手段は、前記各動画像データから検出された対象部分の検出位置の情報に含まれる、指定された軸方向の座標値から所定の統計情報を演算し、当該統計情報の比較に基づいて、各動画像データから検出された対象部分の検出位置の情報のうち少なくとも一部を補正することとしてもよい。
さらに本発明の一態様に係る画像分析方法は、コンピュータを用い、認識対象体を互いに異なる位置から撮像して得た、複数の動画像データを受け入れ、複数の動画像データのそれぞれに含まれる一連のフレーム画像データから、認識対象体の検出対象部分を検出し、前記各動画像データから検出された対象部分の検出位置の情報を比較し、当該比較の結果に基づいて、各動画像データから検出された対象部分の検出位置の情報のうち少なくとも一部を補正する、ことを特徴としている。
さらに本発明の別の態様に係るプログラムは、コンピュータに、認識対象体を互いに異なる位置から撮像して得た、複数の動画像データを受け入れる手順と、複数の動画像データのそれぞれに含まれる一連のフレーム画像データから、認識対象体の検出対象部分を検出する手順と、前記各動画像データから検出された対象部分の検出位置の情報を比較し、当該比較の結果に基づいて、各動画像データから検出された対象部分の検出位置の情報のうち少なくとも一部を補正する手順と、を実行させることを特徴としている。
[基本動作の例]
本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る画像分析装置は、外部から入力される動画像データから人体の所定一部分の位置を認識するものである。ここでは当該所定一部分として「顔」と「手」との位置を認識するものとする。なお、「手」の代わりに「足先」を認識対象とした場合も同様である。本実施の画像分析装置は、具体的に、図1に示すように、制御部11と、記憶部12と、入出力インタフェース13と、表示部14と、を含んで構成される。ここで動画像データは、入出力インタフェース13に接続された、図示しない撮像部(CCDカメラ等)やビデオ再生装置などから取得される。この動画像データは、人物を撮像して得られた一連の静止画像であるフレーム画像データを含んでなる。各フレーム画像データには、撮像された順を表すフレーム番号を関連付けておく。
制御部11は、記憶部12に格納されているプログラムに従って動作しており、外部から取得した動画像データに含まれる一連の静止画像フレームの各々に対して、顔の部分の画像を特定する処理(顔特定処理)と、手の部分の画像を特定する処理(手特定処理)と、これらの処理で特定された顔及び手の相対的位置の情報に基づいて被写体となっている人物の動作を識別する動作識別処理とを基本的に実行している。これらの処理の具体的内容については、後に述べる。
記憶部12は、制御部11によって実行されるプログラムを格納する、コンピュータ可読な記録媒体である。またこの記憶部12は、制御部11の処理の過程で必要となる種々のデータを記憶するワークメモリとしても動作する。
入出力インタフェース13は、図1に示すように、例えばカメラ装置などの外部装置に接続され、当該外部装置から画像データを取得して制御部11に出力する。またこの入出力インタフェース13は、制御部11から入力される指示に従って、種々のデータを外部装置に出力する。表示部14は、例えばディスプレイ等であり、制御部11から入力される指示に従って情報の表示を行う。
制御部11によって実行されるプログラムは、機能的には図2に示すように、画像変換部21と、顔特定処理部22と、肌色抽出部23と、手探索開始領域決定部24と、手特定処理部25と、特徴量処理部26と、情報提示部27とを含んで構成される。
画像変換部21は、入出力インタフェース13を介して取得され、処理対象となるフレーム画像データを、グレイスケールの画像データ(グレイスケールデータ)に変換して、顔特定処理部22に出力する。またこの画像変換部21は、上記処理対象となるフレーム画像データを、色相画像の画像データ(色相データ)に変換して、肌色抽出部23と、手探索開始領域決定部24と、手特定処理部25とに出力する。
顔特定処理部22は、画像変換部21から入力されるグレイスケールデータから、顔の部分を特定する処理を行う。この顔特定処理部22は後に説明するように、予め学習獲得されたデータに基づいて画像データ中の顔部分を認識することとすればよい。また、この顔特定処理部22は、顔の位置だけでなく、顔の向き(3次元的向き)や大きさを特定可能なものであってもよい。
この顔特定処理部22は、例えば動画像データに含まれるフレーム画像データについてグレイスケールのデータに変換したうえで、人物の顔を学習処理して得た第1学習データベースを用い、当該グレイスケールのデータ中から人物の顔に相当する部分を抽出するものであればよい。この際、顔部分を所定の方法で特定した後、予め正立かつ正面向きの顔の画像(正規画像)と、正規画像から、顔を右向き及び左向きにそれぞれ所定角度だけ回転させた複数の顔画像を用意して、これらを学習処理した第2学習データベースを用いて、顔部分の画像を正規画像に近接するよう変換し(正規化)、第1学習データベース内の情報を用いて、当該正規化後の画像のデータが顔の画像か否かを判断するようにしてもよい。これによると、正規化の処理の過程で回転角が判別できることになるので、正規化の処理により迅速に顔であるか否かが判別できるようになるとともに、当該過程で得られた回転角を出力することで、上述のように顔の向きを利用した処理に供することができるようになる。この顔特定処理部22は、特定した顔の位置や大きさ、向きなどを表す情報を、顔位置情報として記憶部12に格納する。
肌色抽出部23は、画像変換部21から入力される色相データのうち、顔特定処理部22が特定した顔の部分に対応する領域の部分画像を取り出し、当該部分画像の平均色相データを演算して出力する。具体的には、顔特定処理部22が出力する領域情報によって画定される領域に含まれる色相データ中の画素値のヒストグラムを肌色情報として出力する。この肌色情報は、顔特定処理部22によって特定された顔の色(すなわち顔の肌の色)のヒストグラムであり、いわば当該人物に固有の肌色の情報である。本実施の形態の装置は、この対象に固有の肌色を抽出し、それを利用して手の部分を特定する。なお、ここで色相によって比較しているのは、例えば日焼け等で、顔と手との肌色の明度が変化した場合に配慮したものである。
手探索開始領域決定部24と手特定処理部25とは、各フレーム画像データから、手が撮像されている部分を検出する。ここではまず、手探索開始領域決定部24が各フレーム画像データ中で手が撮像されている候補となる部分(探索開始領域)を仮に特定し、以下、手特定処理部25がカムシフトアルゴリズム(Gary R.Bradski, Computer Vision Face Tracking For Use in a Perceptual User Interface: Intel Technology Journal Q2,1998)を用いて、特定された探索開始領域を起点に探索処理を開始し、手が撮像されている領域を特定する。なお、ここではカムシフト法を用いる例について説明するが、これに限られるものではない。
手探索開始領域決定部24は、画像変換部21から入力される色相データ上の各画素について、肌色情報のヒストグラムに基づいて、肌色である確率(尤度)を表す尤度値を生成し、これら尤度値を色相データの各画素と同様に配列して、尤度マップを生成する。尤度値は例えば演算の対象となった画素の色相に対応するヒストグラムの値を、ヒストグラムの値の総和で除したものとしてもよいし、そのほかバックプロジェクション方式や相関方式と呼ばれる公知の方法を用いてもよい。なお、ここでは尤度のマップを用いているが、これに限らずヒストグラムの頻度値を用いて得点(スコア)値を生成し、当該スコア値のマップを用いてもよい。
この場合において、顔の部分に対応する領域については、尤度を「0」としておく。これにより、顔の部分を手の部分として誤検出することを確実に防止できる。
手探索開始領域決定部24はさらに、尤度マップを、予め定めたサイズの矩形領域で走査し、矩形領域内の尤度値の合計値の大きい順に少なくとも一つの走査位置を定める。そして当該走査位置における矩形領域を探索開始領域として定める。ここで撮像されている対象(ここでは手)の数が予めわかっている場合には、当該数に対応する数の探索開始領域を定めてもよい。
手特定処理部25は、画像変換部21から入力される色相データ上で、手探索開始領域決定部24が決定した各探索開始領域を、探索領域の初期位置として次の処理を行う。
すなわち、手特定処理部25は、各探索開始領域に基づいて初期位置をそれぞれ定めた、各探索領域ついて、探索領域内の各画素の画素値(色相の値)と肌色抽出部23が出力する肌色情報によって示される値とを用いて、色相データのうち探索領域に含まれる尤度値のモーメントを求める。
そして手特定処理部25は、求めたモーメントに基づいて探索領域を移動する。ここでモーメントは、例えば、
Figure 2006350578
で示されるものである。ここで、h(i,j)は、尤度マップの座標(i,j)における尤度値を表す。
手特定処理部25は、上記の式のうち、0次モーメントm00によって重心を定め、当該重心を中心とする位置に探索領域を移動する。また、1次、2次モーメントによって探索領域のサイズや回転量を決定して、探索領域を更新する。
以下、手特定処理部25は、探索領域を更新してもその移動量が所定のしきい値未満となるか、あるいは更新回数が所定回数に達するまで(収束条件を満足するまで)この更新の処理を繰り返す。そして、収束条件を満足したときの探索領域を手が撮像されている領域であるとして、当該領域を画定する情報(例えば領域の外形を囲む多角形の頂点座標のセットなど)を手位置情報として記憶部12に格納する。
このように、各フレーム画像データにおいて、まず顔の認識処理を行い、認識した顔の色の情報に基づいて、手の存在する可能性の高い領域を初期位置として、カムシフト法などの方法で当該領域を移動、サイズ変更、回転させて手が含まれている領域を画定する。
特徴量処理部26は、各フレーム画像データにおいて検出された人体の所定一部(顔や手)を含む画像領域の動画像データ上での移動状態に基づいて、撮像された人物の動作に係る情報を生成する。例えば、この特徴量処理部26は、記憶部12に格納された一連の手位置情報に基づいて、少なくとも一つの特徴量情報を生成し、当該特徴量情報が所定の条件を満足するタイミングに対応するフレーム画像データのフレーム番号(フレーム画像データを特定する情報)を出力する。ここで特徴量情報とは、例えば手位置情報そのものであってもよい。そしてこの特徴量情報としての手位置情報が所定期間(フレーム画像データの所定数)を超えて変動しない場合に、当該変動していない期間に対応するフレーム画像データのフレーム番号を出力する。
つまり特徴量処理部26は、各フレーム画像データについて、次のフレーム画像データにおける手位置情報との差分を演算する。具体的にはi番目のフレーム画像データに対応する手位置情報と、i+1番目のフレーム画像データに対応する手位置情報との差の大きさを演算する。そして、この差が所定の移動量しきい値未満となっているフレーム画像データのフレーム番号を選択して、選択したフレーム番号からなる数列を生成する。さらに特徴量処理部26は、当該生成した数列から、フレーム番号が連続している部分を検出し、当該検出した部分のフレーム番号列の長さを求める。これら、数列から番号の連続している部分を検出する処理や、その検出した部分的な数列の長さを求める処理は、広く知られているので、ここでの詳細な説明を省略する。
特徴量処理部26は、フレーム番号が連続している部分のうち、その長さが予め定められている所定期間しきい値を超えている部分があるか否かを調べ、そのような部分があれば、当該部分を特定する特徴時点情報として、例えば当該部分の先頭のフレーム番号と末尾のフレーム番号とを記憶部12に格納する。この特徴時点情報は、従って、フレーム番号を列挙したデータとなる(図3)。
情報提示部27は、利用者の指示操作に応じて、記憶部12に格納されている、顔位置情報や手位置情報を表示部14に表示出力する。また、この情報提示部27は、記憶部12に格納されている特徴時点情報を用いて、これら顔位置情報や手位置情報の表示態様を制御する。例えば、この情報提示部27は、図4に示すように、手位置情報に含まれる、フレーム画像データ上の手の座標値(ここではそのうち一つの軸についての値としている)の時間的変動をグラフとして示す(A)。また、このグラフ内で特徴時点情報によって示されるフレーム番号に対応する時間範囲を、グラフの背景色を変更するなどして強調表示する(B)。
さらに情報提示部27は、撮像された動画像データを表示する(C)とともに、グラフ(A)上で指定されたフレーム番号に対応する位置から当該動画像データを再生する。これにより、利用者は、強調表示されている部分に対応する動画像の再生を指示できるようになり、撮像されている人物の動作上、特徴的な動作を行っている部分の動画像を選択的に再生して閲覧できるようになる。さらに、情報提示部27は、手位置情報や顔位置情報の各座標をポイントとしてプロットした画像を作成してもよい(D)。なお、手と顔とは互いに区別可能なレジェンドを用いる。
このように本実施の形態によると、動画像データの全体を参照せずとも、特徴的な動作を行っている部分の動画像を選択的に再生して閲覧でき、動作確認の担当者の負担を軽減し、作業効率を向上できる。
[複数の動画像データ]
さらに、ここまでの説明では、処理の対象としている動画像データは一つであるとしているが、同時期に撮像され、同期されている複数の動画像データを用いることとしてもよい。ここで動画像データの同期は、同時点で撮像された各動画像データのフレーム画像データに、同じフレーム番号を対応づけることで実現できる。このような、互いに同期した複数の動画像データを作成する方法は、広く知られているので、ここでの詳細な説明を省略する。
この例の一つでは、2つのカメラを用いて、2つの動画像データを生成する。すなわち、歩行訓練のリハビリテーションの場合に、第1のカメラで顔部分を撮像して、顔部分を含む第1動画像データを生成する。また、第2のカメラでは下肢の部分を撮像して、脚の部分を含む第2動画像データを生成する。
そして、例えば制御部11は、第1動画像データの各フレーム画像データから顔の領域を特定して、さらに表情を検出して、各フレーム画像データにおける人物の表情を表す表情情報を生成しておく。また、顔の検出領域から頭部の上下左右方向への揺れの軌跡(顔の検出領域の中心の軌跡など)を検出して、当該揺れの軌跡と、表情情報とを各フレーム画像データのフレーム番号に関連づけて記憶部12に格納しておく。また制御部11は、第2動画像データの各フレーム画像データから足先の高さ、膝の高さ、足先と膝との相対位置、足先と膝との動作速度、停留時間(略同じ場所に足先や膝がある時間)を検出する。ここで、手位置情報の検出と同様に、第1動画像データ中の各フレーム画像データから特定された顔の領域から得られる肌色情報を用いて第2動画像データから足先を検出することができる。また、着衣等により肌が露出していない場合や露出部が多すぎる場合等、顔領域からの肌色情報では位置の検出が困難な場合には、撮像される人物の足先や膝に、肌色や服地、背景の色などとは異なる色のマーカーを付して、当該色のマーカーを第2動画像データから検出することで、足先や膝の位置を特定する。
なお、表情の検出方法としては、例えばM.J.Black and Y. Yacoob,"Recognizing Facial Expressinos in Image Sequences Using Local Parameterized Models of Image Motion", Int'l J. Computer Vision, vol.25, No.1, pp. 23-48, 1997に示されているような方法があるので、ここでの詳細な説明を省略する。
そして制御部11は、特徴量処理部26の処理を実行して、例えば足先や膝の停留時間に対応するフレーム番号を特徴時点情報として記憶部12に格納する。また、顔の表情が「顔をしかめている」となっている期間のフレーム番号を取得して、特徴時点情報として記憶部12に格納する。
そして情報提示部27の処理として、これらの特徴時点情報のフレーム番号で特定されるフレーム画像データの前後、所定フレーム数の動画像部分を強調表示して利用者に提示する。これによると、動画像データの全体を参照せずとも、「足先や膝の位置が停留している」期間や、「顔をしかめている」期間部分、つまり、特徴的な動作を行っている部分の動画像を選択的に再生して閲覧でき、動作確認の担当者の負担を軽減し、作業効率を向上できる。
この場合も、複数の特徴時点情報が得られるので、こうした複数の特徴時点情報に共通して列挙されるフレーム番号について、当該フレーム番号が、いくつの特徴時点情報に含まれるかによって、強調の態様を変更してもよい。
[顔のサイズを利用したサイズ補正]
さらに、このように顔と脚など、同方向から撮像される複数の動画像データを処理対象とする場合、一方の動画像データから検出した顔のサイズ(顔が含まれるとして検出された領域のサイズ)を用いて、足先の高さなど、検出の対象となった人体の所定一部の位置情報を補正してもよい。つまり、所定のフレーム画像データでの顔のサイズSsを基準サイズとして、他のフレーム画像データでの顔のサイズSをこの基準サイズで除した値を生成する。この値は、人体の一部の位置情報の変動比を表す値となるので、当該他のフレーム画像データにおいて検出の対象となった人体の所定一部の位置情報に、上記S/Ssの値を乗じる。
具体例として、フレーム番号が「1」のフレーム画像データ(先頭のフレーム画像データ)での顔のサイズを基準サイズSsとして、後続のフレーム画像データにおいて、顔のサイズがSであり、足先の高さがhoであるときに、当該足先の高さの情報を、
h=ho×(S/Ss)
として補正する。これにより、足先の高さがカメラと人物との距離によって変動しても、当該変動を補正できる。
[同範囲を含む複数の動画像データの扱い]
さらに、ここで述べたように、複数のカメラを用いて人物の撮像を行う場合、複数のカメラの少なくとも一部が、人物の共通する部分を撮像してもよい。例えば、第1のカメラによって人物を正面から撮像し、第2のカメラによって人物を側面から撮像してもよい。この場合、顔や手等の部分によっては、双方のカメラによって共通して撮像され得る。
このように、処理対象となる複数の動画像データに共通した部分が含まれる場合、例えば手の部分を正面と側面とから撮像することで、手の三次元的な動きを取得することが可能となる。
制御部11は、手の移動軌跡を三次元の情報として生成する処理を行ってもよい。一例として、図5に示すように、撮像の対象となる人物が机の前に座り、机上にある輪投げの棒(P)に、輪(R)を机の上から取り上げて通すリハビリテーションを行っている例を想定する。また、ここで第1のカメラC1は、机を上方から撮像しており、第2のカメラC2は、人物を正面から撮像しているものとする。従って第1、第2のカメラC1,C2は、ともに、この人物の手を撮像することとなるが、人物の顔は、第2のカメラC2によってのみ撮像される。
制御部11は、これら、第1、第2のカメラC1、C2によってそれぞれ撮像された第1動画像データと第2動画像データとを取得する。そして各動画像データに対して画像変換部21の処理を実行し、さらに顔特定処理部22の処理として、第2動画像データのグレイスケールデータから、顔の部分を特定する処理を行い、顔位置情報を取得する。
また肌色抽出部23の処理として制御部11は、画像変換部21から入力される第2動画像データの色相データのうち、顔特定処理部22が特定した顔の部分に対応する領域の部分画像を取り出し、当該部分画像の平均色相データを演算して出力する。
制御部11の手探索開始領域決定部24と手特定処理部25とは、そして第1、第2の動画像データの各フレーム画像データから、手が撮像されている部分を検出する。この際、手探索開始領域決定部24は、第1、第2の動画像データに対応する第1、第2の尤度マップを生成する。この際、手探索開始領域決定部24は、第1動画像データを処理の対象として、第2動画像データから取得した顔部分の肌色情報に基づいて第1尤度マップを生成する。また、第2動画像データを処理の対象として、第2動画像データから取得した顔部分の肌色情報に基づいて第2尤度マップを生成する。このように、一部の動画像データから取得された肌色の情報を用いて、すべての動画像データに係る尤度マップを生成することで、手の検出精度を高めることができる。
また、制御部11は、各動画像データの各フレーム画像データに基づいて検出した手位置情報について、次の処理を行う。すなわち、これらの手位置情報は、それぞれ2次元の座標値の情報であり、第1動画像データからは図5に示したX,Z軸、第2動画像データからは図5に示したX,Y軸の各2軸の座標値の情報が得られることとなる。なお、図5では紙面奥から手前にX軸が伸びていることを示している。従って、各動画像データに基づいて制御部11は、図6に示すように、顔位置特定情報によって示される顔の位置座標Fx,Fy(顔があると認識された領域の中心座標など、この場合X,Y座標として指定される)、顔のサイズFs(顔があると認識された領域のサイズ)、顔の傾きFa、第1動画像データから得られた手位置情報のX軸座標H1xとZ軸座標H1z、及び第2動画像データから得られた手位置情報のX軸座標H2xとY軸座標H2yが、フレーム番号に関連して得られる。制御部11は、この図6に示したテーブルのデータを記憶部12に格納しておく。
そして制御部11は、この格納されたテーブルのデータから手位置情報の三次元情報を生成する。すなわち制御部11は、利用者から、予め、手位置情報H1x、H1z、H2x、及びH2yのうち、同じ軸方向を表す手位置情報の指定を受けておく。ここでは手位置情報H1xと、H2xとがいずれもX軸方向の情報であって、同じ軸方向を表すものであるので、これらが共通であるとの指定を受け入れているものとする。
制御部11は、この共通であると指定された2つの手位置情報を処理の対象として、次の処理を行う。まずこれら2つの手位置情報のうちいずれか一方を基準情報とし、他方を調整対象情報としておく。ここでは第1動画像データから得られた手位置情報を基準情報とする。そして図7に示すように、2つの手位置情報について最大値と最小値とを検出する(S1)。すなわち、これらの手位置情報は、いずれも手の動きに伴って変化する。ここでの例のように輪投げのような運動を行っている場合、輪の置いてある位置のX座標値と、輪投げの棒がある位置のX座標値との間を手が往復して移動するため、三角関数的な周期的曲線となる。
例えば制御部11は、処理S1にて各手位置情報の最大値(H1xmax,H2xmax)及び最小値(H1xmin,H2xmin)を検出し、各手位置情報での最大値と最小値との差を算出する。すなわち、
ΔH1=H1xmax−H1xmin、
ΔH2=H2xmax−H2xmin、
を算出する(S2)。
そして、調整対象情報の基準情報からの比を求める(S3)。ここでは、第1動画像データから得られた手位置情報を基準情報とする場合を例としているので、求める比は、
R=ΔH2/ΔH1
となる。
そして、記憶部12に格納されているデータのうち、第2動画像データから得られた手位置情報の各X軸座標H2xとY軸座標H2yとに、この比Rを乗じて、第2動画像データの値を補正する(S4)。この補正により、各カメラと人物の手までの距離の相違などにより生じている座標値のスケールの相違を補正できる。
さらに各手位置情報のうち、基準情報の最大値から調整対象情報の最大値を差し引いた差を求める(S5)。
ΔH=H1xmax−H2xmax
そして、記憶部12に格納されているデータのうち、第2動画像データから得られた手位置情報の各X軸座標H2xに、この差ΔHを加算する(S6)。これにより、各カメラの配置位置等の相違により生じている座標値の位置の相違(シフト)を補正できる。なお、ここでシフトの補正の元となる差の値は、最大値から求めるのではなく基準情報の最小値から調整対象情報の最小値を差し引いて求めてもよい。
また、ここでは、手位置情報の最大、最小値の統計情報を用いているが、これに代えて、他の統計情報(例えば最大ピークの平均値と、最小ピークの平均値など)を用いても構わない。また、シフトの補正には、例えば手位置情報の平均値間の差を用いてもよい。
このように本実施の形態によると、対象体である人物の手の位置を、複数の動画像データに基づいて取得するとともに、その位置の情報のうち、指定された軸方向の値の比率、オフセットを一致させる補正を行うので、位置情報を、相互関係の分析や、三次元的情報の生成などの各種処理等にそのまま用いることができ、その利用可能性を向上できる。
例えば、上記の例であれば、H1x、補正後のH2y、H1zからなる三次元情報を生成することができる。
本発明の実施の形態に係る画像分析装置の構成ブロック図である。 本発明の実施の形態に係る画像分析装置の機能ブロック図である。 本発明の実施の形態に係る画像分析装置が生成する特徴時点情報の例を表す説明図である。 本発明の実施の形態に係る画像分析装置が表示する画面例を表す説明図である。 本発明の実施の形態に係る画像分析装置に入力する動画像データの撮像時のカメラの配置例を表す説明図である。 本発明の実施の形態に係る画像分析装置が生成する顔位置情報と手位置情報との保持例を表す説明図である。 本発明の実施の形態に係る画像分析装置の動作例を表すフローチャート図である。
符号の説明
11 制御部、12 記憶部、13 入出力インタフェース、14 表示部、21 画像変換部、22 顔特定処理部、23 肌色抽出部、24 手探索領域決定部、25 手特定処理部、26 特徴量処理部、27 情報提示部。

Claims (5)

  1. 認識対象体を互いに異なる位置から撮像して得た、複数の動画像データを受け入れる手段と、
    複数の動画像データのそれぞれに含まれる一連のフレーム画像データから、認識対象体の検出対象部分を検出する手段と、
    前記各動画像データから検出された対象部分の検出位置の情報を比較し、当該比較の結果に基づいて、各動画像データから検出された対象部分の検出位置の情報のうち少なくとも一部を補正する補正手段と、
    を含むことを特徴とする画像分析装置。
  2. 請求項1に記載の画像分析装置において、
    前記補正手段は、前記各動画像データから検出された対象部分の検出位置の情報に含まれる座標値のうち、指定された軸方向の座標値を比較し、当該比較の結果に基づいて、各動画像データから検出された対象部分の検出位置の情報のうち少なくとも一部を補正することを特徴とする画像分析装置。
  3. 請求項2に記載の画像分析装置であって、
    前記補正手段は、前記各動画像データから検出された対象部分の検出位置の情報に含まれる、指定された軸方向の座標値から所定の統計情報を演算し、当該統計情報の比較に基づいて、各動画像データから検出された対象部分の検出位置の情報のうち少なくとも一部を補正することを特徴とする画像分析装置。
  4. コンピュータを用い、
    認識対象体を互いに異なる位置から撮像して得た、複数の動画像データを受け入れ、
    複数の動画像データのそれぞれに含まれる一連のフレーム画像データから、認識対象体の検出対象部分を検出し、
    前記各動画像データから検出された対象部分の検出位置の情報を比較し、当該比較の結果に基づいて、各動画像データから検出された対象部分の検出位置の情報のうち少なくとも一部を補正する、
    ことを特徴とする画像分析方法。
  5. コンピュータに、
    認識対象体を互いに異なる位置から撮像して得た、複数の動画像データを受け入れる手順と、
    複数の動画像データのそれぞれに含まれる一連のフレーム画像データから、認識対象体の検出対象部分を検出する手順と、
    前記各動画像データから検出された対象部分の検出位置の情報を比較し、当該比較の結果に基づいて、各動画像データから検出された対象部分の検出位置の情報のうち少なくとも一部を補正する手順と、
    を実行させることを特徴とするプログラム。
JP2005174412A 2005-06-14 2005-06-14 画像分析装置 Expired - Fee Related JP4687265B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005174412A JP4687265B2 (ja) 2005-06-14 2005-06-14 画像分析装置
US11/330,151 US7650014B2 (en) 2005-06-14 2006-01-12 Image analysis apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005174412A JP4687265B2 (ja) 2005-06-14 2005-06-14 画像分析装置

Publications (2)

Publication Number Publication Date
JP2006350578A true JP2006350578A (ja) 2006-12-28
JP4687265B2 JP4687265B2 (ja) 2011-05-25

Family

ID=37524131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005174412A Expired - Fee Related JP4687265B2 (ja) 2005-06-14 2005-06-14 画像分析装置

Country Status (2)

Country Link
US (1) US7650014B2 (ja)
JP (1) JP4687265B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008090908A1 (ja) * 2007-01-23 2008-07-31 Nec Corporation マーカ生成及びマーカ検出のシステム、方法とプログラム
JP2008219451A (ja) * 2007-03-05 2008-09-18 Fujifilm Corp 撮像装置およびその制御方法
US7719569B2 (en) 2008-05-28 2010-05-18 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method
US7995106B2 (en) 2007-03-05 2011-08-09 Fujifilm Corporation Imaging apparatus with human extraction and voice analysis and control method thereof
WO2014112645A1 (ja) * 2013-01-21 2014-07-24 株式会社東芝 動作情報表示装置及びプログラム
JP2014137629A (ja) * 2013-01-15 2014-07-28 Mega Chips Corp 画像検出装置及び制御プログラム並びに画像検出方法
WO2014115817A1 (ja) * 2013-01-23 2014-07-31 株式会社東芝 動作情報処理装置
JP2016103242A (ja) * 2014-11-28 2016-06-02 キヤノン株式会社 画像処理方法、画像処理装置、及びプログラム
JP2017101960A (ja) * 2015-11-30 2017-06-08 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
JP2023075611A (ja) * 2021-11-19 2023-05-31 富士フイルム株式会社 医療画像処理装置及びその作動方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9143657B2 (en) 2006-01-24 2015-09-22 Sharp Laboratories Of America, Inc. Color enhancement technique using skin color detection
US8125526B2 (en) * 2006-02-03 2012-02-28 Olympus Imaging Corp. Camera for selecting an image from a plurality of images based on a face portion and contour of a subject in the image
US7983451B2 (en) * 2006-06-30 2011-07-19 Motorola Mobility, Inc. Recognition method using hand biometrics with anti-counterfeiting
US8520979B2 (en) * 2008-08-19 2013-08-27 Digimarc Corporation Methods and systems for content processing
JP5424852B2 (ja) * 2009-12-17 2014-02-26 キヤノン株式会社 映像情報処理方法及びその装置
US8768006B2 (en) * 2010-10-19 2014-07-01 Hewlett-Packard Development Company, L.P. Hand gesture recognition
US8543833B2 (en) 2010-12-29 2013-09-24 Microsoft Corporation User identification with biokinematic input
KR20160145003A (ko) * 2014-04-22 2016-12-19 소니 주식회사 부호화 장치, 부호화 방법, 송신 장치, 송신 방법, 수신 장치, 수신 방법 및 프로그램
US10277836B2 (en) * 2016-03-07 2019-04-30 Ricoh Company, Ltd. Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03224580A (ja) * 1990-01-31 1991-10-03 Fuji Electric Co Ltd 動画像の処理方法
JPH06243236A (ja) * 1993-02-18 1994-09-02 Sharp Corp 視覚認識装置の座標系校正パラメータ設定装置
JPH0927969A (ja) * 1995-05-08 1997-01-28 Matsushita Electric Ind Co Ltd 複数画像の中間像生成方法及び視差推定方法および装置
JP2002158921A (ja) * 2000-11-20 2002-05-31 Fuji Photo Film Co Ltd 画像位置確認装置、画像位置確認支援方法及び記録媒体
JP2003514298A (ja) * 1999-11-11 2003-04-15 イク ファン,ビォン モーション・キャプチャ・データの捕捉方法
JP2004220292A (ja) * 2003-01-15 2004-08-05 Nippon Telegr & Teleph Corp <Ntt> 物体追跡方法、物体追跡装置、物体追跡方法のプログラム並びにそのプログラムを記録した記録媒体
JP2004274101A (ja) * 2003-03-05 2004-09-30 Shigeo Kaneda 移動体識別システム
JP2005140623A (ja) * 2003-11-06 2005-06-02 Nippon Telegr & Teleph Corp <Ntt> 画像計測方法、装置、プログラム及び記録媒体

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6204881B1 (en) * 1993-10-10 2001-03-20 Canon Kabushiki Kaisha Image data processing apparatus which can combine a plurality of images at different exposures into an image with a wider dynamic range
JPH08320920A (ja) 1995-05-24 1996-12-03 Matsushita Electric Ind Co Ltd 手動作認識装置および方法
JP3974964B2 (ja) * 1996-11-08 2007-09-12 オリンパス株式会社 画像処理装置
JP3361980B2 (ja) * 1997-12-12 2003-01-07 株式会社東芝 視線検出装置及びその方法
JP4282113B2 (ja) * 1998-07-24 2009-06-17 オリンパス株式会社 撮像装置および撮像方法、並びに、撮像プログラムを記録した記録媒体
US7301571B2 (en) * 2003-01-17 2007-11-27 Fujifilm Corporation Method and imaging apparatus for correcting defective pixel of solid-state image sensor, and method for creating pixel information

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03224580A (ja) * 1990-01-31 1991-10-03 Fuji Electric Co Ltd 動画像の処理方法
JPH06243236A (ja) * 1993-02-18 1994-09-02 Sharp Corp 視覚認識装置の座標系校正パラメータ設定装置
JPH0927969A (ja) * 1995-05-08 1997-01-28 Matsushita Electric Ind Co Ltd 複数画像の中間像生成方法及び視差推定方法および装置
JP2003514298A (ja) * 1999-11-11 2003-04-15 イク ファン,ビォン モーション・キャプチャ・データの捕捉方法
JP2002158921A (ja) * 2000-11-20 2002-05-31 Fuji Photo Film Co Ltd 画像位置確認装置、画像位置確認支援方法及び記録媒体
JP2004220292A (ja) * 2003-01-15 2004-08-05 Nippon Telegr & Teleph Corp <Ntt> 物体追跡方法、物体追跡装置、物体追跡方法のプログラム並びにそのプログラムを記録した記録媒体
JP2004274101A (ja) * 2003-03-05 2004-09-30 Shigeo Kaneda 移動体識別システム
JP2005140623A (ja) * 2003-11-06 2005-06-02 Nippon Telegr & Teleph Corp <Ntt> 画像計測方法、装置、プログラム及び記録媒体

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008090908A1 (ja) * 2007-01-23 2008-07-31 Nec Corporation マーカ生成及びマーカ検出のシステム、方法とプログラム
JPWO2008090908A1 (ja) * 2007-01-23 2010-05-20 日本電気株式会社 マーカ生成及びマーカ検出のシステム、方法とプログラム
JP4868186B2 (ja) * 2007-01-23 2012-02-01 日本電気株式会社 マーカ生成及びマーカ検出のシステム、方法とプログラム
US8655076B2 (en) 2007-01-23 2014-02-18 Nec Corporation Marker generating and marker detecting system, method and program
US9760804B2 (en) 2007-01-23 2017-09-12 Nec Corporation Marker generating and marker detecting system, method and program
JP2008219451A (ja) * 2007-03-05 2008-09-18 Fujifilm Corp 撮像装置およびその制御方法
US7995106B2 (en) 2007-03-05 2011-08-09 Fujifilm Corporation Imaging apparatus with human extraction and voice analysis and control method thereof
US7719569B2 (en) 2008-05-28 2010-05-18 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method
US8013890B2 (en) 2008-05-28 2011-09-06 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method for recognizing an object with color
JP2014137629A (ja) * 2013-01-15 2014-07-28 Mega Chips Corp 画像検出装置及び制御プログラム並びに画像検出方法
JP2014138661A (ja) * 2013-01-21 2014-07-31 Toshiba Corp 医用画像表示装置及びプログラム
WO2014112645A1 (ja) * 2013-01-21 2014-07-24 株式会社東芝 動作情報表示装置及びプログラム
US10170155B2 (en) 2013-01-21 2019-01-01 Toshiba Medical Systems Corporation Motion information display apparatus and method
WO2014115817A1 (ja) * 2013-01-23 2014-07-31 株式会社東芝 動作情報処理装置
JP2015109937A (ja) * 2013-01-23 2015-06-18 株式会社東芝 動作情報処理装置
US9727779B2 (en) 2013-01-23 2017-08-08 Toshiba Medical Systems Corporation Motion information processing apparatus
JP2016103242A (ja) * 2014-11-28 2016-06-02 キヤノン株式会社 画像処理方法、画像処理装置、及びプログラム
JP2017101960A (ja) * 2015-11-30 2017-06-08 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
JP2023075611A (ja) * 2021-11-19 2023-05-31 富士フイルム株式会社 医療画像処理装置及びその作動方法
US12469131B2 (en) 2021-11-19 2025-11-11 Fujifilm Corporation Medical image processing device and method of operating the same

Also Published As

Publication number Publication date
US20060280333A1 (en) 2006-12-14
US7650014B2 (en) 2010-01-19
JP4687265B2 (ja) 2011-05-25

Similar Documents

Publication Publication Date Title
JP4687265B2 (ja) 画像分析装置
US8385598B2 (en) Action analysis apparatus
JP4459788B2 (ja) 顔特徴照合装置、顔特徴照合方法、及びプログラム
JP4479194B2 (ja) 動作識別装置、及び対象物の姿勢識別装置
JP2020194608A (ja) 生体検知装置、生体検知方法、および、生体検知プログラム
JP4372051B2 (ja) 手形状認識装置及びその方法
JP4792824B2 (ja) 動作分析装置
JP6362085B2 (ja) 画像認識システム、画像認識方法およびプログラム
KR101510798B1 (ko) 휴대용 얼굴 표정 연습 장치와 그 방법.
KR20050081850A (ko) 얼굴 식별 장치, 얼굴 식별 방법 및 얼굴 식별 프로그램
JP4470434B2 (ja) 動作識別装置、及び対象物の姿勢識別装置
JP2019048026A (ja) 生体情報解析装置及び手肌解析方法
KR101661211B1 (ko) 얼굴 인식률 개선 장치 및 방법
JPH08287216A (ja) 顔面内部位認識方法
JP2008288684A (ja) 人物検出装置及びプログラム
JP3970573B2 (ja) 顔画像認識装置および方法
JP5503510B2 (ja) 姿勢推定装置および姿勢推定プログラム
KR101447958B1 (ko) 신체 부분 검출 방법 및 장치
JP2000268161A (ja) 実時間表情検出装置
JP2005031044A (ja) 三次元誤差測定装置
JP3797839B2 (ja) 個人識別装置及び個人識別方法
JP2019134204A (ja) 撮像装置
JP5983132B2 (ja) 位置決定装置、位置決定システム、位置決定方法及びプログラム
JP7134260B2 (ja) 情報処理装置
KR20030065620A (ko) 가상게임시스템의 동작인식장치 및 방법

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071112

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071115

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110131

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140225

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees