[go: up one dir, main page]

JP2007206833A - 生体照合方法および生体照合装置 - Google Patents

生体照合方法および生体照合装置 Download PDF

Info

Publication number
JP2007206833A
JP2007206833A JP2006022870A JP2006022870A JP2007206833A JP 2007206833 A JP2007206833 A JP 2007206833A JP 2006022870 A JP2006022870 A JP 2006022870A JP 2006022870 A JP2006022870 A JP 2006022870A JP 2007206833 A JP2007206833 A JP 2007206833A
Authority
JP
Japan
Prior art keywords
image sequence
biometric
person
partial
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006022870A
Other languages
English (en)
Inventor
Nobuyoshi Enomoto
暢芳 榎本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2006022870A priority Critical patent/JP2007206833A/ja
Priority to TW096103389A priority patent/TW200741561A/zh
Priority to EP07002086A priority patent/EP1814061B1/en
Priority to US11/700,093 priority patent/US7856122B2/en
Priority to DE602007000510T priority patent/DE602007000510D1/de
Publication of JP2007206833A publication Critical patent/JP2007206833A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】たとえば、歩行など移動する人物の顔照合を行なう場合に、本人排除の割合を低減し、より利便性の高い生体照合方法および生体照合装置を提供する。
【解決手段】人物の顔画像を用いて当該人物が本人であるか否かを判定する生体照合方法において、入力される顔画像を特定の基準に基づいて1つないし複数の群に分類して部分顔画像列を生成し、この生成された部分顔画像列をあらかじめ登録された辞書情報と照合し、この照合結果を算術的に統合することで総合判定する。
【選択図】 図2

Description

本発明は、たとえば、セキュリティを必要とする部屋や施設等の入退場対象エリアに対する入退場を管理する入退場管理装置において、歩行など移動する人物を照合対象とし、当該人物から取得した顔画像、虹彩画像、精脈画像、指紋画像などの生体画像を用いて当該人物が本人であるか否かを判定する生体照合方法および生体照合装置に関する。
たとえば、顔画像、虹彩画像、精脈画像などの生体画像による照合を用いた本人確認装置においては、当該装置の前に立ち止まって照合動作を行なうことが一般的である。これは入力時に顔画像、虹彩画像、精脈画像などの生体画像の向き、照明光の当たり方などの変動を取込むことを極力抑えるためである。
一方、上記のような拘束を伴わずにカメラでとらえられた画像列を照合装置の入力として、辞書情報と照合する方法が知られている(たとえば、特許文献1参照)。この方法は、入力および辞書情報を特徴量の列としてとらえ、それらの組から部分空間を生成し、入力画像、辞書情報それぞれの部分空間同士の類似性を評価することで、入力画像が辞書情報中に登録されたどのクラスに属するものかを判定するものである。また、この方法を応用して顔照合を行なうものが知られている(たとえば、非特許文献1参照)。
特開昭60−57475号公報 特開平11−265452号公報 福井和広、山口修、鈴木薫、前田賢一:制約相互部分空間法を用いた環境変動にロバストな顔画像認識、電子情報通信学会論文誌(D)、vol.J82−DII、No.4、pp613〜620(1999年)
しかしながら、上述した従来の生体照合を用いた本人確認装置においては様々な問題点がある。
たとえば、前者(特許文献1)の方法を用いる場合には、照合時に利用者に対し不自然な操作を強いる必要がある。これは、たとえば、生体画像として顔画像を用いた場合、顔画像を登録したときと全く同一のある特定の向きに顔を向けたまま、顔を固定させるなどである。
ところで、このように利用者に対し不自然さを強制したにもかかわらず、照合を実施する時点での照明条件が登録時と異なる場合には、登録者本人が照合できずに、いわゆる本人排除の状態となることがあり、使いづらい装置となってしまう場合が多い。
一方、後者(非特許文献1)の方法を用いた場合の本人確認装置では、入力画像および辞書情報を画像列としてとらえ、それらの組から部分空間を生成し、入力画像、辞書情報それぞれの部分空間同士の類似性を評価することで本人か否かを判定するものである。
したがって、あらかじめ登録時に複数の条件(カメラに対する顔向き、照明の強弱、照射方向等)の顔画像を動画像中の一部のフレームとして登録することができるため、照合時に起こりうる条件の変動を登録しておくことで、本人排除の発生を抑制することを可能としている。このため、顔照合装置の前に立ち止まって、顔を意識して顔照合装置に向けるような用途では充分実用的である。
ところで、利用者の利便性を向上させることを目的として、立ち止まらずに顔照合などの生体照合動作を実施した場合、入力画像列中に辞書情報の登録時と類似する本人の特徴量(顔画像など)が存在する場合もあると考えられるが、この場合は顔など生体の移動に伴って生体の向き、照明の強度や向きが、立ち止まる場合よりも大きく変化することにより、登録時に存在しない特徴が入力される割合が高まると考えられる。
したがって、後者の方法を用いた場合においても、入力画像の特徴列に含まれる登録時と異なる部分の影響で、登録者本人を排除してしまう割合が増えてしまう。
そこで、本発明は、たとえば、歩行など移動する人物の顔照合を行なう場合に、本人排除の割合を低減し、より利便性の高い生体照合方法および生体照合装置を提供することを目的とする。
本発明の生体照合方法は、人物の生体画像を用いて当該人物が本人であるか否かを判定する生体照合方法において、入力される生体画像を特定の基準に基づいて1つないし複数の群に分類して部分生体画像列を生成し、この生成された部分生体画像列をあらかじめ登録された辞書情報と照合し、この照合結果を算術的に統合することで総合判定することを特徴とする。
また、本発明の生体照合方法は、人物の生体画像を用いて当該人物が本人であるか否かを判定する生体照合方法において、入力される生体画像を複数の基準に基づいて1つないし複数の群に分類して部分生体画像列を生成し、この生成された複数の基準ごとの部分生体画像列の中から照合に用いる部分生体画像列を1つないし複数選択し、この選択された部分生体画像列をあらかじめ登録された辞書情報と照合し、この照合結果を算術的に統合することで総合判定することを特徴とする。
また、本発明の生体照合装置は、人物の生体画像を用いて当該人物が本人であるか否かを判定する生体照合装置において、人物の生体画像を入力する画像入力手段と、この画像入力手段により入力された生体画像を特定の基準に基づいて1つないし複数の群に分類して部分生体画像列を生成する部分生体画像列生成手段と、この部分生体画像列生成手段により生成された部分生体画像列をあらかじめ登録された辞書情報と照合し、この照合結果を算術的に統合することで総合判定する照合手段とを具備している。
さらに、本発明の生体照合装置は、人物の生体画像を用いて当該人物が本人であるか否かを判定する生体照合装置において、人物の生体画像を入力する画像入力手段と、この画像入力手段により入力された生体画像を複数の基準に基づいて1つないし複数の群に分類して部分生体画像列を生成する部分生体画像列生成手段と、この部分生体画像列生成手段により生成された複数の基準ごとの部分生体画像列の中から照合に用いる部分生体画像列を1つないし複数選択する選択手段と、この選択手段により選択された部分生体画像列をあらかじめ登録された辞書情報と照合し、この照合結果を算術的に統合することで総合判定する照合手段とを具備している。
本発明によれば、たとえば、歩行など移動する人物の顔照合を行なう場合に、本人排除の割合を低減し、より利便性の高い生体照合方法および生体照合装置を提供できる。
以下、本発明の実施の形態について図面を参照して説明する。
なお、以下の説明では、人物の生体画像として顔画像を用いた場合を例として述べるが、顔画像以外に虹彩画像、精脈画像、指紋画像などの他の生体画像を用いても同様に実施できる。
また、以下の説明では、利用者に対する利便性を損なわないように、生体照合装置の前に立ち止まらずに歩きながら当該装置の前を通過するうちに本人確認を実施し、本人であればそのまま通行を許可し、そうでなければ通行を阻止するメッセージを出力したり、その場で扉やゲートなどの制御により通行を制御するものであるが、このような使用状況においても登録者本人の排除の発生を抑制してスムーズな本人確認を実施する点について説明する。
まず、第1の実施の形態について説明する。
図1は、第1の実施の形態に係る生体照合方法が適用される生体照合装置の構成を概略的に示すものである。第1の実施の形態に係る生体照合装置は、たとえば、入退場管理装置などにおいて、歩行する人物に対し本人確認のための顔照合を行なうもので、人物の少なくとも顔を含む画像(以下、顔画像と称す)を撮影して入力する画像入力手段としての電子カメラ11、電子カメラ11からの顔画像を取込む画像入力手段としての画像取込部12、画像取込部12により取込まれた顔画像から顔画像列の生成、顔画像列の部分顔画像列への分割、部分顔画像列の選択などの処理を行なう部分生体画像列生成手段としての入力画像列分割部13、入力画像列分割部13により選択された部分顔画像列からの統計的特徴量の抽出、統計的特徴量と辞書情報との類似度算出、算出した類似度の統合などの処理を行なう照合手段としての照合部14、あらかじめ辞書情報を格納(記憶)している辞書格納部15、および、照合部14の結果を出力する出力部16を有して構成される。
第1の実施の形態に係る生体照合装置は、概略として以下のような処理を行なうものである。
1.入力画像から顔領域を抽出した顔画像を複数集めて、これを特定の基準に基づき分類、分割し、部分顔画像列を生成する。
2.各部分顔画像列について、主に生体照合装置の設置に関する特定の基準を用いて照合に用いるものを選択する。
3.選択された部分顔画像列について統計的特徴量を抽出する。
4.選択された部分顔画像列について抽出した特徴量と辞書情報との類似度を求める。
5.選択された各部分画像列について算出した辞書情報との類似度を統合する。
6.統合された類似度が一定基準範囲内にあり、かつ、最大となる辞書情報中の個人を特定する。
このようにして得られた結果は、出力部16によって、照合者の固有の識別情報であるID番号として出力される。ここに、たとえば、当該生体照合装置が入退場管理装置に接続されていた場合を考える。このときもし、出力されたID番号が通行を許可された人物のものであれば、照合者は通行を許可される。またもし、そうでない場合には、照合者は通行を拒否される。
以下、各処理の流れについて図2に示すフローチャートを参照して詳細に説明する。
まず、画像入力処理を行なう(ステップS1)。画像入力処理では、電子カメラ11により人物の顔画像を撮影して入力する。画像取込部12は、電子カメラ11により入力された顔画像を取込み、ディジタイズして図示しない内部メモリ上にフレームごとのディジタル画像として格納する。ここに、画像は、一定周期T(たとえば、33msec)でサンプリングされ、サンプリングされた各画像(フレーム)が、各画素について所定のビット数(R、G、B各8ビットなど)を持つディジタル画像に変換されているものと想定する。
なお、上記説明では、電子カメラ11としてアナログ画像を入力するものを上げたが、上述の条件を満足するものであれば、アナログ画像をサンプリングせずに直接ディジタル画像を入力し、画像取込部12ではディジタル画像を内部メモリ上に取込むものとしてもよい。
次に、顔画像列の生成処理を行なう(ステップS2〜S4)。顔画像列の生成処理は、入力画像列分割部12において行なわれるもので、ステップS1にて画像入力処理の後、入力画像内の各フレームの画像から顔領域を決定し、顔周辺部分のみを抽出した画像を一定数以上集めて顔画像列を生成する。
まず、顔領域の決定のために、ステップS1の処理にてR、G、B形式で内部メモリに蓄積された各フレーム画像について、たとえば、下記式(1)のような変換を行なってグレー(輝度)成分の画像を生成し、そのグレー画像内から顔領域を探索する。
Y=0.299*R+0.587*G+0.114*B …… (1)
ここで、顔領域の決定は、入力画像内において、あらかじめ用意されたテンプレートを画像内で移動させながら相関値を求めることにより、最も高い相関値を与える位置を顔領域としたり、固有空間法や部分空間法を利用した顔抽出法などでも実現は可能である。たとえば、文献[1](福井和広、山口修:形状抽出とパターン認識の組合せによる顔特徴点抽出、電子情報通信学会論文誌(D)、vol.J80−D−II、No.8、pp2170〜2177(1997年))に述べられている「部分空間法による顔領域抽出」の方法を用いて実現可能である。
次に、上記処理で顔領域が見付かった場合、検出された顔領域の部分の中から目、鼻、口などの顔部位の位置を検出することで、顔であることのチェックを行なってもよい。顔部位の検出方法としては、目、鼻、口端等についての形状特徴から求めたこれらパーツの候補について、あらかじめ登録済みのパーツについての部分空間パターンを用いて候補選択を行なう方法(たとえば、前記文献[1]参照)などで実現可能である。
また、顔検出を行なうために、複数の矩形状のフィルタを用いて顔か非顔かの判定結果を出力する単純な識別器を複数組合わせ、その組合わせ方をアダブスト(AdaBoost)アルゴリズムを導入することで逐次的に選択し、トータルとして検出精度を高くする方法(たとえば、文献[2](P.Viola and M.Jones,“Rapid object detection using a boosted cascadeof simple features”,proc. of IEEE Conf.CVPR,pp.511−518,2001.))に類似の手法を用いてもよい。
いずれにしても、以上のように入力画像内から抽出された複数の顔画像をセットとして、顔画像列を生成する。
次に、顔画像列の部分顔画像列への分割処理を行なう(ステップS5)。顔画像列の部分顔画像列への分割処理は、入力画像列分割部12において行なわれるもので、上記処理で生成された顔画像列に対して、特定特徴量を設定し、その特徴量の類似性を尺度として、入力された全体の顔画像列を1つ以上の部分顔画像列に分割する。
ここでは、仮に特徴量として、入力された顔画像列中の各顔画像の相関を用いることにして、図3に模式的に考え方を示す。図3(a)には、人物Mが歩行しながら図面に対し左端から右端にある生体照合装置(顔照合装置)に向かってくる間に、入力された顔画像内の各画像フレームをオーバラップして示している。このとき、各画像フレーム中で検出された顔領域に対し、互いに相関値が大きく、したがって類似しているフレーム同士を分類しており、それぞれ同一の分類中のフレームについては、人物の表示方法を分類して同一の表示方法としている。図3(a)では、M1,M2,M3の3種類の部分顔画像列として分類している様子を示している。ここでの相関演算としては、いわゆる顔領域に対する正規化相関を用いてもよいし、顔領域中の画素に対する輝度値差の総和の逆数を用いてもよい。
ここで、当該分割処理において、入力画像を各フレームの集合体である部分顔画像列としてまとめる理由は、類似した画像同士の中にも、わずかな変動成分が含まれている場合を考慮して、入力画像と辞書情報との多少の変動を吸収するために、入力画像、辞書情報ともに複数用意して、それらを統合した統計量を用いて照合を行なうことを想定しているからである。このような方式としては、たとえば、文献[3](福井和広、山口修、鈴木薫、前田賢一:制約相互部分空間法を用いた環境変動にロバストな顔画像認識、電子情報通信学会論文誌(D)、vol.J82−DII、No.4、pp613〜620(1999年))に述べられている「制約相互部分空間法」などを利用してよい。
このように、あらかじめ入力画像を分類しておく理由は以下の通りである。
入力画像と辞書情報との僅かな差を吸収するためには、上述のように入力画像、辞書情報ともに複数信号をサンプルしてそれらを統合した統計量同士で類似性を比較するのが望ましいが、もし仮に辞書情報中に存在する画像とは著しく異なる画像が入力画像に含まれる場合には、これら例外的な入力画像の影響で、たとえそれが本人に対する入力画像であった場合でも、辞書情報との類似度は下がってしまう。この場合、本人排除の状況となる場合がある。
そこで、あらかじめ入力同士の類似性から入力画像列を複数の部分に分類しておき、著しく辞書情報と異なる部分は、寄与を下げたり、使用しないようにすることで、本人排除を減らすことが可能となる。分類の理由はこの点にある。図3(b)には、分類された各部分顔画像列が群A、群B、群Cと3群に分類され、それらが辞書情報との類似性を見る特徴空間上に配置されている様子を示している。
なお、上記説明では、入力画像同士の類似性の尺度の例として入力画像間の相関を用いる例を示したが、これに類する尺度として、たとえば、各顔領域の平均輝度、顔領域中の上下左右方向の輝度勾配、目鼻等の特徴点3次元的に同一平面上に無い4点が必要の位置関係から算出される顔の3次元向きなどが利用可能である。
また、分類の方法としては、たとえば、文献[4](高木、下田、画像解析ハンドブック、pp578、Jan1991年)に述べられている「K−meansクラスタリング法」、または、ニューラルネットの一種であるSOM(Self Organization Map)などの既存手法を用いて差し支えない。
また、上記説明では、ある1つの基準にしたがって、入力された顔画像列を複数の部分顔画像列に分類していたが、たとえば、上述の入力画像間の相関、顔領域の平均輝度、顔領域中の上下左右方向の輝度勾配、3次元顔向き等の数種の基準を用いて分類し、そのうちの全て、または、いずれかの部分顔画像列(たとえば、各基準ごとの分類中、最大の要素を持つ部分顔画像列)を算出してもよい。このようにすることにより、入力画像と辞書情報との撮像環境の相違に対して柔軟な対応が可能であるが、システムの処理時間が単一の基準のみの場合に比べて余分に必要な傾向がある。
次に、部分顔画像列の選択処理を行なう(ステップS6)。部分顔画像列の選択処理は、入力画像列分割部12において行なわれるもので、上記処理(ステップS5)で分割された部分顔画像列に対し、ある基準を用いて照合に利用するか否かを選択するものである。ここでは、その選択基準として顔領域の平均輝度を用いる例を示す。
各部分顔画像列中の各画像I(0),…,I(k)の顔領域について輝度平均値a(0),…,a(k)を算出し、それらのアンサンブル平均値A=1/kΣ0,k−1(k)を算出する。そして、あらかじめ算出してあった平均輝度上限値Au、下限値Alと上述のAとを比較し、
ifA<Al or
A>Authen 棄却 …… (2)
else
選択
とする。前者は部分画像列の選択基準とする特徴量として信号の平均値を用い、辞書作成時に用いた属性(特徴量)と、照合時入力中の相当する属性とが類似していることを示し、後者は類似していないことを示す。
なお上記の処理は属性値として顔領域の平均輝度値を用いた部分顔画像列の選択例を示したが、選択基準として顔向きの平均値、顔輝度勾配の平均値、辞書作成に用いた画像の平均値との類似度等を用いても差し支えない。
次に、部分顔画像列群からの統計的特徴量の抽出処理を行なう(ステップS7)。統計的特徴量の抽出処理は、照合部14において行なわれるもので、上記処理(ステップS6)で生成された部分顔画像列群が照合部14に引き渡された後、実行される。
具体的には、各部分顔画像列中の各画像をベクタ(vector)と考え、それらの主成分分析した結果から部分空間を構成し、この空間をある1つの画像列に対応する統計的特徴量とみなす。
なお、上記処理は、辞書情報内には入力画像と同様に作成した辞書部分空間が存在することを仮定しているが、さらに辞書部分空間中で、個人を示す各クラス同士は類似せず、クラス内の要素は類似するような変換を実施する制約空間を導入した、文献[3]にて用いられるような入力空間の構成方法を用いて、各入力部分顔画像群の統計的特徴量を算出してもよい。
また、上記説明で各入力部分顔画像列それぞれの特徴を示す統計的特徴量を、ここでは入力部分空間と呼ぶことにする。したがって、入力部分顔画像列がN個存在した場合、N個以下の入力部分空間が生成されることになる。
次に、抽出した統計的特徴量と辞書情報との類似度算出処理を行なう(ステップS8〜S10)。辞書情報との類似度算出処理は、照合部14において行なわれるもので、上記処理(ステップS7)で各入力部分顔画像列から生成された入力部分空間と、辞書格納部15に格納されている各登録者の特徴を示す辞書部分空間(辞書情報)との類似度を算出するものである。
ここでは、上記処理(ステップS7)で述べたように、類似度算出に文献[3]にて用いられるような「制約相互部分空間法」を用いる場合を仮定して説明する。
まず、あらかじめ辞書情報内で、照明条件など、ある特定の画像取得条件、画像入力条件で得られた画像について個人ごとの部分空間の差分を示す差分部分空間を求め、それらを主成分分析することで制約空間を構成する。
次に、入力部分空間を上述の制約空間に射影して、射影部分空間を構成する。このように制約空間へ入力部分空間を射影すると、撮像条件の違いに比べて、個人間の差異を強調するような空間へ入力部分空間を変換することができる。
次に、上記で射影された各入力部分空間と、同様に制約空間に射影された各辞書部分空間とのなす角度(正準角)を入力部分空間と各辞書情報との類似度とする。
次に、選択済み部分顔画像列についての辞書情報との類似度の統合処理を行なう(ステップS11〜S12)。類似度の統合処理は、照合部14において行なわれるものである。ここでは、統合方法として算術的統合方法の例として、重みつき平均値を用いて説明する。
上記処理(ステップS8〜S10)の結果として各入力部分空間pi(iは入力部分空間数、i=0,…,n−1)に対し、ある1つの辞書部分空間dj(jは辞書情報中の登録個人数、j=0,…,m−1)について、類似度si,jが求められるが、以下のようにある個人辞書情報jに対する統合類似度Sを算出する。
=1/n*Σi=0,n−1(w*si,j) …… (3)
上記wは、各入力部分空間に対する重みである。重みの決め方の例として、各入力部分空間と辞書情報との類似度の上位K番目まではw=1、それ以外はw=0としてもよい。
なお、この重みについては、ステップS5にて部分画像列を構成した基準に応じてあらかじめ決めておくこともできる。
たとえば、ステップS5にて分類の基準として顔領域内の平均輝度値を用いた場合、各部分顔画像列の平均輝度値が、辞書作成環境と異なる場合にはwを小さく、辞書作成環境と類似する場合にはwを大きくするように設定することができる。
また、分類基準として顔向きを用いた場合、辞書情報全体を通した顔向きの平均値に各部分顔画像列の顔向き平均値が異なる場合にはwを小さく、辞書作成環境と類似する場合にはwを大きくするように設定することができる。
以上のような重み付き平均演算によって類似度を統合することで、極端に辞書情報と異なるような入力画像列の照合への寄与を抑制することが可能となる。
次に、上記処理(ステップS11〜S12)で統合された類似度が一定基準範囲内にあり、かつ、最大となる個人を特定する(ステップS13)。
このようにして得られた結果は、出力部16によって、照合者の固有の識別情報であるID番号として出力される。たとえば、当該生体照合装置が入退場管理装置に接続されていた場合を考えると、出力されたID番号が通行を許可された人物のものであれば、照合者は通行を許可され、そうでない場合には照合者は通行を拒否される。
以上説明した第1の実施の形態によれば、入力画像列に含まれる変動が抑制されるため、本人排除率を低減させることができる。具体的には以下に示す。
入力された顔画像列をある基準に基づいて1つないし複数の群に分類し、分類されたそれぞれの部分顔画像列を辞書情報と照合し、その結果を算術的に統合することで総合判定するので、入力画像に含まれる辞書情報には存在しない成分を辞書情報に存在する成分と区別して類似性を判定し、貢献度が低い成分を排除するようにそのそれぞれの結果が統合されるため、本人排除率を低限させる効果をもたらす。
また、入力された顔画像列を複数の基準に基づいて1つないし複数の群に分類し、各基準ごとに生成された部分顔画像列の中から部分顔画像列を1つないし複数選択し、それら部分顔画像列を辞書情報と照合し、その結果を算術的に統合することで総合判定するので、入力画像の成分の辞書情報内での含まれ方の表現として複数の尺度を利用できるため、柔軟に本人排除の低限効果を調整できる。
また、各部分顔画像列と辞書情報、ないしは、部分顔画像列の属性と辞書情報に対する相当する属性との類似性の高いものを選択して用いることで、あらかじめ本人確認に貢献しない成分を類似性の判定以前に削除できるため、本人排除をより低限可能で、しかも、処理速度向上にも貢献する効果が得られる。
さらに、あらかじめ生体照合装置の設置位置に応じて有意な選択基準を求めておき、照合時に生体照合装置の設置位置、または、その設置位置での利用者と当該装置との相対位置に応じて入力部分顔画像列の選択方法を変えることで、類似性の算出以前に辞書情報作成時の画像入力(撮像)環境による入力画像の寄与を取込めるので、入力環境と辞書情報の作成環境が著しく異なるような場合には、より本人排除率を低限する効果が得られる。
次に、第2の実施の形態について説明する。
第1の実施の形態では、生体照合に際して事前に照合者を識別可能な情報を生体照合装置に与えないことを前提にしていた。これに対し、第2の実施の形態では、生体照合装置を利用するにあたり、事前に照合者の固有の識別情報であるID番号を格納したICカードの提示と組合わせたり、キーボードのようなデバイスからID番号を入力させて、そのID番号をと併用するようにしたものである。
その場合、辞書格納部15にID番号に対応させて画像取得時情報を格納しておく。この画像取得時情報としては、たとえば、前述した部分顔画像列の選択処理における顔領域の平均輝度値、顔輝度勾配、顔向きの閾値、および、辞書作成時に用いた画像の平均値などが考えられ、入力されたID番号に応じてこれらの値を変えることにより、より最適な入力部分顔画像列の選択が行なえる。
また、この場合は、前述した類似度の統合処理において、重みを個人に対応させて変えることが可能となるため、より最適な辞書情報との類似度判定が可能となる。
図4に第2の実施の形態に係る生体照合装置の構成を概略的に示す。図1に示した第1の実施の形態と異なる点は、提示されたICカードからID番号を読取るICカードリーダあるいはID番号をキー入力するキーボードなどのID入力部17が追加された点に有り、その他は図1の第1の実施の形態と同様であるので、同一符号を付して説明は省略する。
なお、第2の実施の形態では、事前に個人のID番号(識別情報)が宣言(入力)されているため、辞書情報内の複数人についての総当たりの類似度計算は行なわず、宣言されたID番号を持つ辞書情報内の個人からの統計情報(部分空間)と、入力画像の各部分空間との類似度を求め、その結果を各入力部分空間で統合し、あらかじめ定めた閾値を下回らなければ本人、下回ったら他人と判定する。
以下、各処理の流れについて図5に示すフローチャートを参照して詳細に説明する。図2に示した第1の実施の形態と異なる点は、ステップS1の前にステップS0が追加された点、ステップS6,S8〜S10の処理が変更になった点、ステップS11以降の処理が変更になった点に有り、その他は図2の第1の実施の形態と同様であるので、同一部分には同一符号を付して説明は省略し、異なる部分についてだけ説明する。
ステップS0では、ID番号の入力処理を行なう。当該生体照合装置を利用する利用者は、まず、ID入力部17によりあらかじめ付与されているID番号を入力する。
ステップS6の部分顔画像列の選択処理は、ステップS0で入力されたID番号に対応する画像取得時情報を辞書格納部15から取得し、この取得した画像取得時情報を選択基準として、ステップS5で分割された部分顔画像列の中から照合に利用する部分顔画像列を選択する。
ステップS8〜S10の抽出した統計的特徴量と辞書情報との類似度算出処理は、辞書情報内の複数人についての総当たりの類似度計算は行なわず、ステップS0で入力されたID番号を持つ辞書情報内の個人からの統計情報(部分空間)と、入力画像の各部分空間との類似度を求める。
ステップS11での類似度の統合処理が終了すると、統合された類似度のうち最大値を示す類似度があらかじめ定められた閾値以上であるか否かをチェックし(ステップS14)、閾値以上であれば当該人物は本人であると判定し(ステップS15)、閾値以上でなければ当該人物は他人であると判定する(ステップS16)。
以上説明した第2の実施の形態によれば、顔照合の事前に照合者本人の識別情報としてID番号を宣言し、辞書情報作成時の顔画像入力環境と対応づけておくことにより、辞書情報内の確認したい特定の個人の辞書情報作成状況に応じて、本人排除率の低限を行なうこと可能となる効果が期待できる。
本発明の第1の実施の形態に係る生体照合方法が適用される生体照合装置の構成を概略的に示すブロック図。 第1の実施の形態に係る各処理の流れについて詳細に説明するフローチャート。 入力された顔画像列を部分顔画像列へ分割する方法を説明する概念図。 本発明の第2の実施の形態に係る生体照合方法が適用される生体照合装置の構成を概略的に示すブロック図。 第2の実施の形態に係る各処理の流れについて詳細に説明するフローチャート。
符号の説明
11…電子カメラ(画像入力手段)、12…画像取込部(画像入力手段)、13…入力画像列分割部(部分生体画像列生成手段)、14…照合部(照合手段)、15…辞書格納部、16…出力部、17…ID入力部(識別情報入力手段)。

Claims (11)

  1. 人物の生体画像を用いて当該人物が本人であるか否かを判定する生体照合方法において、
    入力される生体画像を特定の基準に基づいて1つないし複数の群に分類して部分生体画像列を生成し、この生成された部分生体画像列をあらかじめ登録された辞書情報と照合し、この照合結果を算術的に統合することで総合判定することを特徴とする生体照合方法。
  2. 人物の生体画像を用いて当該人物が本人であるか否かを判定する生体照合方法において、
    入力される生体画像を複数の基準に基づいて1つないし複数の群に分類して部分生体画像列を生成し、この生成された複数の基準ごとの部分生体画像列の中から照合に用いる部分生体画像列を1つないし複数選択し、この選択された部分生体画像列をあらかじめ登録された辞書情報と照合し、この照合結果を算術的に統合することで総合判定することを特徴とする生体照合方法。
  3. 前記生成された複数の基準ごとの部分生体画像列に対し、各部分生体画像列とあらかじめ登録された辞書情報、あるいは、部分生体画像列の属性と前記辞書情報の作成時に用いた属性との類似度の高いものを照合に用いる部分生体画像列として選択することを特徴とする請求項2記載の生体照合方法。
  4. 当該生体照合方法が用いられる装置の設置位置等に応じた有意な選択基準をあらかじめ求めておき、この選択基準に応じて前記照合に用いる部分生体画像列の選択方法を変更することを特徴とする請求項2記載の生体照合方法。
  5. さらに、あらかじめ本人に付与された固有の識別情報を照合時に入力し、この入力された識別情報に応じて前記照合に用いる部分生体画像列の選択方法を変更することを特徴とする請求項2記載の生体照合方法。
  6. 人物の生体画像を含む画像を入力する第1のステップと、
    この第1のステップにより入力された画像から複数の生体画像を抽出して生体画像列を生成する第2のステップと、
    この第2のステップにより生成された生体画像列に対して、特定の特徴量の類似性を尺度として少なくとも1つ以上の部分生体画像列に分割する第3のステップと、
    この第3のステップにより得られる部分生体画像列に対して、当該生体照合方法が用いられる装置の設置位置等に関する特定の基準を用いて照合に用いる部分生体画像列を少なくとも1つ以上選択する第4のステップと、
    この第4のステップにより選択された部分生体画像列について統計的な特徴量を抽出する第5のステップと、
    この第5のステップにより抽出された特徴量とあらかじめ登録された辞書情報との類似度を求める第6のステップと、
    この第6のステップにより求められた類似度を算術的に統合する第7のステップと、
    この第7のステップにより統合された類似度に基づき当該人物が本人であるか否かを判定する第8のステップと、
    を具備したことを特徴とする生体照合方法。
  7. 本人に付与された固有の識別情報を入力する第1のステップと、
    人物の生体画像を含む画像を入力する第2のステップと、
    この第2のステップにより入力された画像から複数の生体画像を抽出して生体画像列を生成する第3のステップと、
    この第3のステップにより生成された生体画像列に対して、特定の特徴量の類似性を尺度として少なくとも1つ以上の部分生体画像列に分割する第4のステップと、
    あらかじめ本人に付与された固有の識別情報に対応させて登録されている選択基準の中から前記第1のステップにより入力された識別情報に対応する選択基準を取得し、この取得した選択基準を用いて前記第4のステップにより得られる部分生体画像列の中から照合に用いる部分生体画像列を少なくとも1つ以上選択する第5のステップと、
    この第5のステップにより選択された部分生体画像列について統計的な特徴量を抽出する第6のステップと、
    あらかじめ本人に付与された固有の識別情報に対応させて登録されている辞書情報の中から前記第1のステップにより入力された識別情報に対応する辞書情報を取得し、この取得した辞書情報と前記第6のステップにより抽出された特徴量との類似度を求める第7のステップと、
    この第7のステップにより求められた類似度を算術的に統合する第8のステップと、
    この第8のステップにより統合された類似度に基づき当該人物が本人であるか否かを判定する第9のステップと、
    を具備したことを特徴とする生体照合方法。
  8. 人物の生体画像を用いて当該人物が本人であるか否かを判定する生体照合装置において、
    人物の生体画像を入力する画像入力手段と、
    この画像入力手段により入力された生体画像を特定の基準に基づいて1つないし複数の群に分類して部分生体画像列を生成する部分生体画像列生成手段と、
    この部分生体画像列生成手段により生成された部分生体画像列をあらかじめ登録された辞書情報と照合し、この照合結果を算術的に統合することで総合判定する照合手段と、
    を具備したことを特徴とする生体照合装置。
  9. 人物の生体画像を用いて当該人物が本人であるか否かを判定する生体照合装置において、
    人物の生体画像を入力する画像入力手段と、
    この画像入力手段により入力された生体画像を複数の基準に基づいて1つないし複数の群に分類して部分生体画像列を生成する部分生体画像列生成手段と、
    この部分生体画像列生成手段により生成された複数の基準ごとの部分生体画像列の中から照合に用いる部分生体画像列を1つないし複数選択する選択手段と、
    この選択手段により選択された部分生体画像列をあらかじめ登録された辞書情報と照合し、この照合結果を算術的に統合することで総合判定する照合手段と、
    を具備したことを特徴とする生体照合装置。
  10. 人物の生体画像を含む画像を入力する画像入力手段と、
    この画像入力手段により入力された画像から複数の生体画像を抽出して生体画像列を生成する生体画像列生成手段と、
    この生体画像列生成手段により生成された生体画像列に対して、特定の特徴量の類似性を尺度として少なくとも1つ以上の部分生体画像列に分割する分割手段と、
    この分割手段により得られる部分生体画像列に対して、当該生体照合装置の設置位置等に関する特定の基準を用いて照合に用いる部分生体画像列を少なくとも1つ以上選択する選択手段と、
    この選択手段により選択された部分生体画像列について統計的な特徴量を抽出する特徴量抽出手段と、
    この特徴量抽出手段により抽出された特徴量とあらかじめ登録された辞書情報との類似度を求める類似度算出手段と、
    この類似度算出手段により求められた類似度を算術的に統合する類似度統合手段と、
    この類似度統合手段により統合された類似度に基づき当該人物が本人であるか否かを判定する判定手段と、
    を具備したことを特徴とする生体照合装置。
  11. 本人に付与された固有の識別情報を入力する識別情報入力手段と、
    人物の生体画像を含む画像を入力する画像入力手段と、
    この画像入力手段により入力された画像から複数の生体画像を抽出して生体画像列を生成する生体画像列生成手段と、
    この生体画像列生成手段により生成された生体画像列に対して、特定の特徴量の類似性を尺度として少なくとも1つ以上の部分生体画像列に分割する分割手段と、
    あらかじめ本人に付与された固有の識別情報に対応させて登録されている選択基準の中から前記識別情報入力手段により入力された識別情報に対応する選択基準を取得し、この取得した選択基準を用いて前記分割手段により得られる部分生体画像列の中から照合に用いる部分生体画像列を少なくとも1つ以上選択する選択手段と、
    この選択手段により選択された部分生体画像列について統計的な特徴量を抽出する特徴量抽出手段と、
    あらかじめ本人に付与された固有の識別情報に対応させて登録されている辞書情報の中から前記識別情報入力手段により入力された識別情報に対応する辞書情報を取得し、この取得した辞書情報と前記特徴量抽出手段により抽出された特徴量との類似度を求める類似度算出手段と、
    この類似度算出手段により求められた類似度を算術的に統合する類似度統合手段と、
    この類似度統合手段により統合された類似度に基づき当該人物が本人であるか否かを判定する判定手段と、
    を具備したことを特徴とする生体照合装置。
JP2006022870A 2006-01-31 2006-01-31 生体照合方法および生体照合装置 Pending JP2007206833A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2006022870A JP2007206833A (ja) 2006-01-31 2006-01-31 生体照合方法および生体照合装置
TW096103389A TW200741561A (en) 2006-01-31 2007-01-30 Method and device for collating biometric information
EP07002086A EP1814061B1 (en) 2006-01-31 2007-01-31 Method and device for collating biometric information
US11/700,093 US7856122B2 (en) 2006-01-31 2007-01-31 Method and device for collating biometric information
DE602007000510T DE602007000510D1 (de) 2006-01-31 2007-01-31 Verfahren und Vorrichtung zum Zuordnen biometrischer Informationen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006022870A JP2007206833A (ja) 2006-01-31 2006-01-31 生体照合方法および生体照合装置

Publications (1)

Publication Number Publication Date
JP2007206833A true JP2007206833A (ja) 2007-08-16

Family

ID=37964933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006022870A Pending JP2007206833A (ja) 2006-01-31 2006-01-31 生体照合方法および生体照合装置

Country Status (5)

Country Link
US (1) US7856122B2 (ja)
EP (1) EP1814061B1 (ja)
JP (1) JP2007206833A (ja)
DE (1) DE602007000510D1 (ja)
TW (1) TW200741561A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013182335A (ja) * 2012-02-29 2013-09-12 Secom Co Ltd 顔画像認証装置
JP2014182506A (ja) * 2013-03-18 2014-09-29 Toshiba Corp 情報処理方法、及び情報処理システム
JP2016177739A (ja) * 2015-03-23 2016-10-06 グローリー株式会社 人物認証装置及び人物認証方法
CN107958012A (zh) * 2016-10-17 2018-04-24 松下知识产权经营株式会社 程序生成方法、程序生成装置以及控制程序
KR20210117484A (ko) * 2020-03-19 2021-09-29 한국과학기술연구원 귀 인식 기반 인증을 이용한 모바일 장치 잠금 해제 방법 및 이를 수행하는 모바일 장치
US11558197B2 (en) 2019-04-10 2023-01-17 Korea Institute Of Science And Technology Method for unlocking mobile device using authentication based on ear recognition and mobile device performing the same
WO2025197013A1 (ja) * 2024-03-21 2025-09-25 日本電気株式会社 情報処理装置、情報処理方法及び記録媒体

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4247691B2 (ja) * 2006-05-17 2009-04-02 ソニー株式会社 登録装置、照合装置、登録方法、照合方法及びプログラム
US20080199085A1 (en) * 2007-02-19 2008-08-21 Seiko Epson Corporation Category Classification Apparatus, Category Classification Method, and Storage Medium Storing a Program
JP5008484B2 (ja) * 2007-07-11 2012-08-22 株式会社日立国際電気 映像処理方法
JP2009087232A (ja) * 2007-10-02 2009-04-23 Toshiba Corp 人物認証装置および人物認証方法
JP4318056B1 (ja) * 2008-06-03 2009-08-19 島根県 画像認識装置および操作判定方法
JP5399862B2 (ja) * 2009-10-30 2014-01-29 富士通フロンテック株式会社 姿勢情報付き生体情報による個人認証・操作指示入力方法、装置、及びプログラム
JP5554984B2 (ja) * 2009-12-24 2014-07-23 キヤノン株式会社 パターン認識方法およびパターン認識装置
TWI447659B (zh) * 2010-01-15 2014-08-01 Utechzone Co Ltd 瞳孔或臉部特徵對位方法與裝置
JP5675145B2 (ja) * 2010-03-30 2015-02-25 キヤノン株式会社 パターン認識装置及びパターン認識方法
JP5873959B2 (ja) * 2010-09-27 2016-03-01 パナソニックIpマネジメント株式会社 ホワイトリスト内外判定装置及び方法
JP5794410B2 (ja) * 2010-12-20 2015-10-14 日本電気株式会社 認証カード、認証システム、ガイダンス方法及びプログラム
US10146428B2 (en) 2011-04-21 2018-12-04 Inpris Innovative Products From Israel Ltd Device, system, and methods for entering commands or characters using a touch screen
JP5778983B2 (ja) * 2011-05-17 2015-09-16 キヤノン株式会社 データ処理装置、データ処理装置の制御方法、およびプログラム
JP6399280B2 (ja) * 2011-07-29 2018-10-03 日本電気株式会社 照合・検索システム、照合・検索サーバ、画像特徴抽出装置、照合・検索方法及びプログラム
JP5956860B2 (ja) * 2012-07-09 2016-07-27 キヤノン株式会社 画像処理装置、画像処理方法、プログラム
JP5764592B2 (ja) * 2013-02-22 2015-08-19 東京エレクトロン株式会社 基板処理装置、基板処理装置の監視装置及び基板処理装置の監視方法
JP5794255B2 (ja) * 2013-05-21 2015-10-14 株式会社デンソー 物体検出装置
JP6418033B2 (ja) * 2015-03-30 2018-11-07 オムロン株式会社 個人識別装置、識別閾値設定方法、およびプログラム
US10120567B2 (en) 2015-04-02 2018-11-06 Inpris Innovative Products From Israel Ltd System, apparatus and method for vehicle command and control
JP6725381B2 (ja) * 2016-09-20 2020-07-15 株式会社東芝 画像照合装置および画像照合方法
JP6883761B2 (ja) * 2016-10-17 2021-06-09 パナソニックIpマネジメント株式会社 プログラム生成方法、プログラム生成装置および制御プログラム
US11449167B2 (en) 2017-06-26 2022-09-20 Inpris Innovative Products Fromisrael, Ltd Systems using dual touch and sound control, and methods thereof
CN109376592B (zh) * 2018-09-10 2021-04-27 创新先进技术有限公司 活体检测方法、装置和计算机可读存储介质
JP7299708B2 (ja) * 2019-01-15 2023-06-28 グローリー株式会社 認証システム、管理装置及び認証方法
CN114881545B (zh) * 2022-07-07 2022-09-23 国网浙江省电力有限公司 基于协同互联的物资自动匹配方法及装置
JP2024082634A (ja) * 2022-12-08 2024-06-20 株式会社東芝 情報処理プログラム、情報処理方法、及び情報処理装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273505A (ja) * 1999-12-14 2001-10-05 Canon Inc ビジュアル言語分類システム
JP2005202765A (ja) * 2004-01-16 2005-07-28 Toshiba Corp 生体照合装置、生体照合方法および通行制御装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6057475A (ja) * 1983-09-07 1985-04-03 Toshiba Corp パタ−ン認識方式
JPH11265452A (ja) 1998-03-17 1999-09-28 Toshiba Corp 物体認識装置および物体認識方法
US6944319B1 (en) * 1999-09-13 2005-09-13 Microsoft Corporation Pose-invariant face recognition system and process
JP4314016B2 (ja) 2002-11-01 2009-08-12 株式会社東芝 人物認識装置および通行制御装置
CN1282943C (zh) * 2002-12-30 2006-11-01 佳能株式会社 图像处理方法及装置
JP3998628B2 (ja) * 2003-11-05 2007-10-31 株式会社東芝 パターン認識装置及びその方法
KR100543707B1 (ko) * 2003-12-04 2006-01-20 삼성전자주식회사 서브그룹별 pca 학습을 이용한 얼굴인식방법 및 장치
JP4824411B2 (ja) * 2005-01-20 2011-11-30 パナソニック株式会社 顔抽出装置、半導体集積回路

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273505A (ja) * 1999-12-14 2001-10-05 Canon Inc ビジュアル言語分類システム
JP2005202765A (ja) * 2004-01-16 2005-07-28 Toshiba Corp 生体照合装置、生体照合方法および通行制御装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013182335A (ja) * 2012-02-29 2013-09-12 Secom Co Ltd 顔画像認証装置
JP2014182506A (ja) * 2013-03-18 2014-09-29 Toshiba Corp 情報処理方法、及び情報処理システム
JP2016177739A (ja) * 2015-03-23 2016-10-06 グローリー株式会社 人物認証装置及び人物認証方法
CN107958012A (zh) * 2016-10-17 2018-04-24 松下知识产权经营株式会社 程序生成方法、程序生成装置以及控制程序
CN107958012B (zh) * 2016-10-17 2023-09-12 松下知识产权经营株式会社 程序生成方法、程序生成装置以及控制程序
US11558197B2 (en) 2019-04-10 2023-01-17 Korea Institute Of Science And Technology Method for unlocking mobile device using authentication based on ear recognition and mobile device performing the same
KR20210117484A (ko) * 2020-03-19 2021-09-29 한국과학기술연구원 귀 인식 기반 인증을 이용한 모바일 장치 잠금 해제 방법 및 이를 수행하는 모바일 장치
KR102339898B1 (ko) * 2020-03-19 2021-12-17 한국과학기술연구원 귀 인식 기반 인증을 이용한 모바일 장치 잠금 해제 방법 및 이를 수행하는 모바일 장치
WO2025197013A1 (ja) * 2024-03-21 2025-09-25 日本電気株式会社 情報処理装置、情報処理方法及び記録媒体

Also Published As

Publication number Publication date
DE602007000510D1 (de) 2009-03-19
TW200741561A (en) 2007-11-01
EP1814061A1 (en) 2007-08-01
US7856122B2 (en) 2010-12-21
US20070177807A1 (en) 2007-08-02
EP1814061B1 (en) 2009-01-28

Similar Documents

Publication Publication Date Title
JP2007206833A (ja) 生体照合方法および生体照合装置
Abozaid et al. Multimodal biometric scheme for human authentication technique based on voice and face recognition fusion
Monwar et al. Multimodal biometric system using rank-level fusion approach
JP5010905B2 (ja) 顔認証装置
JP5517858B2 (ja) 画像処理装置、撮像装置、画像処理方法
JP4543423B2 (ja) 対象物自動認識照合方法および装置
KR100944247B1 (ko) 얼굴 인식 방법 및 시스템
JP4743823B2 (ja) 画像処理装置、撮像装置、画像処理方法
JP2006293644A (ja) 情報処理装置、情報処理方法
KR101464446B1 (ko) 얼굴 인식과 자세 추정을 이용한 개인 인증 방법 및 그 장치
JP2003317101A (ja) データベース自動更新方法を用いた顔検証方法及びそのシステム
KR20150056460A (ko) 화상 인식장치 및 화상 인식장치에 대한 데이터 등록방법
KR20130037734A (ko) 방사형 기저 함수 신경회로망 알고리즘을 이용한 실시간 얼굴 인식 시스템
JP2019057815A (ja) 監視システム
JP2006031387A (ja) 画像認識装置、画像認識方法、画像認識プログラムおよび画像認識プログラムを記録した記録媒体
WO2018061786A1 (ja) 生体認証装置
KR101016758B1 (ko) 인물 식별 방법 및 그 시스템
JP2018128736A (ja) 顔認証システム、顔認証方法、及び顔認証プログラム
JP4468756B2 (ja) 画像の相関ベース類似度を演算する類似度演算装置、認識装置、類似度演算方法、認識方法、照合用プログラム及びそれを記録した記録媒体
JP2005084824A (ja) 顔画像照合装置、顔画像照合方法及び通行制御装置
JP2004078686A (ja) 個人認証装置、個人認証方法、通行制御装置および通行制御方法
Yogalakshmi et al. Review on digital image processing techniques for face recognition
Li et al. Multimodal biometric fusion algorithm based on ranking partition collision theory
Kumar et al. Introduction to multimodal biometrics using OpenCV
Monwar et al. A robust authentication system using multiple biometrics

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110329