JP2003346162A - 手の画像認識による入力システム - Google Patents
手の画像認識による入力システムInfo
- Publication number
- JP2003346162A JP2003346162A JP2002154145A JP2002154145A JP2003346162A JP 2003346162 A JP2003346162 A JP 2003346162A JP 2002154145 A JP2002154145 A JP 2002154145A JP 2002154145 A JP2002154145 A JP 2002154145A JP 2003346162 A JP2003346162 A JP 2003346162A
- Authority
- JP
- Japan
- Prior art keywords
- hand
- image
- finger
- region
- extracted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
できるシステムの提供。 【解決手段】カメラ等による入力画像(S202)から
手領域抽出画像(S204)と手領域細線画像(S20
6)の2種類の手形状認識画像を生成する。手領域抽出
画像からは、指の太さといった手の見掛け上の特徴を、
手領域細線画像からは、手の方向、指の根本座標といっ
た手の骨格的特徴を画像特徴として抽出する。まず、指
の本数を認識して(S208)、0,5本以外の場合、
得られた画像特徴と手の構造的特徴とを用いて、手の方
向を決定して(S210)、指領域の抽出を行う(S2
12)。そして、得られた指領域抽出画像と手形状認識
画像を解析することにより、画像特徴を得て(S21
4)、どの指が伸びているかを認識する(S216)。
このようにして、32通りの手の形状を認識することが
できる。
Description
のヒューマン・インターフェースに関し、特に掌の画像
から立っている指を識別することにより入力することが
できるシステムに関する。
人間の周りの機械類をより利用しやすく、より役に立つ
ものにすることが可能になった。バーチャルリアリテ
ィ、マルチメディア、ヒューマン・インターフェースな
どの発明はこの動きの代表的なものである。その中のヒ
ューマン・インターフェースは、人間と機械の間の情報
のやりとりを如何にして効率良く、理解しやすい形で行
えるかを目的とする発明であり、人とコンピュータとの
間で人にやさしい対話を目的とする上で、人間の動作や
姿勢を機械に理解させることが非常に重要な課題であ
る。例えば、仮想世界の構築を行うためには人体全体に
対する姿勢推定が必要であるし、機械の遠隔操作を想定
するなら、手指の姿勢推定が重要となる。また、各種の
設備や機器にカメラを設置して利用者の行動を数値化で
きれば、ヒューマン・インターフェースの一助となる。
動作認識の中でも、人体の一部である手の形状を入力手
段とする方法は、各種機器とのインターフェースが自然
な形で実現することにつながり、非常に重要な意味を持
っている。しかも、手は人の体の中でもっとも器用な部
分で、その形状や動作による表現が非常に豊富である。
従って、人間像の合成や人の動作の認識の中で手は極め
て重要な部分である。
ローブ等の物理型センサやマーカを用いる接触型の手法
と画像情報から認識をおこなう非接触型の手法がある。
センサーやマーカを用いる接触型の手法は数多く提案さ
れているが、入力画像の特徴点を抽出する際の安定性が
高く処理が速い反面、被観測者にとって物理的なセンサ
の装着に伴う煩わしさがあり、より自然なシステムを構
築するためには問題がある。それに対し、センサやマー
カを用いず画像情報から認識を行う方法も数多く提案さ
れている。画像情報より認識を行う手法には、入力画像
から指などのエッジ成分や輪郭線といった特徴を抽出
し、得られた成分と学習済みの3次元モデルをマッチン
グさせることで形状推定を行う方法がある。しかし、こ
れらの手法は、マッチングの際の計算量が多く処理時間
に問題があり、手を入力手段とする実時間上で動作する
システムを構築するには無理がある。実時間で手の重心
の位置や手の方向、指の本数の認識は行えるものもある
が、これらは手の形状から得られる基本的な情報のみを
認識しており、実際にどの指が伸びているのかを認識す
ることができない。実時間で指を認識することができる
システムもあるが、複数台のカメラを用いて特徴を抽出
し認識を行っており、手をコンピュータの入力装置とす
る自然なマンマシン・ヒューマン・インタフェースを構
築するには無理がある。しかし、ユーザにとって自然で
使いやすいヒューマン・インターフェースを構築するた
めには、物理センサを用いず、被観測者に負担を与えな
い画像情報を利用する手法の方が有用である。
サやマーカを用いず、手の形状の画像情報から、5本の
指のうちどの指が立っているかの認識を行うことによ
り、コンピュータ等に入力できるシステムを提供するこ
とである。
に、本発明は手の画像認識による入力システムであっ
て、手の画像を入力する画像入力手段と、該画像入力手
段からの手の画像から、手領域部分を塗りつぶした手領
域抽出画像を得る手領域抽出手段と、該手領域抽出画像
から、手領域細線画像を得る手領域細線画像生成手段
と、前記手領域抽出画像と手領域細線画像とから、立っ
ている指を認識して手の形状を特定する手形状認識手段
とを備え、どの指が立っているかで片手で32通りの形
状を特定することを特徴とする。前記手領域抽出手段
は、前記手の画像から肌色部分を抽出して、肌色部分に
平滑化処理を行い、平滑化処理後の前記肌色部分の輪郭
線を追跡して輪郭線の長さが最大である座標系列の抽出
を行い、抽出した輪郭線に平滑化処理を行った後、該輪
郭線の内部を塗りつぶして手領域抽出画像を得ることが
できる。さらに、前記輪郭線から、指の数を認識する指
数認識手段を備え、該指数認識手段により、指の数が2
〜4のいずれかであると認識したときに、前記手形状認
識手段で手形状の特定を行い、指の数が0又は5である
と認識したときは、前記手形状認識手段による処理を行
わないようにすることもできる。手形状認識手段は、前
記手領域細線画像から手の方向ベクトルを求め、求めた
該手の方向ベクトルに対して垂直に前記手領域抽出画像
を走査して、手のラン長を求め、該ラン長により指領域
を抽出し、抽出した該指領域を用いて、前記手領域細線
画像から指の部分を抽出することで手の形状を認識する
こともできる。手形状認識手段は、前記手の形状の認識
を行うパラメータを正規化して評価するとよい。上述に
記載した機能を有する入力システムをコンピュータ・シ
ステムに構成させるプログラムやプログラムを格納した
記録媒体も本発明である。
して詳細に説明する。図1は、本発明の実施形態におけ
るシステム構成例を示す。手の画像認識による入力シス
テム100は、CPU,ハードディスク等を内蔵するコ
ンピュータ本体110,CRT等の表示装置120,キ
ーボード112,マウス等のポインティング・デバイス
114等で構成される通常のコンピュータ・システムに
カメラ等の画像入力装置130を接続したものである。
画像入力装置130から、手の画像をコンピュータ・シ
ステム内に取り込み、画像処理を行うことができる。ま
た、図2は、このシステムで実行される手形状の認識処
理を示すフローチャートである。以下に、このフローチ
ャートを用いて、手形状の認識処理を説明する。まず、
1台のカメラ130により、システム内に手形状の画像
を取得する(S202)。以下に説明するこの実施形態
では、取得した入力画像に対して、以下のような制約条
件がある。 1.入力画像はRGB表色系で表されるカラー画像であ
る。 2.肌色領域を抽出して手領域とするため、画像中にお
いて手が最大の肌色領域であり、手領域と他の肌色物体
は重ならないようにする。 3.カメラのレンズに対してなるべく掌を平行に向ける
ようにし、カメラのレンズに掌が向いているのか手の甲
が向いているのかが分かっている。 4.手となる領域がすべて肌で表され、手首より先の領
域は画像枠とは交わらない。 5.指同士は重なり合わないようにする。 6.指は伸ばしているか伸ばしていないかのいずれかの
状態にあるとする。
を用いて表現できる手形状は32種類ある。本発明はこ
の32種類全ての形状に対してどの指が伸びているかを
認識する。32種類の手形状の詳細を図3,図4(背景
は黒に統一してある)に示す。図3,図4では、各手形
状に対して、指の位置を2進数の位とし、指が立ってい
る状態を1、畳んでいる状態を0としたときの2進数
(括弧の中は10進数)も示している。図3に示すよう
に、手形状の32種類の状態と指による2進数とは1対
1の関係にある。従って、図3に示す手形状を認識でき
ると、それに対応する2進数(10進数)も入力できる
ことになる。
に示すように、実際の入力画像には、背景等、手の認識
に無関係のものが映っている。次に、図5に示した入力
した画像から、手領域を抽出するための画像を生成する
(S204)。この認識用の画像の生成を行う処理例の
フローチャートを図6に示す。図6に示すように、手領
域抽出画像の生成は、例えば以下の手順で行う。 1.RGB表色系で表される入力画像を、RBG表色系
に対して光の影響が受けにくいHSV表色系に変換する
(S304)。 2.HSV表色系画像において肌色成分を抽出し(S3
06)、肌色成分とその他の成分に2値化し、2値画像
を生成する(S308)。 3.得られた2値画像において面積が最大である領域を
抽出し(S310)、平滑化処理として拡散・収縮を行
った(S322)ものを手領域候補とする。
によっては情報の欠落やノイズを含んでいる場合があ
り、後の細線化処理において不都合が生じる場合があ
る。そこで手領域候補の輪郭線に対しても平滑化を行
う。輪郭線の平滑化は以下の手順で行う。 1.手領域候補の輪郭線を抽出し、輪郭線の最大のもの
を手領域候補の輪郭線とする(S324)。 2.得られた手領域候補の輪郭線を線分近似パラメータ
εで多角形近似し、多角形近似された領域に対して塗り
つぶし処理を行う(S326)。ここで線分近似パラメ
ータεは手領域候補の面積に対して設定される。 3.多角形近似された領域に対して塗りつぶし処理を行
って得られた図形を手領域として決定し、この画像を手
領域抽出画像とする(S328)。 以下に各処理の詳細に付いて述べる。
像中の手領域である場所を抽出するために、本発明の実
施形態では肌色抽出を行う。しかしながら、入力画像で
あるRGB表色系で表されるカラー画像は、色彩情報を
人間が直接推定することが困難となり扱いにくい。した
がって人間が感覚的に取り扱いやすい、明度、彩度、色
度のような属性を持つ表色系に変換することが望まし
い。このような表色系にはHSV表色系やL*a*b*
表色系など様々なものがあるが、HSV表色系が安定し
て肌色抽出が行える。そこで、本発明の実施形態では、
RGB表色系からHSV表色系に変換し、肌色抽出を行
った。
類を表す色相H(hue)、色の鮮やかさを表す彩度S(s
aturation)、そして明るさの程度を表す明度V(valu
e)の3つの要素からなる。変換方法は、RGB表色系を
非線形変換する。ただし、R,G,B,S,Vの値域は
[0,1]であり、Hは〔0,2π〕の値を持つものと
する。RGB表色系からHSV表色系への変換方法は、
例えば高木・下田監修「画像解析ハンドブック」(東京
大学出版会,pp.485−491,1991年発行)
に記載されている。
閾値は 0.11<H<0.22 0.2<S<0.5 のように設定し、この閾値を用いて肌色を抽出する(S
306)。手領域と背景とを分離するために2値化処理
(S308)を行い、手領域の最大面積部を抽出する。
このとき手領域の最大面積部、つまり画素数が1000
より小さいときは画像中に手領域が存在しないとし、処
理を終る。なお、用いている画像は、横320画素・縦
240画素の大きさであるとする。得られた手領域最大
部のシルエット画像に対して、平滑化処理として拡散・
収縮処理(S322)を行ったものを手領域候補とする
(図7参照)。拡散・収縮処理のアルゴリズムは、例え
ば長谷川他「画像処理の基本技法−技術入門編−」(技
術評論社 1986年発行)を用いることができる。
して、輪郭線追跡処理を施して輪郭線抽出画像を作成し
(S324:図8参照)、輪郭線の長さが最大である座
標系列の抽出を行う。この座標系列より、輪郭線の平滑
化処理として多角形近似(S326)を行う。多角形近
似には区分的直線近似法を用いる。 (区分的直線近似法)区分的直線近似法とは、ある線分
近似パラメータεを導入した以下の手順のアルゴリズム
で実現されている(長谷川他「画像処理の基本技法−技
術入門編−」(技術評論社 1986年発行)参照)。
図9は、その動作原理を示したもので(a)(b)
(c)(d)という順で処理されている。 1.まず、輪郭線図形の追跡開始点Aから追跡順に直線
線分で結んでいき、その直線線分から最も離れた点Cを
見つけ、その最大距離hが近似値εより大きければ、そ
の点で2つの直線AC,直線CBに分割する。最大距離
hが近似値εより小さければ手順終了。 2.次に、分割した各々の部分線AC,BCに対し、1
と同様の手順を用いて分割を繰り返す。図9(b)の例
では、直線ACで、再度最大距離hが近似値εより大き
い点Dが見出されているので、直線ADと直線DCに分
割している(図9(c)参照)。 3.分割されたどの直線線分に対しても最大距離がεを
越えなければ分割操作を停止し(図9(c)参照)、分
割点で結ばれた多角形が求める線図形として手順終了
(図9(d)参照)。 区分的近似法は、線分近似パラメータ値εを適当に設定
することにより滑らかさの具合も調整できる。
によって、フレーム上での手領域面積が異なるため、一
定の線分近似パラメータでは適切な近似ができない。そ
こで本発明の実施形態では、手領域の面積によりそれぞ
れの線分近似パラメータを決定し、奥行き値の影響を軽
減する適切な近似ができるようにした。本発明の実施形
態で用いた近似パラメータの例を表1に示す。
多角形近似画像の例を図10に示す。
に対して、スキャン・コンバージョンのアルゴリズムを
用いて多角形近似画像の塗りつぶし処理(S326)を
おこない、得られた画像(図11参照)を手領域抽出画
像として決定する(S328)。スキャン・コンバージ
ョンは、例えば、阿部圭一「OAのための図面・文書画
像処理4 図形の追跡」(画像ラボ,pp.52−5
5,1999)に記載されている。 (手領域細線画像の生成)得られた手領域抽出画像を用
いて手領域細線画像を生成する(図2のS206)。手
領域抽出画像に対して細線化を行う。細線化のアルゴリ
ズムは、例えば横井他「標本化された2値図形のトポロ
ジカルな性質について」(電子通信学会論文誌(D),
J56−D,42,pp.662−669,1973)
に記載のものを用いた。得られた細線化画像には、図1
2に示すように指先などに小さな枝が付いている場合が
多く、この後の処理に不都合が生じる。そこで枝の除去
処理を行う。枝の除去を行った細線化画像を手領域細線
画像とする(図13)。 (指の本数認識:S208)認識用画像を生成するとと
もに、伸びている指の本数を求める。手領域抽出過程で
得られた輪郭線抽出画像に対して、手領域抽出で用いた
線分近似パラメータとは別の値(表2参照)の線分近似
パラメータεで多角形近似を行う。
から成る多角形である。そこでn個の点を近似点と呼
び、図14に示す様に、近似点をx0,x1,・・・,
xi− 1,xi,・・・,xn−1と置いて、ベクトル
xixi+1,ベクトルxix i−1の成す角をθiと
する。ここでベクトルxixi+1=(a1,a2),
ベクトルxixi−1=(b1,b2)とすると、θi
は次の式で求められる。
れる角が求まる。ここでθi≦60°であるものを特徴
点として抽出しその数を算出する。しかし、上述の式を
用いて内角を求めると、多角形の内角が180°以上の
ものも抽出されてしまう。これは、180°以上の内角
θは、上述の式では360°−θとして計算され、実質
的に多角形の内角が180°以上のものも抽出されてし
まうことになる。そこで、図15に示すように、三角形
△pi−1pipi+1の符号付き面積(例えば、浅野
哲夫「計算幾何学」pp.73−79 朝倉書店,19
90年参照)を用いて180°以上の内角を持つ頂点の
検出を行い、180°以上の内角を持つ角を特徴点とし
て抽出しない処理を行う。算出された特徴点の数より指
の本数の認識を行う。特徴点の個数と指の本数との対応
は表3に示す。このとき指が0本と5本に認識された場
合は、処理を終了する。
500枚に対して、認識率は約99%である。
種類の認識用画像より指領域の抽出を行い、認識に必要
な画像特徴を抽出する。手領域抽出画像からは手指の太
さといった手の見かけ特徴を抽出し、手領域細線画像か
らは手の骨格的特徴である座標特徴を抽出する。 (手の方向ベクトルの決定:S210)手領域細線画像
(図13参照)から手の方向ベクトルを決定する。以下
に指ベクトルの抽出方法を説明する。1.手領域抽出細
線画像から端点(xn0,yn0)(n=0,1…,
N)を求める。ここで、各端点は対応する指先に存在す
る。端点から分岐点または交差点までの線分Snを抽出
し、指候補線分とする(図16参照)。2.各線分Sn
を区分的直線近似法を用いて折れ線近似し、屈折点を
(xnm,ynm)とする。但し、mは端点側より1,
2,…とする。折れ線近似する必要のない線分では、分
岐点または交差点を屈折点(xn1,yn1)として抽
出する。また、このときの線分近似パラメータεの値を
7.0とした。3.各線分Snにおいて、端点
(xn0,yn0)と、近似された直線において端点に
最も近い屈折点(xnl,yn1)とを用いて各指ベク
トルvnを求める(図17参照)。但し、vn=(x
n0−xn1,yn0−yn1)である。4.以下の式
を用いて、各指の方向ベクトルの和をとり、手の方向ベ
クトルvとする(図18参照)。ただし、Nは指の数で
ある。
であり、画像中の手領域全体の方向より、手首から指先
の方向のベクトルの方が重要である。この手順により求
められた手の方向ベクトルは、指の領域候補より求めら
れているために、手首の曲がり具合に影響されず、手首
から指先の方向を求めることができる。 (指領域の決定:S212)得られた手の方向ベクトル
に対して垂直に画像走査し、画像走査とともに画像中の
手領域のラン長のヒストグラム(以下ラン・ヒストグラ
ムとする)を作成する(図19参照)。各指の太さは、
手首や掌の太さとは大きく異なる。そのため、手の方向
ベクトルに対して垂直に画像を走査すると、指・手首・
掌を横切ることによって定まるランの長さは、指の部分
とその他の部分で大きく異なる。そこで、図20に示す
様なラン・ヒストグラムを作成して、指領域とそうでな
い領域とを分割するための閾値となるラン長を、判別分
析法により決定することができる。判別分析法は、例え
ば大津展之「判別および最小2乗基準に基づく自動しき
い値選定法」電子通信学会論文誌,J−63D,p.3
49,1980に記載されている。
れた閾値を用いて、指領域を抽出する。再度、手の方向
ベクトルに対して垂直に画像走査を行い、図21に示す
ように、画像中の手領域のランが閾値より短い場合、そ
れを指領域として抽出する。図22の白い部分が抽出さ
れた指領域である。また、図22(a)〜(d)に示さ
れた指領域のランヒストグラムと決定された閾値を図2
3(a)〜(d)に示す。しかし、すべての場合この判
別分析法が適用されるとは限らない。判別分析法の特性
上、例えば指が1本のときなどは、閾値が決定されない
場合がある。その場合はランの最長の1/3より小さい
領域を指領域として抽出する。得られた指領域抽出画像
より、手領域細線画像から指領域を抽出する。抽出は、
指領域抽出画像と手領域細線画像の論理積をとるだけな
のだが、そのとき本来の指の本数より多くの線分数が抽
出されてしまう場合がある。そこで指の本数認識(S2
08)の結果を用い、指の本数と指領域線分が一致する
ように、指領域線分の長さが小さいものを取り除く処理
を行う。得られる画像を図24に示す。
理過程より得られた画像より、以下の画像特徴を抽出
し、認識パラメータとする。これらの認識パラメータを
用いて認識関数を作成し、どの指が伸びているのかを認
識する。 ・指領域のランの平均長 ・各指線分の長さ ・各指同士の間隔 ・掌に対する指の位置情報 以下に、画像特徴から認識パラメータを抽出する過程
(S216)を示す。指領域のランの平均長を求めるに
は、抽出する画像特徴である各指線分の長さ、各指同士
の間隔、掌に対する指の位置情報を数値化する時、画像
中の手の大きさ、つまりカメラと手の位置により値が異
なるため、正規化する必要がある。そこで正規化値を求
めるため、抽出された指領域(図22参照)に対し、図
25に示す様に、手の方向ベクトルvに垂直な画像走査
を行い、指領域のランヒストグラムを作成する。得られ
たランヒストグラムの平均値を求め、これを指領域のラ
ンの平均長とし、正規化値Tとする。
において、図26に示すように、指にあたる各線分の両
端点を結ぶ直線の長さをLn(n=1,2,…,N)と
する。これを指領域のラン平均長Tを用いて正規化す
る。正規化には次式を用い、正規化後の指の長さFl n
(n=1,2,…,N)を求める。
手順を以下に示す。 1.指領域抽出細線画像において、手の方向ベクトルv
を用いて、各線分の指の根本に対応する座標を検出す
る。 2.得られた指の根本座標を近似する直線Aを最小2乗
法により求める(図27(a)参照)。 3.直線Aに対して垂直かつ指の根本座標を通る直線B
n(n=1,2,…,N)を求める(図27(b)参
照)。 4.直線Aと直線Bn(n=1,2,…N)の交点C
n(n=1,2,…,N)を求め、CnとCn+1の長
さを指同士の間隔とする。 5.得られた間隔を指領域のラン平均長Tを用いて正規
化を行う。
の位置情報を求める手順を以下に示す。まず、掌の位置
線分の決定するために、手領域抽出画像に対して、手の
方向ベクトルvに垂直な画像走査を行う。ラン長が最大
である部分を画像走査によって検出し、その部分を掌の
位置線分とする(図28(a)参照)。また、得られた
位置線分の両端点をそれぞれ端点L,端点Rとする。 (指の位置の決定)得られた掌の位置線分に対して、指
の根本座標から垂線を降ろし、掌の位置線分との交点座
標を求める(図28(b)参照)。図28(b)に示さ
れる様に、指の位置情報は、交点と掌の位置線分の両端
点L、Rからの距離により求める。また、他のパラメー
タ同様、指領域のランの平均長Tを用いて正規化を行
う。 <認識パラメータの特徴>認識パラメータから得られる
特徴について述べ、これらの特徴を用いて認識を行う
(S216)。
指の長さに違いがある。図29(a)のように指が5本
の時、図29(b)のグラフに示す様に、親指と小指は
その他の指の長さに比べ短いという特徴が現れる。ま
た、図30のグラフは、指が5本の時の統計データを示
す(但し、データ数は47である)。統計データからも
親指と小指がその他の指の長さに比べ短いということが
分かる。しかし、この関係は、図3,図4に示した手の
各形状において異なるため、全ての形状のデータを分析
し、指の長さ特徴として用いる必要がある。図29
(b)、図30において、×印は正規化後の指の長さf
lnを表し、折れ線部は同じ画像の各指の長さ関係を示
している。
に指の組合せ方によって指同士の間隔は異なる。例え
ば、図31(a)と図31(b)では、指の組合せ方の
違いから、指の間隔特徴も異なる。そこで、前に述べた
方法で、指の間隔を数値化することにより、指の組合せ
を限定することができ、認識に用いることができる。 (掌に対する指の位置特徴)図32に示すように、どの
指のが伸びているかによって指の位置情報が異なる。図
32(a)は、端点Lから最左の交点の距離が小さく、
端点Rから最右の交点の距離が大きい。この特徴より小
指が伸びている確率が高く、親指または人指し指が伸び
ている確率が低いことが分かる。また、図32(b)は
端点Lから最左の交点の距離が小さく、端点Rからの最
右の交点の距離が大きい。この特徴より小指の伸びてい
る確率が小さく、親指または人指し指の伸びている確率
が高いことが分かる。このように、上述の様にして用い
た各認識パラメータを用いて、どの指が立っているかを
認識する。
的な認識手順の例を図33〜図37に示す。どの指が立
っているかの認識は、指の本数認識処理(S208)よ
り認識した、立っている指の本数毎に行われている。図
33には1本の指が立っている場合の認識手順、図34
には2本の指が立っている場合の認識手順、図35,3
6は3本の指が立っている場合の認識手順、図37には
4本の指が立っている場合の認識手順が示されている。
示されている手順は、条件欄に示されている条件が、満
たされているか、満たされないかにより、認識結果又は
どの手順にジャンプするかを示している。認識結果が示
されている場合は、認識手順を終了する。これらの認識
手順では、認識結果は、立っている指を図3,図4に示
したような2進法で示している。右の掌をカメラに向け
て、小指が左側,親指が右側に映っている画像を認識し
ている。左手を認識する場合は、指の番号付け・左右の
解釈を変えればよい。指の太さの平均を1として、手の
左右端からの指の位置や指の長さを表す。
カメラの前で手の形を変えることにより、片手を認識す
ることで32通り、両手だと1024通りの指示等を、
本発明の入力システムを用いて、各種機器に入力するこ
とが可能である。
である。
す図である。
す図である。
チャートである。
する図である。
す図である。
とを説明する図である。
る。
る。
である。
る図である。
示す図である。
示す図である。
示す図である。
を示す図である。
示す図である。
Claims (7)
- 【請求項1】手の画像認識による入力システムであっ
て、 手の画像を入力する画像入力手段と、 該画像入力手段からの手の画像から、手領域部分を塗り
つぶした手領域抽出画像を得る手領域抽出手段と、 該手領域抽出画像から、手領域細線画像を得る手領域細
線画像生成手段と、 前記手領域抽出画像と手領域細線画像とから、立ってい
る指を認識して手の形状を特定する手形状認識手段とを
備え、どの指が立っているかで片手で32通りの形状を
特定することを特徴とする手の画像認識による入力シス
テム。 - 【請求項2】請求項1に記載の入力システムにおいて、 前記手領域抽出手段は、前記手の画像から肌色部分を抽
出して、肌色部分に平滑化処理を行い、平滑化処理後の
前記肌色部分の輪郭線を追跡して輪郭線の長さが最大で
ある座標系列の抽出を行い、抽出した輪郭線に平滑化処
理を行った後、該輪郭線の内部を塗りつぶして手領域抽
出画像を得ることを特徴とする手の画像認識による入力
システム。 - 【請求項3】請求項2に記載の入力システムにおいて、 さらに、前記輪郭線から、指の数を認識する指数認識手
段を備え、 該指数認識手段により、指の数が2〜4のいずれかであ
ると認識したときに、前記手形状認識手段で手形状の特
定を行い、指の数が0又は5であると認識したときは、
前記手形状認識手段による処理を行わないことを特徴と
する手の画像認識による入力システム。 - 【請求項4】請求項1〜3のいずれかに記載の入力シス
テムにおいて、 手形状認識手段は、前記手領域細線画像から手の方向ベ
クトルを求め、求めた該手の方向ベクトルに対して垂直
に前記手領域抽出画像を走査して、手のラン長を求め、
該ラン長により指領域を抽出し、抽出した該指領域を用
いて、前記手領域細線画像から指の部分を抽出すること
で手の形状を認識することを特徴とする手の画像認識に
よる入力システム。 - 【請求項5】請求項1〜4のいずれかに記載の入力シス
テムにおいて、 手形状認識手段は、前記手の形状の認識を行うパラメー
タを正規化して評価することを特徴とする手の画像認識
による入力システム。 - 【請求項6】請求項1〜5のいずれかに記載の入力シス
テムをコンピュータ・システムに構成させるプログラム
を格納した記録媒体。 - 【請求項7】請求項1〜5のいずれかに記載の入力シス
テムをコンピュータ・システムに構成させるプログラ
ム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002154145A JP3863809B2 (ja) | 2002-05-28 | 2002-05-28 | 手の画像認識による入力システム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002154145A JP3863809B2 (ja) | 2002-05-28 | 2002-05-28 | 手の画像認識による入力システム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2003346162A true JP2003346162A (ja) | 2003-12-05 |
| JP3863809B2 JP3863809B2 (ja) | 2006-12-27 |
Family
ID=29771007
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2002154145A Expired - Lifetime JP3863809B2 (ja) | 2002-05-28 | 2002-05-28 | 手の画像認識による入力システム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3863809B2 (ja) |
Cited By (47)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006163662A (ja) * | 2004-12-06 | 2006-06-22 | Nissan Motor Co Ltd | 指本数認識装置および方法 |
| WO2007097548A1 (en) * | 2006-02-20 | 2007-08-30 | Cheol Woo Kim | Method and apparatus for user-interface using the hand trace |
| JP2007276615A (ja) * | 2006-04-06 | 2007-10-25 | Denso Corp | プロンプター方式操作装置 |
| JP2007538318A (ja) * | 2004-05-14 | 2007-12-27 | 本田技研工業株式会社 | サインに基づく人間−機械相互作用 |
| KR100858358B1 (ko) * | 2006-09-29 | 2008-09-11 | 김철우 | 손의 움직임 인식을 이용한 사용자인터페이스 장치 및 방법 |
| JP2009020690A (ja) * | 2007-07-11 | 2009-01-29 | Kyocera Mita Corp | 画像形成装置 |
| JP2009099042A (ja) * | 2007-10-18 | 2009-05-07 | Maeda Jun | オブジェクト操作装置、及び、デジタル画像フレームデータからマーカを特定する方法 |
| JP2009282634A (ja) * | 2008-05-20 | 2009-12-03 | Canon Inc | 情報処理装置及びその制御方法、プログラム、記憶媒体 |
| JP2010504568A (ja) * | 2006-08-25 | 2010-02-12 | レストレーション ロボティクス,インク. | 毛包単位を分類するシステム及び方法 |
| JP2010086367A (ja) * | 2008-10-01 | 2010-04-15 | Sony Corp | 位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置 |
| JP2010134901A (ja) * | 2008-12-08 | 2010-06-17 | Ind Technol Res Inst | 物体端の位置決め方法及びシステム |
| JP2010526391A (ja) * | 2007-05-04 | 2010-07-29 | ジェスチャー テック,インコーポレイテッド | コンパクト・デバイスのためのカメラ・ベースのユーザ入力 |
| KR100977443B1 (ko) | 2008-10-01 | 2010-08-24 | 숭실대학교산학협력단 | 제스쳐 기반의 가전기기 제어장치 및 방법 |
| JP2011022927A (ja) * | 2009-07-17 | 2011-02-03 | Oki Joho Systems:Kk | 手画像認識装置 |
| JP2011054138A (ja) * | 2009-09-04 | 2011-03-17 | Hyundai Motor Co Ltd | 車両用操作装置 |
| JP2011070658A (ja) * | 2009-08-24 | 2011-04-07 | Semiconductor Energy Lab Co Ltd | タッチセンサ及び表示装置 |
| JP2011175347A (ja) * | 2010-02-23 | 2011-09-08 | Nec System Technologies Ltd | 情報処理装置および情報処理方法 |
| JP2011191870A (ja) * | 2010-03-12 | 2011-09-29 | Kddi Corp | 情報端末装置 |
| JP2011198270A (ja) * | 2010-03-23 | 2011-10-06 | Denso It Laboratory Inc | 対象認識装置及びそれを用いた制御装置、並びに対象認識方法 |
| US8319832B2 (en) | 2008-01-31 | 2012-11-27 | Denso Corporation | Input apparatus and imaging apparatus |
| WO2013051681A1 (ja) * | 2011-10-07 | 2013-04-11 | 国立大学法人筑波大学 | 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム |
| JP2013134706A (ja) * | 2011-12-27 | 2013-07-08 | Canon Inc | 情報処理装置、情報処理方法、及びそのプログラム |
| EP2258587A4 (en) * | 2008-03-19 | 2013-08-07 | Denso Corp | OPERATING DEVICE FOR A VEHICLE |
| JP5264007B1 (ja) * | 2012-10-01 | 2013-08-14 | 善郎 水野 | コントローラ |
| US8724862B2 (en) | 2011-04-06 | 2014-05-13 | Fujitsu Limited | Image processing apparatus, image processing method, and non-transitory computer readable storage medium |
| JP2014106754A (ja) * | 2012-11-28 | 2014-06-09 | Nec Soft Ltd | 指方向特定システム、指方向特定方法、及びそのプログラム |
| WO2014128749A1 (ja) * | 2013-02-19 | 2014-08-28 | 株式会社ブリリアントサービス | 形状認識装置、形状認識プログラム、および形状認識方法 |
| EP2787416A1 (en) | 2013-04-02 | 2014-10-08 | Fujitsu Limited | Information operation display system, display program, and display method |
| JP2014206930A (ja) * | 2013-04-15 | 2014-10-30 | オムロン株式会社 | ジェスチャ認識装置、ジェスチャ認識方法、電子機器、制御プログラムおよび記録媒体 |
| US8922483B2 (en) | 2012-08-29 | 2014-12-30 | Alpine Electronics, Inc. | Information system having centrally located camera and gesture recognition |
| JP2015522193A (ja) * | 2012-07-12 | 2015-08-03 | デュアル・アパーチャー・インターナショナル・カンパニー・リミテッド | ジェスチャに基づくユーザインターフェース |
| US9128529B2 (en) | 2013-02-21 | 2015-09-08 | Fujitsu Limited | Image processing device, image processing method |
| EP2924610A2 (en) | 2014-03-24 | 2015-09-30 | Fujitsu Limited | Flesh color detection condition determining apparatus, and flesh color detection condition determining method |
| US9183632B2 (en) | 2010-11-24 | 2015-11-10 | Nec Corporation | Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program |
| US9196042B2 (en) | 2010-11-24 | 2015-11-24 | Nec Corporation | Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program |
| US9224033B2 (en) | 2010-11-24 | 2015-12-29 | Nec Corporation | Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program |
| US9286513B2 (en) | 2012-12-18 | 2016-03-15 | Fujitsu Limited | Image processing apparatus, method, and storage medium |
| JP2016131008A (ja) * | 2014-07-30 | 2016-07-21 | まるおかディジタル株式会社 | 入力装置 |
| US9405182B2 (en) | 2013-01-23 | 2016-08-02 | Fujitsu Limited | Image processing device and image processing method |
| JP2016146176A (ja) * | 2015-02-06 | 2016-08-12 | ゼロックス コーポレイションXerox Corporation | コンピュータ視覚ベースのプロセス認識 |
| US9645735B2 (en) | 2013-04-02 | 2017-05-09 | Fujitsu Limited | Information processing device and information processing method |
| JP2017102598A (ja) * | 2015-11-30 | 2017-06-08 | 富士通株式会社 | 認識装置、認識方法および認識プログラム |
| US9710109B2 (en) | 2014-05-01 | 2017-07-18 | Fujitsu Limited | Image processing device and image processing method |
| US9746966B2 (en) | 2015-03-26 | 2017-08-29 | Fujitsu Limited | Touch detection apparatus, touch detection method, and non-transitory computer-readable recording medium |
| US9870059B2 (en) | 2014-02-14 | 2018-01-16 | Fujitsu Limited | Hand detection device and hand detection method |
| US9874938B2 (en) | 2014-11-10 | 2018-01-23 | Fujitsu Limited | Input device and detection method |
| US9916042B2 (en) | 2015-01-29 | 2018-03-13 | Fujitsu Limited | Fingertip position estimation apparatus and method |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101167784B1 (ko) | 2010-07-09 | 2012-07-25 | 성균관대학교산학협력단 | 단말기의 후면부 손가락 움직임에 따른 포인터 인식 방법 및 제어 명령어 인식 방법 |
| KR101189633B1 (ko) * | 2011-08-22 | 2012-10-10 | 성균관대학교산학협력단 | 손가락 움직임에 따른 포인터 제어명령어 인식 방법 및 손가락 움직임에 따라 포인터를 제어하는 모바일 단말 |
| JP6221505B2 (ja) | 2013-08-22 | 2017-11-01 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
-
2002
- 2002-05-28 JP JP2002154145A patent/JP3863809B2/ja not_active Expired - Lifetime
Cited By (60)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007538318A (ja) * | 2004-05-14 | 2007-12-27 | 本田技研工業株式会社 | サインに基づく人間−機械相互作用 |
| JP2011065652A (ja) * | 2004-05-14 | 2011-03-31 | Honda Motor Co Ltd | サインに基づくマンマシンインタラクション |
| JP2006163662A (ja) * | 2004-12-06 | 2006-06-22 | Nissan Motor Co Ltd | 指本数認識装置および方法 |
| WO2007097548A1 (en) * | 2006-02-20 | 2007-08-30 | Cheol Woo Kim | Method and apparatus for user-interface using the hand trace |
| JP2007276615A (ja) * | 2006-04-06 | 2007-10-25 | Denso Corp | プロンプター方式操作装置 |
| JP2010504568A (ja) * | 2006-08-25 | 2010-02-12 | レストレーション ロボティクス,インク. | 毛包単位を分類するシステム及び方法 |
| KR100858358B1 (ko) * | 2006-09-29 | 2008-09-11 | 김철우 | 손의 움직임 인식을 이용한 사용자인터페이스 장치 및 방법 |
| US8472665B2 (en) | 2007-05-04 | 2013-06-25 | Qualcomm Incorporated | Camera-based user input for compact devices |
| JP2010526391A (ja) * | 2007-05-04 | 2010-07-29 | ジェスチャー テック,インコーポレイテッド | コンパクト・デバイスのためのカメラ・ベースのユーザ入力 |
| JP2009020690A (ja) * | 2007-07-11 | 2009-01-29 | Kyocera Mita Corp | 画像形成装置 |
| JP2009099042A (ja) * | 2007-10-18 | 2009-05-07 | Maeda Jun | オブジェクト操作装置、及び、デジタル画像フレームデータからマーカを特定する方法 |
| US8319832B2 (en) | 2008-01-31 | 2012-11-27 | Denso Corporation | Input apparatus and imaging apparatus |
| EP2258587A4 (en) * | 2008-03-19 | 2013-08-07 | Denso Corp | OPERATING DEVICE FOR A VEHICLE |
| US8917245B2 (en) | 2008-05-20 | 2014-12-23 | Canon Kabushiki Kaisha | Information processing apparatus and control method thereof |
| JP2009282634A (ja) * | 2008-05-20 | 2009-12-03 | Canon Inc | 情報処理装置及びその制御方法、プログラム、記憶媒体 |
| KR100977443B1 (ko) | 2008-10-01 | 2010-08-24 | 숭실대학교산학협력단 | 제스쳐 기반의 가전기기 제어장치 및 방법 |
| JP2010086367A (ja) * | 2008-10-01 | 2010-04-15 | Sony Corp | 位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置 |
| JP2010134901A (ja) * | 2008-12-08 | 2010-06-17 | Ind Technol Res Inst | 物体端の位置決め方法及びシステム |
| US8396300B2 (en) | 2008-12-08 | 2013-03-12 | Industrial Technology Research Institute | Object-end positioning method and system |
| JP2011022927A (ja) * | 2009-07-17 | 2011-02-03 | Oki Joho Systems:Kk | 手画像認識装置 |
| JP2011070658A (ja) * | 2009-08-24 | 2011-04-07 | Semiconductor Energy Lab Co Ltd | タッチセンサ及び表示装置 |
| US9542022B2 (en) | 2009-08-24 | 2017-01-10 | Semiconductor Energy Laboratory Co., Ltd. | Touch sensor and method for driving the same and display device |
| KR101761543B1 (ko) * | 2009-08-24 | 2017-07-26 | 가부시키가이샤 한도오따이 에네루기 켄큐쇼 | 터치 센서 및 터치 센서의 구동 방법 및 표시 장치 |
| JP2011054138A (ja) * | 2009-09-04 | 2011-03-17 | Hyundai Motor Co Ltd | 車両用操作装置 |
| JP2011175347A (ja) * | 2010-02-23 | 2011-09-08 | Nec System Technologies Ltd | 情報処理装置および情報処理方法 |
| JP2011191870A (ja) * | 2010-03-12 | 2011-09-29 | Kddi Corp | 情報端末装置 |
| JP2011198270A (ja) * | 2010-03-23 | 2011-10-06 | Denso It Laboratory Inc | 対象認識装置及びそれを用いた制御装置、並びに対象認識方法 |
| US9224033B2 (en) | 2010-11-24 | 2015-12-29 | Nec Corporation | Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program |
| US9183632B2 (en) | 2010-11-24 | 2015-11-10 | Nec Corporation | Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program |
| US9196042B2 (en) | 2010-11-24 | 2015-11-24 | Nec Corporation | Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program |
| US8724862B2 (en) | 2011-04-06 | 2014-05-13 | Fujitsu Limited | Image processing apparatus, image processing method, and non-transitory computer readable storage medium |
| WO2013051681A1 (ja) * | 2011-10-07 | 2013-04-11 | 国立大学法人筑波大学 | 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム |
| JPWO2013051681A1 (ja) * | 2011-10-07 | 2015-03-30 | 国立大学法人 筑波大学 | 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム |
| US9141873B2 (en) | 2011-12-27 | 2015-09-22 | Canon Kabushiki Kaisha | Apparatus for measuring three-dimensional position, method thereof, and program |
| JP2013134706A (ja) * | 2011-12-27 | 2013-07-08 | Canon Inc | 情報処理装置、情報処理方法、及びそのプログラム |
| JP2015522193A (ja) * | 2012-07-12 | 2015-08-03 | デュアル・アパーチャー・インターナショナル・カンパニー・リミテッド | ジェスチャに基づくユーザインターフェース |
| US9733717B2 (en) | 2012-07-12 | 2017-08-15 | Dual Aperture International Co. Ltd. | Gesture-based user interface |
| US8922483B2 (en) | 2012-08-29 | 2014-12-30 | Alpine Electronics, Inc. | Information system having centrally located camera and gesture recognition |
| WO2014054313A1 (ja) * | 2012-10-01 | 2014-04-10 | Mizuno Yoshiro | コントローラ |
| US9448639B2 (en) | 2012-10-01 | 2016-09-20 | Yoshiro Mizuno | Controller |
| JP5264007B1 (ja) * | 2012-10-01 | 2013-08-14 | 善郎 水野 | コントローラ |
| JP2014106754A (ja) * | 2012-11-28 | 2014-06-09 | Nec Soft Ltd | 指方向特定システム、指方向特定方法、及びそのプログラム |
| US9286513B2 (en) | 2012-12-18 | 2016-03-15 | Fujitsu Limited | Image processing apparatus, method, and storage medium |
| US9405182B2 (en) | 2013-01-23 | 2016-08-02 | Fujitsu Limited | Image processing device and image processing method |
| WO2014128749A1 (ja) * | 2013-02-19 | 2014-08-28 | 株式会社ブリリアントサービス | 形状認識装置、形状認識プログラム、および形状認識方法 |
| US10295826B2 (en) | 2013-02-19 | 2019-05-21 | Mirama Service Inc. | Shape recognition device, shape recognition program, and shape recognition method |
| JPWO2014128749A1 (ja) * | 2013-02-19 | 2017-02-02 | 株式会社ブリリアントサービス | 形状認識装置、形状認識プログラム、および形状認識方法 |
| US9128529B2 (en) | 2013-02-21 | 2015-09-08 | Fujitsu Limited | Image processing device, image processing method |
| EP2787416A1 (en) | 2013-04-02 | 2014-10-08 | Fujitsu Limited | Information operation display system, display program, and display method |
| US9645735B2 (en) | 2013-04-02 | 2017-05-09 | Fujitsu Limited | Information processing device and information processing method |
| JP2014206930A (ja) * | 2013-04-15 | 2014-10-30 | オムロン株式会社 | ジェスチャ認識装置、ジェスチャ認識方法、電子機器、制御プログラムおよび記録媒体 |
| US9870059B2 (en) | 2014-02-14 | 2018-01-16 | Fujitsu Limited | Hand detection device and hand detection method |
| EP2924610A2 (en) | 2014-03-24 | 2015-09-30 | Fujitsu Limited | Flesh color detection condition determining apparatus, and flesh color detection condition determining method |
| US9710109B2 (en) | 2014-05-01 | 2017-07-18 | Fujitsu Limited | Image processing device and image processing method |
| JP2016131008A (ja) * | 2014-07-30 | 2016-07-21 | まるおかディジタル株式会社 | 入力装置 |
| US9874938B2 (en) | 2014-11-10 | 2018-01-23 | Fujitsu Limited | Input device and detection method |
| US9916042B2 (en) | 2015-01-29 | 2018-03-13 | Fujitsu Limited | Fingertip position estimation apparatus and method |
| JP2016146176A (ja) * | 2015-02-06 | 2016-08-12 | ゼロックス コーポレイションXerox Corporation | コンピュータ視覚ベースのプロセス認識 |
| US9746966B2 (en) | 2015-03-26 | 2017-08-29 | Fujitsu Limited | Touch detection apparatus, touch detection method, and non-transitory computer-readable recording medium |
| JP2017102598A (ja) * | 2015-11-30 | 2017-06-08 | 富士通株式会社 | 認識装置、認識方法および認識プログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| JP3863809B2 (ja) | 2006-12-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3863809B2 (ja) | 手の画像認識による入力システム | |
| CN107038424B (zh) | 一种手势识别方法 | |
| Sarkar et al. | Hand gesture recognition systems: a survey | |
| JP4332649B2 (ja) | 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体 | |
| Gurav et al. | Real time finger tracking and contour detection for gesture recognition using OpenCV | |
| Hasan et al. | Hand gesture modeling and recognition using geometric features: a review | |
| US9128530B2 (en) | Hand pointing estimation for human computer interaction | |
| Nair et al. | Hand gesture recognition system for physically challenged people using IOT | |
| Wen et al. | A robust method of detecting hand gestures using depth sensors | |
| JP6066093B2 (ja) | 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム | |
| JPH10214346A (ja) | ハンドジェスチャ認識システムおよび方法 | |
| Abe et al. | Virtual 3-D interface system via hand motion recognition from two cameras | |
| Hussain et al. | Hand gesture recognition system with real-time palm tracking | |
| CN107679512A (zh) | 一种基于手势关键点的动态手势识别方法 | |
| CN106200971A (zh) | 基于手势识别的人机交互系统装置及操作方法 | |
| JP6651388B2 (ja) | ジェスチャモデリング装置、ジェスチャモデリング方法、ジェスチャモデリングシステム用のプログラム、およびジェスチャモデリングシステム | |
| Itkarkar et al. | A survey of 2D and 3D imaging used in hand gesture recognition for human-computer interaction (HCI) | |
| JP2009288917A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
| Weerasekera et al. | Robust asl fingerspelling recognition using local binary patterns and geometric features | |
| JP2005351814A (ja) | 検出装置および検出方法 | |
| Caplier et al. | Comparison of 2D and 3D analysis for automated cued speech gesture recognition | |
| Tofighi et al. | Rapid hand posture recognition using adaptive histogram template of skin and hand edge contour | |
| Xu et al. | Bare hand gesture recognition with a single color camera | |
| US20210158565A1 (en) | Pose selection and animation of characters using video data and training techniques | |
| Itkarkar et al. | A study of vision based hand gesture recognition for human machine interaction |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20031031 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20040129 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040604 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060926 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060929 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101006 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111006 Year of fee payment: 5 |
|
| S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
| R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
| R370 | Written measure of declining of transfer procedure |
Free format text: JAPANESE INTERMEDIATE CODE: R370 |
|
| S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121006 Year of fee payment: 6 |