JP2008112360A - User interface device - Google Patents
User interface device Download PDFInfo
- Publication number
- JP2008112360A JP2008112360A JP2006295800A JP2006295800A JP2008112360A JP 2008112360 A JP2008112360 A JP 2008112360A JP 2006295800 A JP2006295800 A JP 2006295800A JP 2006295800 A JP2006295800 A JP 2006295800A JP 2008112360 A JP2008112360 A JP 2008112360A
- Authority
- JP
- Japan
- Prior art keywords
- face
- user
- orientation
- change
- input processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008859 change Effects 0.000 claims abstract description 36
- 238000000034 method Methods 0.000 claims description 33
- 230000008569 process Effects 0.000 claims description 24
- 238000001514 detection method Methods 0.000 abstract description 3
- 230000010365 information processing Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、画像入力を利用したユーザインタフェイス技術に関する。 The present invention relates to a user interface technique using image input.
例えばゲーム装置では、コントローラの上下左右方向キーやアナログスティックなどを操作してゲームの入力とすることが広く行われている(特許文献1)。最近では技術革新が進み、コントローラを振ったり回転させたりしてゲームをプレイすることも可能になっている。
本発明者は現状のコントローラについて次に示す課題を認識している。すなわち、方向キーの操作により例えばポインタを移動しようとすると、移動に時間がかかり、使い勝手が良いとはいえない。また、アナログスティックはセンターに戻ろうとする力が働き操作しにくい場合もある。さらに、コントローラを振ったり回転させたりする動作は1人でやると寂しいと感じられることもあるし、疲れるため長時間継続することが難しい場合もある。このように、現状のコントローラはユーザにおける利便性の面で改善の余地もある。 The present inventor has recognized the following problems with current controllers. That is, for example, if the pointer is moved by the operation of the direction key, it takes time to move, and it cannot be said that it is convenient. Also, the analog stick may be difficult to operate due to the force of returning to the center. Furthermore, the operation of shaking or rotating the controller may be felt lonely by one person, or it may be difficult to continue for a long time due to fatigue. Thus, the current controller has room for improvement in terms of user convenience.
本発明はこうした状況を認識してなされたものであり、その目的は、新たなユーザインタフェイス装置を提供し、ユーザにおける利便性を高めることにある。 The present invention has been made in recognition of such a situation, and an object of the present invention is to provide a new user interface device and improve convenience for the user.
本発明のある態様は、ユーザインタフェイス装置に関し、ユーザの顔画像をもとにユーザの顔の向きを推定し、その推定結果に応じて所定の入力処理を実行するものである。また、別の態様は、顔の向きに替えて顔の向きの変化に着目し、所定の入力処理を実行するものである。なお、これらの態様を、方法もしくはシステム、コンピュータプログラム、記録媒体などの間で変換したものもまた本発明として有効である。 An aspect of the present invention relates to a user interface device, which estimates the orientation of a user's face based on a user's face image and executes a predetermined input process according to the estimation result. In another aspect, a predetermined input process is executed by paying attention to a change in the face orientation instead of the face orientation. In addition, what converted these aspects between the method or system, a computer program, a recording medium, etc. is also effective as this invention.
本発明のユーザインタフェイス装置によれば、ユーザにおける利便性を高めることができる。 According to the user interface device of the present invention, convenience for the user can be enhanced.
実施の形態を詳述する前にその概要を以下に示す。
1.ある態様のユーザインタフェイス装置は、撮影されたユーザの顔画像を取得する取得部と、取得された顔画像をもとにユーザの顔の向きを推定する推定部と、推定された顔の向きに応じて所定の入力処理を実行する入力処理部とを備える。ここで、「所定の入力処理」とは、本装置に対してユーザの意思を何らかの形で反映させることをいい、必ずしも入力の確定動作を伴う必要はない。
Before describing the embodiment in detail, an outline thereof is shown below.
1. A user interface device according to an aspect includes an acquisition unit that acquires a photographed user's face image, an estimation unit that estimates a user's face direction based on the acquired face image, and an estimated face direction And an input processing unit that executes predetermined input processing according to the above. Here, the “predetermined input process” means that the intention of the user is reflected in some form on the apparatus, and does not necessarily need to be accompanied by an input determining operation.
2.別の態様では、複数回に亘って撮影されたユーザの顔画像を順次取得する取得部と、取得された顔画像をもとにユーザの顔の向きを順次推定する推定部と、順次推定された顔の向きの変化に応じて所定の入力処理を実行する入力処理部とを備える。当該装置はさらに、顔の向きの変化とその意味内容に応じた入力処理との関係を記述するテーブルを備え、入力処理部は、そのテーブルを参照することにより、顔の向きの変化が表す意味内容に応じた入力処理を実行してもよい。 2. In another aspect, an acquisition unit that sequentially acquires a user's face image taken a plurality of times, an estimation unit that sequentially estimates a user's face direction based on the acquired face image, and And an input processing unit that executes predetermined input processing in accordance with the change in the face orientation. The apparatus further includes a table describing the relationship between the change in face orientation and the input processing according to the meaning content, and the input processing unit refers to the table to indicate the change in face orientation. You may perform the input process according to the content.
3.さらに別の態様では、複数回に亘って撮影されたユーザの顔画像を順次取得する取得部と、初回に取得された顔画像の注目部位の位置を顔画像内の部位の位置関係を利用して特定する注目部位特定部と、特定された注目部位を含む部分画像をテンプレート画像として、2回目以降に取得された顔画像の注目部位の位置をテンプレート画像を用いたマッチングによって追跡することにより顔の向きの変化を検出するトラッキング部と、顔の向きの変化とその意味内容に応じた入力処理との関係を記述するテーブルと、そのテーブルを参照することにより、顔の向きの変化が表す意味内容に応じた入力処理を実行する入力処理部とを備える。ここで「初回」とは必ずしも第1回の撮影に限られない。あくまでも、最初に注目部位を特定するために利用される撮影であればよく、以降のトラッキング処理から見ればそれよりも先になされるため初回と呼ばれるに過ぎない。 3. In yet another aspect, an acquisition unit that sequentially acquires a user's face image photographed multiple times, and a position of a target region of the face image acquired for the first time using a positional relationship of the region in the face image. By tracking the position of the target region of the face image acquired for the second time or later by matching using the template image, using the target region specifying unit to be identified and the partial image including the specified target region as the template image The tracking unit that detects the change in the orientation of the face, a table that describes the relationship between the change in the orientation of the face and the input processing according to the meaning content, and the meaning that the change in the orientation of the face represents by referring to the table An input processing unit that executes input processing according to the content. Here, the “first time” is not necessarily limited to the first shooting. To the last, it is sufficient that the imaging is used for specifying the region of interest first, and it is only called the first time because it is performed earlier than the subsequent tracking processing.
いずれの態様も、顔に特有の性質に注目したものである。すなわち、例えば手では、時と場合によって形状および位置がいろいろ変化するため画像認識において捕らえにくい。また、可動範囲が広いことが災いして「向き」を定義することが困難である。その点、顔であれば、形状の変化が比較的少なく可動範囲も限られているため、画像認識で位置の特定が容易で、「向き」も定義できる。本発明者は顔に特有のこのような性質に気づき、ユーザインタフェイス装置において顔の向きあるいはその変化を入力処理に反映させるという技術に想到した。 Each aspect pays attention to the characteristic peculiar to the face. That is, for example, with a hand, the shape and the position change variously depending on time and circumstances, so that it is difficult to capture in image recognition. In addition, it is difficult to define the “direction” due to the wide movable range. On the other hand, if it is a face, the change in shape is relatively small and the movable range is limited. Therefore, the position can be easily identified by image recognition, and the “direction” can be defined. The present inventor has noticed such a characteristic unique to the face, and has come up with a technique for reflecting the orientation of the face or a change thereof in the input process in the user interface device.
以下、図面を参照しながら本発明の好適な実施の形態を詳述する。なお、各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付し、適宜重複した説明は省略する。また、実施の形態は発明を限定するものではなく例示であり、実施の形態に記述されるすべての特徴やその組み合わせは必ずしも発明の本質的なものであるとは限らない。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In addition, the same code | symbol is attached | subjected to the same or equivalent component, member, and process which are shown by each drawing, and the overlapping description is abbreviate | omitted suitably. In addition, the embodiments do not limit the invention but are exemplifications, and all features and combinations thereof described in the embodiments are not necessarily essential to the invention.
図1は、実施の形態にかかるユーザインタフェイス装置を用いた情報処理システム1の使用環境を例示する概念図である。このユーザインタフェイス装置は、情報処理システム1の一部を構成するコンピュータ10によりその機能が実現される。情報処理システム1は、ユーザインタフェイス装置100の他に、デジタルカメラ2と、ディスプレイ3とを備える。
FIG. 1 is a conceptual diagram illustrating a use environment of an
デジタルカメラ2は、ディスプレイ3の前にいるユーザの顔画像を撮影可能な位置に設けられる。図1では、デジタルカメラ2がディスプレイ3の上に設けられた場合を例示している。なお、デジタルカメラ2による撮影画像は、所定のフレームレートの動画であってもよいし、静止画の連続であってもよい。本実施の形態ではそれが動画であるものとして説明する。ディスプレイ3は、特に限定されないが、コンピュータ10の制御に応じて例えばソフトウェアキーボードやメニュー画面などを表示する。コンピュータ10は、後述のように、デジタルカメラ2による撮影画像すなわちユーザの顔画像に応じた入力処理を実行する。
The
図2は、図1に示されるコンピュータ10において実現されるユーザインタフェイス装置100の機能ブロック図である。ここに示す各ブロックは、ハードウェア的にはコンピュータのCPUをはじめとする素子や機械装置で実現され、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。これらの機能ブロックがハードウェアやソフトウェアの組み合わせによっていろいろなかたちで実現できることは当業者に理解されるところである。
FIG. 2 is a functional block diagram of the
ユーザインタフェイス装置100は、バッファ11と、取得部12と、推定部14と、入力処理部16と、テーブル18とを備える。バッファ11は、既知の手法によりデジタルカメラ2の撮影画像をフレームごとに一時記憶する。取得部12は、推定部14によるによる処理のために、バッファ11に記憶された画像をフレームごとに順次読み出す。推定部14は、顔認識部20と、注目部位特定部22と、トラッキング部24とを含む。
The
顔認識部20は、取得部12の取得画像においてユーザの顔にあたる画像領域を認識する。以下、取得画像における顔にあたる画像領域を「顔領域」、顔領域を含む画像を「顔画像」と表記する。顔領域の認識には、ブースティングやサポートベクターマシン等の公知のパターン認識技術を用いればよい。例えば、数十から数百種類の顔画像を合成した基準画像をあらかじめ用意しておき、顔認識部20は、取得画像中に矩形領域を設定し、基準画像とその矩形領域の画像を比較して画像としての類似度を数値化する。取得画像中にさまざまな矩形領域を設定して類似度を算出することにより、取得画像中の「顔らしい」領域を顔領域として特定する。なお、顔認識部20は、取得部12の取得画像の中に顔領域を認識できなければ、次の取得画像の顔領域を認識する。これらの処理は顔領域が認識されるまで繰り返される。
The
注目部位特定部22は、顔認識部20が認識した顔領域のうちの注目部位を特定する。本実施の形態では、顔領域のうちの鼻にあたる領域(以下「鼻領域」と表記)を認識し、これを注目部位として特定する。鼻領域の認識は顔領域の場合と同様にしてもよいし、顔領域の中央部分を単純に鼻領域と認識してもよい。あるいは、比較的容易に特定できる両目の位置を先に特定し、両目を結ぶ線の中央部分の下方にあたる所定範囲を鼻領域と認識してもよい。すなわち、顔画像内の部位の位置関係を利用して鼻領域を認識してもよい。図3に鼻領域を例示する。破線で囲まれた矩形領域が鼻領域である。目や口と異なり鼻は閉じたり開いたりしないため、本実施の形態では鼻領域を注目部位として特定することとしている。これにより、トラッキング部24による追跡が容易となる。
The attention
図2に戻り、トラッキング部24は、注目部位特定部22により注目部位すなわち鼻領域が特定されたフレーム(以下「初回フレーム」と表記)の後の各フレーム(以下「後続フレーム」と表記)において鼻領域を追跡することによりユーザの顔の向きを順次推定し、その変化を検出する。本実施の形態では「顔の向き」は、デジタルカメラ2に対してユーザの顔が正対したときのものを基準とする。鼻領域の追跡には公知のテンプレートマッチングを用いればよい。具体的には、初回フレームにおける鼻領域を含む部分画像をテンプレート画像として、後続フレームの鼻領域の位置をそのテンプレート画像を用いたマッチングによって追跡する。ここで、後続フレームの全領域についてマッチングを実行する必要はなく、顔の可動範囲をもとに、初回フレームにおける鼻領域の周辺部分についてのみマッチングを実行すれは足りる。なお、初回フレームにおける鼻領域を含む部分画像を一貫してテンプレート画像として利用することに替えて、テンプレート画像を順次更新してもよい。
Returning to FIG. 2, the
このように、推定部14は、取得部12により順次取得されたユーザの顔画像をもとにユーザの顔の向きを順次推定し、その変化を検出する。
テーブル18は、顔の向きの変化とその意味内容に応じた入力処理との関係を記述している。入力処理部16は、テーブル18を参照することにより、トラッキング部24により検出された顔の向きの変化が表す意味内容に応じた入力処理を実行する。入力処理の結果はディスプレイ3に出力される。入力処理部16は、また、顔認識部20が顔領域を認識したことをスイッチとして、スクリーンセーバからの復帰やメニュー表示などの入力準備処理をしてもよい。
As described above, the
The table 18 describes the relationship between the change in the orientation of the face and the input processing according to the meaning content. The
テーブル18の記述例、すなわち、顔の向きの変化とその意味内容に応じた入力処理の例をいくつか示す。
(1) ポインタの移動・・・顔の向きの変化に応じて、ディスプレイ3に表示されたポインタを移動させるように入力処理を実行する。例えば、ユーザの顔の向きが右に変化したとき、ディスプレイ3に表示されたポインタがユーザから見て右に移動するように入力処理を実行する。その他の向きへの変化も同様にする。このような入力処理はユーザの直感にも合致しやすいと考えられるため、ユーザにおける利便性の向上が期待される。なお、ポインタに替えてキャラクタを移動させるようにしてもよい。
(2) 「Yes」「No」の選択・・・一般に承諾や同意などの気持ちを表すとき、人は首を縦に振る。一方、不承諾や不同意などの気持ちを表すとき、人は首を横に振る。この点に着目し、ユーザに顔の向きが下に変化して元に戻ったときは、ユーザが「Yes」を選択した場合の入力処理を実行し、顔の向きが左右に変化して元に戻ったときは、ユーザが「No」を選択した場合の入力処理を実行する。これによればユーザは、ディスプレイ3に表示された「Yes」「No」の問いかけに対し、通常の会話時にするのと同じように頷いたり首を横に振ることで、その動作の意味通りの入力処理を得られる。したがって、マウスなどによりポインタを操作して「Yes」「No」を選択する場合と比較してより直感に近い動作で入力を進めることができるため、ユーザにおける利便性の向上が期待される。
(3) 画面のスクロール・・・顔の向きの変化に応じて、ディスプレイ3の表示をスクロールさせるように入力処理を実行する。例えば、ユーザの顔の向きが下に変化したとき、ディスプレイ3の表示を下にスクロールするように入力処理を実行する。その他の向きへの変化も同様にする。コンピュータの操作に不慣れなユーザにとってスクロールの動作は難しいと感じられる場合もあるが、上述のように顔の向きの変化と画面スクロールの向きを対応づけることにより画面スクロールをより直感に近づけることができ、ユーザにおける利便性の向上が期待される。
Some description examples of the table 18, that is, some examples of input processing according to changes in the orientation of the face and the meaning contents thereof will be shown.
(1) Movement of pointer: Input processing is executed so as to move the pointer displayed on the
(2) Selection of “Yes” or “No”: Generally, when expressing feelings such as consent or consent, a person shakes his head vertically. On the other hand, when expressing feelings such as disapproval or disagreement, a person shakes his head. Paying attention to this point, when the user's face orientation changes downward and returns to the original state, input processing when the user selects “Yes” is executed, and the face orientation changes to the left and right. When the process returns to, input processing when the user selects “No” is executed. According to this, in response to the “Yes” and “No” questions displayed on the
(3) Scrolling of screen: Input processing is executed so as to scroll the display on the
図4は、図2に示されるユーザインタフェイス装置100における処理を示すフローチャートである。処理が開始されると、フレームカウント値のiが0にセットされる(S101)。取得部12は、バッファ11からi番目のフレームを取得する(S102)。顔認識部20は、取得されたi番目のフレームについて顔領域の認識を試みる(S104)。顔領域が認識できなかった場合(S106:No)、iがインクリメントされ(S108)、同様の処理が実行される。これらの処理は、顔領域が認識されるまで繰り返される。
FIG. 4 is a flowchart showing processing in the
顔認識部20によりi番目のフレームにおいて顔領域が認識されると(S106:Yes)、注目部位特定部22は、認識された顔領域のうちの鼻領域を注目部位として特定する(S118)。特定された鼻領域を含む部分画像は、トラッキング部24においてテンプレート画像として保持される。
When the
鼻領域の特定後、iがインクリメントされ(S119)、取得部12は、バッファ11からi番目のフレームを取得する(S120)。トラッキング部24は、テンプレート画像を用いたマッチングにより、取得されたフレームについて鼻領域の位置の追跡を試みる(S122)。ここで、鼻領域を見失って追跡できなかった場合(S123:No)、iがインクリメントされ(S124)、S102のステップに戻る。なお、鼻領域を追跡できたか否かはテンプレートマッチングのスコアとスレッショルドとの大小関係で決定できる。
After specifying the nose region, i is incremented (S119), and the
トラッキング部24は、鼻領域の追跡に成功すると(S123:Yes)、追跡結果に基づいて顔の向きの変化の検出を試みる(S126)。顔の向きの変化が検出されなかった場合(S128:No)、iがインクリメントされ(S119)、同様の処理が実行される。これらの処理は、顔の向きの変化が検出されるまで繰り返される。
When the
トラッキング部24によりi番目のフレームにおいてユーザの顔の向きの変化が検出されると(S128:Yes)、入力処理部16は、テーブル18を参照することにより、検出されたユーザの顔の向きの変化が表す意味内容に応じた入力処理を実行する(S130)。
When the
図4では、トラッキング部24が1フレームの追跡ごとに顔の向きの変化の検出を試みる場合を示したが、これに替えて、トラッキング部24は、追跡済みのフレーム数が所定数となるまで追跡を繰り返し、追跡済みフレーム数が所定数となったときに顔の向きの変化の検出を試みてもよい。検出を試みるときの追跡済みフレーム数(以下、「必要フレーム数」)は、入力処理部16において実行すべき入力処理ごとに設定されてもよい。
FIG. 4 shows a case where the
例えば、入力処理部16が「Yes」「No」の選択のような入力処理を実行する場合は、必要フレーム数は多めに設定される。「Yes」「No」の選択のためには、トラッキング部24はユーザの顔の向きの少なくとも2方向の変化を検出しなければならないからである。一方、入力処理部16がポインタの移動や画面のスクロールのような入力処理の場合は、必要フレーム数は少なめに設定される。この場合は顔の向きの1方向の変化を検出すれば足りるためである。
For example, when the
(利用場面1:手を使えないとき)
図1に示される情報処理システム1が自動車工場の端末に用いられている場合を説明する。いま、自動車工場で車を修理している整備士が、工場内のコンピュータを操作してパーツ情報などを参照する場面を考える。このような場面では手が汚れていたり濡れていたりしてコンピュータを手で操作できない場合が多い。本実施の形態によれば、整備士が顔をデジタルカメラ2と正対させれば、コンピュータ10はそれをスイッチとしてディスプレイ3にメニューを表示する。整備士は、顔の向きを変えるだけでパーツ情報を参照できる。したがって、パーツ情報を参照するために手を洗ったりする必要がなくなり、整備士の時間の無駄を抑えうる。
(Situation 1: When you cannot use your hands)
A case where the
(利用場面2:ソフトウェアキーボード)
図1に示される情報処理システム1でソフトウェアキーボードによる入力処理を実行する場合を説明する。従来のようにソフトウェアキーボードで文字を特定する際に方向キーやジョイスティックを使用すると、1文字移動するごとに動きを止めなければならなかったり所望の文字を行き過ぎてしまったりして操作性がよいとはいえない。また、アナログスティックを使用すると真ん中に戻ろうとする力が操作性を悪化させる恐れがある。本実施の形態によれば、ユーザは顔の向きを変えることでマウスのようにアナログ的にポインタを動かすことができるので使い勝手がよい。さらにマウスおよびマウスパッドが不要となる点で省スペース化が期待される。
(Usage scenario 2: Software keyboard)
A case where input processing using a software keyboard is executed in the
(利用場面3:「Yes」または「No」の選択)
図1に示される情報処理システム1をエンタテイメントシステムとして用いる場合を説明する。いま、ユーザがRPG(Role-Playing Game)をプレイしている場面を考える。従来、キャラクタの移動には方向キーやアナログスティックなどが使われ、「Yes」または「No」を選択する場面では○ボタンあるいは×ボタンを押すなどしていた。本実施の形態では、ユーザは、顔の向きを変化させることでキャラクタを動かし画面上をウォークスルーできる。また、別のキャラクタに話しかけられて「Yes」または「No」を選択するとき、ユーザは頷くあるいは首を横に振ることで選択を実行できる。ここで、入力処理部16は、ユーザが所定時間反応を示さなかったことを検知した場合には、選択がなかったものとして自然にゲームを進めることもできる。
(Usage scenario 3: selection of “Yes” or “No”)
A case where the
上述した実施の形態は例示に過ぎず、その種々の変形技術が本発明に含まれることは当業者には容易に理解されるところである。以下、そうした変形技術を例示する。 The above-described embodiments are merely examples, and those skilled in the art will readily understand that various modifications thereof are included in the present invention. Hereinafter, such a modification technique will be exemplified.
実施の形態では主に顔の向きの変化に着目したが、変形技術では顔の向き自体に着目する。トラッキング部24は、後続フレームにおける鼻領域の位置を追跡するまでは実施の形態と同様にし、その後、初回フレームにおける鼻領域の位置と現在のフレームにおける鼻領域の位置とから現在の顔の向きを推定する。用途によっては顔の向きの変化よりも顔の向き自体を入力処理に利用した方が使い勝手がよいと感じられる場合もある。そういった場合には本変形技術が有利である。
Although the embodiment mainly focuses on the change of the face direction, the deformation technique focuses on the face direction itself. The
実施の形態では主としてデジタルカメラ2の撮影画像が動画である場合を説明したが、それは動画でなく静止画であってもよい。推定部14は、初回に撮影された静止画における鼻領域がその後の静止画でどの位置にあるかにより顔の向きを推定することができる。なお、初回に撮影された静止画とは、注目部位特定部22により鼻領域が特定された静止画を意味する。
In the embodiment, the case where the photographed image of the
実施の形態では、注目部位特定部22が顔画像のうちの鼻領域を注目部位として特定する場合を説明した。変形技術では、目や口にあたる領域を注目部位としてもよい。また、目・口・鼻の位置関係の2つあるいは3つを注目部位としてもよい。目や口の場合、トラッキング部24における追跡容易性が鼻ほどではないが、それを克服することで実施の形態と同様の効果が得られる。
In the embodiment, the case has been described where the attention
実施の形態では特に触れなかったが、ユーザが顔の向きを変化させずに顔の位置を変えることもある。ディスプレイ3の表示面に対して並行に顔を動かした場合がそれである。このような場合もユーザインタフェイス装置100は顔の向きが変化したものと推定してそれに応じた入力処理を実行する。例えば、ユーザがディスプレイ3の表示面に対して並行に顔を左に動かした場合、ユーザインタフェイス装置100は、ユーザの顔の向きが左に変化したものと推定し、ポインタを左に移動させるような入力処理を実行する。この入力処理はユーザの直感に合致したものと考えられ、結果的に妥当なものといえる。
Although not particularly mentioned in the embodiment, the user may change the position of the face without changing the orientation of the face. This is the case when the face is moved in parallel with the display surface of the
1・・・情報処理システム、2・・・デジタルカメラ、3・・・ディスプレイ、10・・・コンピュータ、12・・・取得部、14・・・推定部、16・・・入力処理部、18・・・テーブル、20・・・顔認識部、22・・・注目部位特定部、24・・・トラッキング部、100・・・ユーザインタフェイス装置。
DESCRIPTION OF
Claims (4)
取得された顔画像をもとにユーザの顔の向きを推定する推定部と、
推定された顔の向きに応じて所定の入力処理を実行する入力処理部と、
を備えることを特徴とするユーザインタフェイス装置。 An acquisition unit for acquiring a photographed face image of the user;
An estimation unit that estimates the orientation of the user's face based on the acquired face image;
An input processing unit that executes predetermined input processing according to the estimated face orientation;
A user interface device comprising:
取得された顔画像をもとにユーザの顔の向きを順次推定する推定部と、
順次推定された顔の向きの変化に応じて所定の入力処理を実行する入力処理部と、
を備えることを特徴とするユーザインタフェイス装置。 An acquisition unit for sequentially acquiring a user's face image taken multiple times;
An estimation unit that sequentially estimates the orientation of the user's face based on the acquired face image;
An input processing unit that executes a predetermined input process in accordance with a sequentially estimated change in face orientation;
A user interface device comprising:
前記入力処理部は、そのテーブルを参照することにより、顔の向きの変化が表す意味内容に応じた入力処理を実行することを特徴とするユーザインタフェイス装置。 The apparatus according to claim 2, further comprising a table that describes a relationship between a change in face orientation and input processing in accordance with the meaning content thereof.
The user interface device, wherein the input processing unit executes an input process according to a semantic content represented by a change in face orientation by referring to the table.
順次推定された顔の向きの変化に応じて所定の入力処理を実行する機能と、
をコンピュータに発揮させることを特徴とするユーザインタフェイス処理プログラム。 A function of sequentially estimating the orientation of the user's face based on the user's face image taken multiple times;
A function of executing a predetermined input process in accordance with the sequentially estimated change in face orientation;
A user interface processing program characterized by causing a computer to exhibit the above.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006295800A JP2008112360A (en) | 2006-10-31 | 2006-10-31 | User interface device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006295800A JP2008112360A (en) | 2006-10-31 | 2006-10-31 | User interface device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2008112360A true JP2008112360A (en) | 2008-05-15 |
Family
ID=39444830
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2006295800A Pending JP2008112360A (en) | 2006-10-31 | 2006-10-31 | User interface device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2008112360A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2010095190A1 (en) | 2009-02-19 | 2010-08-26 | 株式会社ソニー・コンピュータエンタテインメント | Information processing device and information processing method |
| KR101767643B1 (en) | 2011-09-21 | 2017-08-14 | 현대모비스 주식회사 | Apparatus And Method Identifying Driver And Recognizing Driver Condition Based Microwave |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH09115004A (en) * | 1995-10-13 | 1997-05-02 | Hitachi Ltd | Image generation / display device |
| JPH09305743A (en) * | 1996-05-20 | 1997-11-28 | Toshiba Corp | Human face motion detection method |
| JP2006107283A (en) * | 2004-10-07 | 2006-04-20 | Toshiba Corp | Document creation apparatus, document creation method, and document creation program |
-
2006
- 2006-10-31 JP JP2006295800A patent/JP2008112360A/en active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH09115004A (en) * | 1995-10-13 | 1997-05-02 | Hitachi Ltd | Image generation / display device |
| JPH09305743A (en) * | 1996-05-20 | 1997-11-28 | Toshiba Corp | Human face motion detection method |
| JP2006107283A (en) * | 2004-10-07 | 2006-04-20 | Toshiba Corp | Document creation apparatus, document creation method, and document creation program |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2010095190A1 (en) | 2009-02-19 | 2010-08-26 | 株式会社ソニー・コンピュータエンタテインメント | Information processing device and information processing method |
| US8509484B2 (en) | 2009-02-19 | 2013-08-13 | Sony Corporation | Information processing device and information processing method |
| KR101767643B1 (en) | 2011-09-21 | 2017-08-14 | 현대모비스 주식회사 | Apparatus And Method Identifying Driver And Recognizing Driver Condition Based Microwave |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10592198B2 (en) | Audio recording/playback device | |
| JP5802667B2 (en) | Gesture input device and gesture input method | |
| CN102609085B (en) | Information processing apparatus, method, and program | |
| JP4781181B2 (en) | User interface program, apparatus and method, information processing system | |
| US20060209021A1 (en) | Virtual mouse driving apparatus and method using two-handed gestures | |
| TW201119368A (en) | Image processing device, image processing method, and computer program | |
| US20080016457A1 (en) | Character input device, character input method, and information storage medium | |
| JP6973025B2 (en) | Display devices, image processing devices and programs | |
| JP6270495B2 (en) | Information processing apparatus, information processing method, computer program, and storage medium | |
| JP5538869B2 (en) | Information processing apparatus, control method thereof, and program | |
| JP5589309B2 (en) | Display control apparatus, image processing apparatus, and program | |
| JP5665396B2 (en) | Information processing apparatus and control method thereof | |
| JP2008112360A (en) | User interface device | |
| KR101944454B1 (en) | Information processing program and information processing method | |
| JP2007172303A (en) | Information input system | |
| US20220129109A1 (en) | Information processing apparatus, information processing method, and recording medium | |
| JP6492571B2 (en) | Information processing system, information processing apparatus, screen display method, and program | |
| CN104346123B (en) | Image display device and image display method | |
| WO2011027397A1 (en) | User interface device | |
| JP2010039572A (en) | Character decoration system and character decoration program | |
| JP6365268B2 (en) | Display device, image forming apparatus, display method, and display program | |
| KR20110049162A (en) | Virtual input / output device and method in portable image processor | |
| JP5784260B1 (en) | Information processing program and information processing method | |
| JP2014203084A (en) | Photographic image edition system, program, and control method for the photographic image edition system | |
| JP5248715B1 (en) | Display device and display method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090903 |
|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20101125 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20110127 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110315 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110420 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111220 |