[go: up one dir, main page]

JP2009265709A - 入力装置 - Google Patents

入力装置 Download PDF

Info

Publication number
JP2009265709A
JP2009265709A JP2008110838A JP2008110838A JP2009265709A JP 2009265709 A JP2009265709 A JP 2009265709A JP 2008110838 A JP2008110838 A JP 2008110838A JP 2008110838 A JP2008110838 A JP 2008110838A JP 2009265709 A JP2009265709 A JP 2009265709A
Authority
JP
Japan
Prior art keywords
display area
user interface
graphical user
operator
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008110838A
Other languages
English (en)
Inventor
Yukinori Asada
幸則 浅田
Takashi Matsubara
孝志 松原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2008110838A priority Critical patent/JP2009265709A/ja
Priority to CN2009101336837A priority patent/CN101566914B/zh
Priority to US12/427,858 priority patent/US20090262187A1/en
Publication of JP2009265709A publication Critical patent/JP2009265709A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】入力装置において、できるだけ、ユーザがグラフィカルユーザインタフェースを操作しやすくなるように、グラフィカルユーザインタフェースの表示領域を変更したり、グラフィカルユーザインタフェースの表示領域の基準を変更したりできるようにする。
【解決手段】本発明の入力装置は、操作者を撮像する撮像部と、前記撮像部で撮像された操作者の体の一部を認識する画像認識部と、前記画像認識部で認識された操作者の体の一部を基準にして、操作者が操作を行うためのグラフィカルユーザインタフェースを表示する表示領域を算出する表示領域算出部と、前記表示領域算出部で算出された表示領域内でグラフィカルユーザインタフェースとともに前記操作者の体の一部を表示する表示画面を備える。
【選択図】図2

Description

本発明は、人物の動作を検出して、検出した動作とグラフィカルユーザインタフェースにより、直感的な操作を行うための入力装置あるいはグラフィカルユーザインタフェースの表示方法に関する。
グラフィカルユーザインタフェースを介してユーザの操作を受け付けると同時にユーザに操作結果のフィードバックを与えるパソコンやテレビが普及している。
一方、カメラを搭載したパソコンも普及し始めている。
このような中、ユーザがリモコン等の入力デバイスを手に取ることなく、カメラで撮像されたユーザーの動作により、テレビやパソコンを操作するための技術が検討されている。
例えば、特許文献1に係る発明は、複雑な画像処理を使わずに直感的な操作が可能な遠隔操作装置の提供を目的としており、表示装置に表示する画像を操作に対応した所定数の領域に分割し、分割された領域毎に直前の画像と現在の画像との変化を示す動き量を算出することにより、表示装置に表示しているグラフィカルユーザインタフェースを操作している。
特開2006-235771
特許文献1の図8においては、複数の視聴者のうちの一人が操作しようとする場合に、グラフィカルユーザインタフェースの大きさ、形、位置などを変えるようにすることが開示されている。
しかしながら、当該図8では、画面内で、操作者の表示が小さくなる分、グラフィカルユーザインタフェースの表示領域も狭くなってしまうため、人によっては、遠くから見づらく、操作しにくくなる恐れがある。
また、特許文献1に示されるように、表示される操作者を中心とした四角形の表示領域の四隅にグラフィカルユーザインタフェースを表示させるようにすると、手を肩の上に挙げなければならなくなるなど、人によっては、必ずしも操作がしやすいとは言えない。
本発明は、かかる問題を考慮した上で、入力装置において、できるだけ、ユーザがグラフィカルユーザインタフェースを操作しやすくなるように、グラフィカルユーザインタフェースの表示領域を変更したり、グラフィカルユーザインタフェースの表示領域の基準を変更したりできるようにするとともに、これらの変更をユーザが任意に設定できるようにすることを目的とする。
上記目的を達成するため、請求項1に係る本発明の入力装置は、操作者を撮像する撮像部と、前記撮像部で撮像された操作者の体の一部を認識する画像認識部と、前記画像認識部で認識された操作者の体の一部を基準にして、操作者が操作を行うためのグラフィカルユーザインタフェースを表示する表示領域を算出する表示領域算出部と、前記表示領域算出部で算出された表示領域内でグラフィカルユーザインタフェースとともに前記操作者の体の一部を表示する表示画面を備える。
そして、前記表示画面内で表示される表示領域が、表示画面よりも小さい場合には、当該表示領域を拡大して算出し、表示画面は、当該拡大された表示領域を表示する。また、前記画像認識部で認識される体の一部は顔、両手あるいは片手である。
さらに、請求項6に係る本発明の入力装置は、操作者を撮像する撮像部と、前記撮像部で撮像された操作者の体の一部を認識する画像認識部と、前記画像認識部で認識された操作者の体の一部を基準にして、操作者が操作を行うためのグラフィカルユーザインタフェースを表示する表示領域を算出する表示領域算出部と、前記表示領域算出部で算出された表示領域内でグラフィカルユーザインタフェースとともに前記操作者の体の一部を表示する表示画面と、前記表示画面内で表示される表示領域を変更する設定部とを備える。
具体的には、前記設定部は、表示領域を拡大するか、そのままにするかのどちらかを設定可能とする。
さらに、請求項8に係る本発明の入力装置は、操作者を撮像する撮像部と、前記撮像部で撮像された操作者の体の一部を認識する画像認識部と、前記画像認識部で認識された操作者の体の一部を基準にして、操作者が操作を行うためのグラフィカルユーザインタフェースを表示する表示領域を算出する表示領域算出部と、 前記表示領域算出部で算出された表示領域内でグラフィカルユーザインタフェースとともに前記操作者の体の一部を表示する表示画面と、前記画像認識部で認識される体の一部を、どの部分にするかを変更する設定部とを備える。
具体的には、前記変更対象となる体の部分は、顔、両手あるいは片手である。
本発明によれば、グラフィカルユーザインタフェースの表示領域が拡大されることにより、ユーザが見やすく、操作しやすい入力装置とすることができる。
また、グラフィカルユーザインタフェースの表示領域の基準を、一例として顔ではなく、手とすることにより、ユーザが、簡単な動きで、操作しやすい入力装置とすることができる。
さらに、表示領域の変更や、表示領域の基準の変更をユーザが任意に設定できるようにすることにより、よりユーザが希望する操作を行うことのできる入力装置となる。
以下、本発明を適用した各実施例について説明する。
(第1の実施形態)
図1は、本発明をTVに適応した時の動作環境の概観を説明する図である。1は入力装置、4は表示画面、3は撮像部、2は入力装置1を操作しようとしているユーザである。表示画面4は、入力装置1の表示部であり、例えば、液晶ディスプレイやプラズマディスプレイ等の表示装置で構成される。表示画面4は、表示パネルとパネル制御回路とパネル制御ドライバとから構成され、後述する映像処理部103から供給されるデータで構成される映像を表示パネルに表示する。撮像部3は、入力装置1に動画像を入力するためのカメラ等のデバイスである。なお、撮像部3は、入力装置1に内蔵しても、コード、無線等で別途接続しても構わない。ユーザ2は、入力装置1に対して操作を行うユーザであり、撮像部3が撮影可能な範囲内に複数人いても構わない。
入力装置1は、例えば図2に示すように、少なくとも撮像部3、表示部4、画像認識部100、グラフィカルユーザインタフェース表示領域算出部101、システム制御部102、映像処理部103、操作方式設定部104を備える。
画像認識部100は、撮像部3から動画像を受信し、受信した動画像より人物の動作を検出することに加え、顔や手などを認識する。グラフィカルユーザインタフェース表示領域算出部101は、グラフィカルユーザインタフェースの表示位置、表示の大きさ、表示範囲などの表示領域を算出する。システム制御部102は例えばマイクロプロセッサから構成され、画像認識部100から受信したデータやグラフィカルユーザインタフェースに関するデータを、グラフィカルユーザインタフェース表示領域算出部101で算出した表示領域に応じて表示するべく、映像処理部103の動作を制御する。映像処理部103は、例えば、ASIC、FPGA、MPU等の処理装置により構成される。映像処理部103は、システム制御部102の制御に従い、映像やグラフィカルユーザインタフェースに関するデータを、表示画面4で処理可能な形態に変換して出力する。操作方式設定部104は、ユーザ2が所定操作方式を任意に選択するための部位であり、詳細は後述する。
第1の実施形態における処理の概要を図3、図4を用いて説明する。
本形態では、ユーザ2の顔を認識し、認識した顔の位置、大きさに応じて、グラフィカルユーザインタフェースの表示領域を算出することを特徴としている。
まず、ユーザ2が特定の動作をすることにより、操作を開始する(図4のS4001 )。特定の動作とは、例えば、所定期間手を振る動作、手のひらを広げてカメラに向け所定時間静止させる動作、手を所定の形状にして所定期間静止させる動作、 手まねきする動作、あるいは目のまばたきなど顔を使う動作などが考えられる。これら特定の動作をすることにより、ユーザ2は、入力装置1に対して、これから操作を行うという意思表示をし、これを受けて入力装置1は、ユーザ2の操作を受け付ける状態に移行する。画像認識部100は、ユーザの特定の動作を検出すると(図4のS4002 )、動きを検出した位置から所定範囲内にユーザ2の顔があるかを探す(図4のS4003)。もし、顔が見つからなかった場合には、ユーザ2に対して、顔の近くで特定の動作を行うように通知する(図4のS4005)。通知の方法は、表示装置4に表示してもよいし、音声等で通知しても良い。もし、顔が見つかったら(図4のS4004)、表示装置4の表示領域に対して検出した顔の位置、大きさを測定する(図4のS4006)。次に、グラフィカルユーザインタフェースの表示領域算出部101は、前記検出した顔の位置、大きさに対応したグラフィカルユーザインタフェースの表示領域を算出し(図4のS4007)、グラフィカルユーザインタフェースを表示する(図4のS4008)。前記検出した顔の位置、大きさに対応したグラフィカルユーザインタフェースの表示領域の例を図3-bおよび図3-cを用いて説明する。図3-b、図3-cにおいて、4a〜4dはグラフィカルユーザインタフェースの例であり、401は検出した顔の領域、402は、該検出した顔の領域401に対応してグラフィカルユーザインタフェースの表示領域算出部101が算出した、グラフィカルユーザインタフェースの表示領域である。
図3-bの例では、顔の領域401に対して単純にユーザ2の手が届く範囲にグラフィカルユーザインタフェース4a〜4dを配置したものである。しかしながら、この場合は、グラフィカルユーザインタフェースの表示領域が小さくなるほど、人によっては、遠くから見づらく、操作しにくくなる恐れがある。
これに対して、図3-cの例は、顔の領域401に対して表示装置4になるべく大きくグラフィカルユーザインタフェースを表示できるように、拡大したものである。この例であれば、表示画面を最大として、グラフィカルユーザインタフェースの表示領域を拡大できるので、遠くからも見やすくなり、操作しやすくなる。ただし、図3-bの場合は、グラフィカルユーザインタフェースを表示する計算量が少ないという利点もある。
これら二つの方式は操作方式設定部104によりユーザ2が切り替えできるようにしてもよい。また、所定期間ユーザ2の顔が認識できなかった場合は、グラフィカルインタフェースを消しても良い。
(第2の実施形態)
本形態では、第1の実施形態で説明した入力装置1において、ユーザ2の両手の位置に対応して、グラフィカルユーザインタフェースの表示領域を算出することを特徴としており、この方式について図5、図6、図7を用いて説明する。
まず、ユーザ2は図5-aに示すように、両手を上げ、手を振る(図6のS6001)。次に、画像認識部100は、両手の動きを検出する(図6のS6002)。ここで、画像認識部100は、両手それぞれが動いている領域を探すことになる。また、ここでは動きを検出するだけであるので、手でなくてもよく、動いているものが検出できればよい。画像認識部100が2ヶ所の動き部分を検出できなかった場合は(図6のS6003)、検出できなかったことをユーザに通知する(図6のS6004)。もし、検出できた場合は(図6のS6003)、検出した2ヶ所の動き部分の位置を計算する(図6のS6005)。この計算により、ユーザ2の操作できる範囲を推定できる。次に、グラフィカルユーザインタフェースの表示領域算出部101は、前記検出した2ヶ所の動き部分の位置に対応したグラフィカルユーザインタフェースの表示領域を算出し(図6のS6006)、グラフィカルユーザインタフェースを表示する(図6のS6007)。前記検出した2ヶ所の動き部分の位置に対応したグラフィカルユーザインタフェースの表示領域の例を図5-bおよび図5-cを用いて説明する。図5-bおよび図5-cにおいて、403、404は、検出した2ヶ所の動き部分の領域である。表示の方式は、図3-bおよび図3-cと同様に2種類考えられる。
図5-bの例では、検出した2ヶ所の動き部分の位置403 、404に対して単純にユーザ2の手が届く範囲にグラフィカルユーザインタフェース4a〜4dを配置したものである。しかしながら、この場合も、グラフィカルユーザインタフェースの表示領域が小さくなるほど、人によっては、遠くから見づらく、操作しにくくなる恐れがある。
これに対して、図5-cの例は、検出した2ヶ所の動き部分の位置403 、404に対して表示装置4になるべく大きくグラフィカルユーザインタフェースを表示できるように、拡大したものである。この例であれば、表示画面を最大として、グラフィカルユーザインタフェースの表示領域を拡大できるので、遠くからも見やすくなり、操作しやすくなる。ただし、図5-bの場合は、グラフィカルユーザインタフェースを表示する計算量が少ないという利点もある。
これら二つの方式は操作方式設定部104によりユーザ2が切り替えできるようにしてもよい。また、所定期間ユーザ2の手が認識できなかった場合は、グラフィカルインタフェースを消しても良い。
また、図7は、両手を広げ、その広げた手そのものを認識することにより2ヶ所の位置を検出する方法を説明する流れ図である。ユーザ2は、図5-aに示すように、両手を上げ、手を広げ、撮像装置3に向けるような動作をする(図7のS7001)。次に、画像認識部100は、両手をそれぞれ認識する(図7のS7002)。画像認識部100が2ヶ所の手を検出できなかった場合は(図7のS7003)、検出できなかったことをユーザに通知する(図7のS7004)。もし、検出できた場合は(図7のS7003)、検出した2ヶ所の手の位置を計算する(図7のS7005)。次に、グラフィカルユーザインタフェースの表示領域算出部101は、前記認識した両手の位置に対応したグラフィカルユーザインタフェースの表示領域を算出し(図7のS7006)、グラフィカルユーザインタフェースを表示する(図7のS7007)。前記認識した両手の位置に対応したグラフィカルユーザインタフェースの表示領域の例は、結果として図5-bおよび図5-cと同様である。
(第3の実施形態)
本形態では、第1の実施形態で説明した入力装置1において、ユーザ2の片手の位置、大きさ、形状に対応して、グラフィカルユーザインタフェースの表示領域を算出することを特徴としており、この方式について図8、図9を用いて説明する。
まず、ユーザ2は、図8-aに示すように、手で特定の動作をする(図9のS9001)。ユーザ2は、自分の操作しやすい位置で、特定の動作をすればよく、実施例1で説明したような動作が考えられる。次に、画像認識部100は、手を認識する(図9のS9002)。ここで、画像認識部100は、手を画像認識してもよいし、手が動いている領域を検出してもよい。画像認識部100が手を認識できなかった場合は(図9のS9003)、認識できなかったことをユーザに通知する(図9のS9004)。もし、検出できた場合は(図9のS9003)、手の位置、大きさ、形状を計算する(図9のS9005)。この計算により、ユーザ2の操作できる範囲を推定できる。次に、グラフィカルユーザインタフェースの表示領域算出部101は、前記認識した手の位置、大きさ、形状に対応したグラフィカルユーザインタフェースの表示領域を算出し(図9のS9006)、グラフィカルユーザインタフェースを表示する(図9のS9007)。前記認識した手の位置、大きさ、形状に対応したグラフィカルユーザインタフェースの表示領域の例を図8-bおよび図8-cを用いて説明する。図8-bおよび図8-cにおいて、405は、認識した手の領域である。
図8-bおよび図8-cの実施例によれば、前述した図3及び図5の実施例のように手を挙げる必要はなくなり、手のみの簡単な動作により、グラフィカルユーザインタフェースを用いて操作をすることができる。
表示の方式は、図3-bおよび図3-cと同様に2種類考えられる。
図8-bの例では、認識した手の領域405に対して単純にユーザ2の手が届く範囲にグラフィカルユーザインタフェース4a〜4dを配置したものである。しかしながら、この場合も、グラフィカルユーザインタフェースの表示領域が小さくなるほど、人によっては、遠くから見づらく、操作しにくくなる恐れがある。
これに対して、図8-cの例は、認識した手の領域405に対して表示装置4になるべく大きくグラフィカルユーザインタフェースを表示できるように、拡大したものである。この例であれば、表示画面を最大として、グラフィカルユーザインタフェースの表示領域を拡大できるので、遠くからも見やすくなり、操作しやすくなる。ただし、図8-bの場合は、グラフィカルユーザインタフェースを表示する計算量が少ないという利点もある。
これら二つの方式は操作方式設定部104によりユーザ2が切り替えできるようにしてもよい。また、所定期間ユーザ2の手が認識できなかった場合は、グラフィカルインタフェースを消しても良い。
(第4の実施形態)
第1から第3の実施形態において、ユーザ2が操作する各方式を説明した。本形態では、第1から第3の実施形態を操作方式設定部104において選択・設定する方法について図10、図11を用いて説明する。ここで、説明の都合上、前記第1の実施形態を「顔認識方式」、前記第2の実施形態を「両手認識方式」、前記第3の実施形態を「片手認識方式」と呼ぶことにする。
第1から第3の実施形態を操作方式設定部104において選択・設定する方法としては、種々の方法が考えられる。
一つの例としては、図10のように、設定画面を設け、タッチパネル方式やリモコンなどを用いて、選択する方法が考えられる。図10において、1001は操作方式選択方法の設定、1002はグラフィカルユーザインタフェース表示設定を表している。操作方式選択方法の設定1001では、「顔認識」、「両手認識」、「片手認識」を選択することにより、希望の方式での操作を行うことができる。また、グラフィカルユーザインタフェース表示の設定1002では、各方式において、グラフィカルユーザインタフェースを表示する際の表示領域を拡大するか、しないかを選択するものである。
別の例としては、図10のような設定画面での各選択をあらかじめ定められたジェスチャで行う方法が考えられる。この場合、「顔認識」、「両手認識」、「片手認識」や、「拡大する」、「拡大しない」という選択肢それぞれを決定するまでのジェスチャを予め定める必要がある。
図11は、操作方式を選択する流れを説明する図である。まずユーザ2は特定の動作をすることにより、操作を開始する(図11のS1101)。次に、操作方式設定部104において、上述した、設定画面による選択やジェスチャでの選択により、操作方式の選択を行う(図11のS1102)。そして、当該選択により選択された操作方式による操作を行うべく、該当する第1から第3の実施形態のいずれかの処理に移る。
本発明の入力装置の動作環境を示す概観図である。 本発明の入力装置の構成を示すブロック図である。 本発明の第1の実施形態を説明する図である。 本発明の第1の実施形態を説明する流れ図である。 本発明の第2の実施形態を説明する図である。 本発明の第2の実施形態を説明する流れ図である。 本発明の第2の実施形態を説明する流れ図である。 本発明の第3の実施形態を説明する図である。 本発明の第3の実施形態を説明する流れ図である。 本発明の第4の実施形態を説明する図である。 本発明の第4の実施形態を説明する流れ図である。
符号の説明
1・・・入力装置、
2・・・ユーザ、
3・・・撮像装置、
4・・・表示装置、
100・・・画像認識部、
101・・・グラフィカルユーザインタフェース表示領域算出部、
102・・・システム制御部、
103・・・映像処理部、
401・・・認識した顔の領域、
402・・・グラフィカルユーザインタフェース表示領域、
403、404・・・認識した両手の領域、
405・・・顔を中心にした分割領域
401〜406・・・認識した手の領域
4a〜4d・・・グラフィカルユーザインタフェースの例

Claims (9)

  1. 操作者を撮像する撮像部と、
    前記撮像部で撮像された操作者の体の一部を認識する画像認識部と、
    前記画像認識部で認識された操作者の体の一部を基準にして、操作者が操作を行うためのグラフィカルユーザインタフェースを表示する表示領域を算出する表示領域算出部と、
    前記表示領域算出部で算出された表示領域内でグラフィカルユーザインタフェースとともに前記操作者の体の一部を表示する表示画面を備えることを特徴とする入力装置。
  2. 前記表示画面内で表示される表示領域が、表示画面よりも小さい場合に、当該表示領域を拡大して算出し、表示画面は、当該拡大された表示領域を表示することを特徴とする請求項1に記載の入力装置。
  3. 前記画像認識部で認識される体の一部は顔であることを特徴とする請求項1に記載の入力装置。
  4. 前記画像認識部で認識される体の一部は両手であることを特徴とする請求項1に記載の入力装置。
  5. 前記画像認識部で認識される体の一部は片手であることを特徴とする請求項1に記載の入力装置。
  6. 操作者を撮像する撮像部と、
    前記撮像部で撮像された操作者の体の一部を認識する画像認識部と、
    前記画像認識部で認識された操作者の体の一部を基準にして、操作者が操作を行うためのグラフィカルユーザインタフェースを表示する表示領域を算出する表示領域算出部と、
    前記表示領域算出部で算出された表示領域内でグラフィカルユーザインタフェースとともに前記操作者の体の一部を表示する表示画面と、
    前記表示画面内で表示される表示領域を変更する設定部とを備えることを特徴とする記載の入力装置。
  7. 前記設定部は、表示領域を拡大するか、そのままにするかのどちらかを設定可能であることを特徴とする請求項6に記載の入力装置。
  8. 操作者を撮像する撮像部と、
    前記撮像部で撮像された操作者の体の一部を認識する画像認識部と、
    前記画像認識部で認識された操作者の体の一部を基準にして、操作者が操作を行うためのグラフィカルユーザインタフェースを表示する表示領域を算出する表示領域算出部と、
    前記表示領域算出部で算出された表示領域内でグラフィカルユーザインタフェースとともに前記操作者の体の一部を表示する表示画面と、
    前記画像認識部で認識される体の一部を、どの部分にするかを変更する設定部とを備えたことを特徴とする入力装置。
  9. 前記変更対象となる体の部分は、顔、両手あるいは片手であることを特徴とする請求項8に記載の入力装置。
JP2008110838A 2008-04-22 2008-04-22 入力装置 Pending JP2009265709A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008110838A JP2009265709A (ja) 2008-04-22 2008-04-22 入力装置
CN2009101336837A CN101566914B (zh) 2008-04-22 2009-04-22 输入装置
US12/427,858 US20090262187A1 (en) 2008-04-22 2009-04-22 Input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008110838A JP2009265709A (ja) 2008-04-22 2008-04-22 入力装置

Publications (1)

Publication Number Publication Date
JP2009265709A true JP2009265709A (ja) 2009-11-12

Family

ID=41200785

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008110838A Pending JP2009265709A (ja) 2008-04-22 2008-04-22 入力装置

Country Status (3)

Country Link
US (1) US20090262187A1 (ja)
JP (1) JP2009265709A (ja)
CN (1) CN101566914B (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011154546A (ja) * 2010-01-27 2011-08-11 Canon Inc 情報入力装置、情報入力方法及びプログラム
JP2013140582A (ja) * 2011-12-30 2013-07-18 Samsung Electronics Co Ltd 電子装置およびその制御方法
JP2013205896A (ja) * 2012-03-27 2013-10-07 Sony Corp 表示制御装置、表示制御方法およびプログラム
JP2013257762A (ja) * 2012-06-13 2013-12-26 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP2014506361A (ja) * 2010-12-29 2014-03-13 エンパイア テクノロジー ディベロップメント エルエルシー ジェスチャー認識のための環境依存型ダイナミックレンジ制御
JP2014127124A (ja) * 2012-12-27 2014-07-07 Sony Corp 情報処理装置、情報処理方法及びプログラム
JP2015035060A (ja) * 2013-08-08 2015-02-19 株式会社ニコン 撮像装置
WO2016002872A1 (ja) * 2014-07-04 2016-01-07 クラリオン株式会社 情報処理装置
KR101806891B1 (ko) 2011-04-12 2017-12-08 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어방법
JP2020530631A (ja) * 2017-08-14 2020-10-22 シェンジェン ピーアールテック カンパニー リミテッド インタラクション位置決定方法、システム、記憶媒体、およびスマートデバイス

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101788755B (zh) * 2010-02-28 2011-12-21 明基电通有限公司 可摄影电子装置以及其操作方法
US8970483B2 (en) 2010-06-17 2015-03-03 Nokia Corporation Method and apparatus for determining input
KR20120051212A (ko) * 2010-11-12 2012-05-22 엘지전자 주식회사 멀티미디어 장치의 사용자 제스쳐 인식 방법 및 그에 따른 멀티미디어 장치
US8861797B2 (en) 2010-11-12 2014-10-14 At&T Intellectual Property I, L.P. Calibrating vision systems
JP5653206B2 (ja) * 2010-12-27 2015-01-14 日立マクセル株式会社 映像処理装置
EP2703971A4 (en) * 2011-04-27 2014-11-12 Nec Solution Innovators Ltd INPUT DEVICE, INPUT METHOD AND RECORDING MEDIUM
RU2611977C2 (ru) * 2011-05-09 2017-03-01 Конинклейке Филипс Н.В. Вращение объекта на экране
EP2761422A4 (en) * 2011-09-30 2015-05-06 Intel Corp MECHANISM FOR ENHANCING THE PERSPECTIVE OF VIEWING VIDEO IMAGES ON COMPUTER DEVICES
TWI454966B (zh) * 2012-04-24 2014-10-01 Wistron Corp 手勢控制方法及手勢控制裝置
TWI489326B (zh) * 2012-06-05 2015-06-21 Wistron Corp 操作區的決定方法與系統
KR102035134B1 (ko) * 2012-09-24 2019-10-22 엘지전자 주식회사 영상표시장치, 및 그 동작방법
TWI475496B (zh) * 2012-10-16 2015-03-01 Wistron Corp 手勢控制裝置及於手勢控制裝置中設定及取消手勢操作區域之方法
KR20140085055A (ko) * 2012-12-27 2014-07-07 삼성전자주식회사 전자 장치 및 그의 제어 방법
US9245100B2 (en) * 2013-03-14 2016-01-26 Google Technology Holdings LLC Method and apparatus for unlocking a user portable wireless electronic communication device feature
KR101641091B1 (ko) 2013-09-23 2016-07-20 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 모션 인식방법
US10043066B2 (en) * 2016-08-17 2018-08-07 Intel Corporation Gesture masking in a video feed
WO2018033137A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
US11294474B1 (en) * 2021-02-05 2022-04-05 Lenovo (Singapore) Pte. Ltd. Controlling video data content using computer vision

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002196855A (ja) * 2000-10-06 2002-07-12 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2005216061A (ja) * 2004-01-30 2005-08-11 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030001908A1 (en) * 2001-06-29 2003-01-02 Koninklijke Philips Electronics N.V. Picture-in-picture repositioning and/or resizing based on speech and gesture control
US7134080B2 (en) * 2002-08-23 2006-11-07 International Business Machines Corporation Method and system for a user-following interface
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
JP4419768B2 (ja) * 2004-09-21 2010-02-24 日本ビクター株式会社 電子機器の制御装置
JPWO2007088939A1 (ja) * 2006-02-03 2009-06-25 パナソニック株式会社 情報処理装置
JP5201999B2 (ja) * 2006-02-03 2013-06-05 パナソニック株式会社 入力装置、及びその方法
US20090254855A1 (en) * 2008-04-08 2009-10-08 Sony Ericsson Mobile Communications, Ab Communication terminals with superimposed user interface
JP2011081469A (ja) * 2009-10-05 2011-04-21 Hitachi Consumer Electronics Co Ltd 入力装置
JP2012027515A (ja) * 2010-07-20 2012-02-09 Hitachi Consumer Electronics Co Ltd 入力方法及び入力装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002196855A (ja) * 2000-10-06 2002-07-12 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2005216061A (ja) * 2004-01-30 2005-08-11 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011154546A (ja) * 2010-01-27 2011-08-11 Canon Inc 情報入力装置、情報入力方法及びプログラム
JP2014506361A (ja) * 2010-12-29 2014-03-13 エンパイア テクノロジー ディベロップメント エルエルシー ジェスチャー認識のための環境依存型ダイナミックレンジ制御
US8766912B2 (en) 2010-12-29 2014-07-01 Empire Technology Development Llc Environment-dependent dynamic range control for gesture recognition
US9851804B2 (en) 2010-12-29 2017-12-26 Empire Technology Development Llc Environment-dependent dynamic range control for gesture recognition
KR101806891B1 (ko) 2011-04-12 2017-12-08 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어방법
JP2013140582A (ja) * 2011-12-30 2013-07-18 Samsung Electronics Co Ltd 電子装置およびその制御方法
JP2013205896A (ja) * 2012-03-27 2013-10-07 Sony Corp 表示制御装置、表示制御方法およびプログラム
JP2013257762A (ja) * 2012-06-13 2013-12-26 Sony Corp 画像処理装置、画像処理方法、およびプログラム
US10073534B2 (en) 2012-06-13 2018-09-11 Sony Corporation Image processing apparatus, image processing method, and program to control a display to display an image generated based on a manipulation target image
US10671175B2 (en) 2012-06-13 2020-06-02 Sony Corporation Image processing apparatus, image processing method, and program product to control a display to display an image generated based on a manipulation target image
JP2014127124A (ja) * 2012-12-27 2014-07-07 Sony Corp 情報処理装置、情報処理方法及びプログラム
JP2015035060A (ja) * 2013-08-08 2015-02-19 株式会社ニコン 撮像装置
WO2016002872A1 (ja) * 2014-07-04 2016-01-07 クラリオン株式会社 情報処理装置
US11226719B2 (en) 2014-07-04 2022-01-18 Clarion Co., Ltd. Information processing device
JP2020530631A (ja) * 2017-08-14 2020-10-22 シェンジェン ピーアールテック カンパニー リミテッド インタラクション位置決定方法、システム、記憶媒体、およびスマートデバイス

Also Published As

Publication number Publication date
CN101566914A (zh) 2009-10-28
US20090262187A1 (en) 2009-10-22
CN101566914B (zh) 2012-05-30

Similar Documents

Publication Publication Date Title
JP2009265709A (ja) 入力装置
KR101148484B1 (ko) 입력 장치
US8555171B2 (en) Portable virtual human-machine interaction device and operation method thereof
RU2541852C2 (ru) Устройство и способ для управления пользовательским интерфейсом на основе движений
US8350896B2 (en) Terminal apparatus, display control method, and display control program
US20150123919A1 (en) Information input apparatus, information input method, and computer program
CN107533366B (zh) 信息显示装置和信息显示方法
US9946435B2 (en) Control device, control method, and electronic apparatus to control movement of a cursor
US20140145941A1 (en) Computer vision gesture based control of a device
KR101797260B1 (ko) 정보 처리 장치, 정보 처리 시스템 및 정보 처리 방법
CN110199251A (zh) 显示装置和远程操作控制装置
US20120229509A1 (en) System and method for user interaction
CN102591451A (zh) 影像处理装置和影像显示装置
KR101872272B1 (ko) 제어 기기를 이용한 전자기기의 제어 방법 및 장치
EP3197148A1 (en) Method for controlling motions and actions of an apparatus including an image capture device
US20070216642A1 (en) System For 3D Rendering Applications Using Hands
US20140104161A1 (en) Gesture control device and method for setting and cancelling gesture operating region in gesture control device
US10095384B2 (en) Method of receiving user input by detecting movement of user and apparatus therefor
KR20150031986A (ko) 디스플레이장치 및 그 제어방법
US20150350587A1 (en) Method of controlling display device and remote controller thereof
US20150058811A1 (en) Control system for display screen, input apparatus and control method
KR101233793B1 (ko) 손 동작 인식을 이용한 가상 마우스 구동 방법
CN106843479A (zh) 控制目标设备切换状态的方法及装置、电子设备
CN104903833B (zh) 用于在屏幕上显示图像的客户端设备、监视系统、方法以及计算机程序
KR101414583B1 (ko) 모바일 단말기의 터치 입력을 이용한 ip 카메라의 원격 제어장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120427

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130108