JP7767760B2 - 装置およびプログラム - Google Patents
装置およびプログラムInfo
- Publication number
- JP7767760B2 JP7767760B2 JP2021126263A JP2021126263A JP7767760B2 JP 7767760 B2 JP7767760 B2 JP 7767760B2 JP 2021126263 A JP2021126263 A JP 2021126263A JP 2021126263 A JP2021126263 A JP 2021126263A JP 7767760 B2 JP7767760 B2 JP 7767760B2
- Authority
- JP
- Japan
- Prior art keywords
- mode
- user
- display
- orientation
- worn
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Dermatology (AREA)
- Neurosurgery (AREA)
- Neurology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
特許文献2には、第2ウェアラブル端末へユーザの視線が向けられたことを第1ウェアラブル端末または第2ウェアラブル端末により検出して、電子機器の操作画面を第2ウェアラブル端末により表示する処理が開示されている。
特許文献3には、カメラ画像上で手領域を認識して手領域と所定の位置関係にある検索画像範囲から検索画像を抽出し、検索画像を含む検索要求を画像認識サーバへ送信して検索を実行する処理が開示されている。
特許文献4には、外部機器と接続して無線通信する通信手段と、身体への装着状態の変化を検出する検出手段と、検出された装着状態の変化に応じて、外部機器との間の前記無線通信の接続状態を制御する制御手段とを備える無線通信端末が開示されている。
本発明の目的は、装置の表示画面を必ずしも見なくても、装置のモードを、他の装置の操作を行うことが可能なモードに切り替えられるようにすることにある。
請求項2に記載の発明は、前記装置は、前記装着部位に装着されたまま前記装着部位を軸として回転可能であって、前記装置の装着の向きは、前記装置が前記装着部位を軸として回転することによって変化する、請求項1に記載の装置である。
請求項3に記載の発明は、前記プロセッサは、前記装置の装着の向きが前記装着部位に対して前記第2の向きと異なる第1の向きから前記第2の向きに変化したことに応じて、前記装置のモードを前記第1の向きに対応した第1のモードから前記第2のモードへ移行させる、請求項1に記載の装置である。
請求項4に記載の発明は、前記装置は、回転可能な部分を有し、前記装置の装着の向きは、前記回転可能な部分が回転することによって変化し、前記プロセッサは、前記回転可能な部分が回転することに応じて、前記装置のモードを前記第2のモードへ移行させる、請求項1に記載の装置である。
請求項5に記載の発明は、前記プロセッサは、前記装置の向きが前記第2の向きでなくなったことに応じて、前記装置のモードを、前記第2のモードから前記第2のモードに入る前の第1のモードに戻す、請求項1に記載の装置である。
請求項6に記載の発明は、前記第1のモードは、前記他の装置を操作するためのモードではなく、前記装置を操作するためのモードであり、前記第2のモードは、前記装置を介して、前記他の装置を操作するためのモードである、請求項3又は5に記載の装置である。
請求項7に記載の発明は、前記プロセッサは、前記装置のモードを前記第2のモードへ移行させる場合、前記装置のディスプレイにおける表示を変更する請求項1に記載の装置である。
請求項8に記載の発明は、前記プロセッサは、前記装置のモードを前記第2のモードへ移行させる場合、前記装置のディスプレイの輝度を低下させる、請求項1に記載の装置である。
請求項9に記載の発明は、前記プロセッサは、前記装置のモードを前記第2のモードへ移行させる場合、移行前に前記装置のディスプレイに表示されていた選択可能な要素が選択不可能になったことがわかるように表示する、請求項1に記載の装置である。
請求項10に記載の発明は、前記プロセッサは、前記装置のモードを前記第2のモードへ移行させる場合、移行前に前記装置のディスプレイに表示されていた第1の画面の上に、選択可能な要素を含まない第2の画面を重ねて表示する、又は、前記ディスプレイの表示を前記第1の画面から前記第2の画面に切り替える、請求項1に記載の装置である。
請求項11に記載の発明は、前記他の装置は、前記ユーザによって装着される前記装置とは異なる、前記ユーザによって装着される装置である、請求項1乃至10の何れかに記載の装置である。
請求項12に記載の発明は、前記他の装置は、前記ユーザの眼球の前に装着される装置である、請求項11に記載の装置である。
請求項13に記載の発明は、前記装置は、前記ユーザの腕に装着され、前記プロセッサは、前記装置が装着された腕の先端にある指の動きに基づき、前記他の装置を制御する、請求項1~12の何れかに記載の装置である。
請求項14に記載の発明は、前記第2の向きは、予め定められた特定の向きであり、前記プロセッサは、前記装置が前記装着部位に対して前記予め定められた特定の向きで装着されることに応じて、前記装置のモードを、前記第2のモードへ移行させる、請求項1に記載の装置である。
請求項15に記載の発明は、ユーザの装着部位に装着される装置であって、ユーザが当該装置を介して他の装置の操作を行うことが可能な装置に設けられたコンピュータによって実行されるプログラムであり、前記装着部位に装着された前記装置の向きを検知する機能と、前記装置がユーザの前記装着部位に対して第1の向きで装着されたことに応じて、前記装置を、前記装置を介しての前記他の装置の操作が許可された第2のモードへ移行させる機能と、を前記コンピュータに実現させるためのプログラムである。
請求項2の発明によれば、装着部位を軸として装置を回転させることで、装置のモードを、他の装置の操作を行うことが可能なモードに切り替えられるようにすることができる。
請求項3の発明によれば、装置の装着の向きを第1の向きから第2の向きに変化させることで、装置のモードを第1の向きに対応した第1のモードから第2のモードへ移行させることができる。
請求項4の発明によれば、装置のうちの、回転可能な部分を回転させることで、装置のモードを第2のモードへ移行させることができる。
請求項5の発明によれば、装置の向きを第2の向きではないようにすることで、装置のモードを、第2のモードからこの第2のモードに入る前の第1のモードに戻すことができる。
請求項6の発明によれば、第1のモードでは、装置を操作することができ、第2のモードでは、この装置を介して他の装置を操作することができる。
請求項7の発明によれば、装置のモードが第2のモードへ移行したことをユーザに知らせることができる。
請求項8の発明によれば、装置のモードが第2のモードへ移行したことをユーザに知らせることができる。
請求項9の発明によれば、装置のディスプレイに表示されていた選択可能な要素が選択不可能になったことをユーザに知らせることできる。
請求項10の発明によれば、第2のモードへ移行させる前に装置のディスプレイに表示されていた画面を、選択可能な要素を含まない画面に切り替えることができる。
請求項11の発明によれば、装置の表示画面を必ずしも見なくても、ユーザの装置のモードを、このユーザによって装着される他の装置の操作を行うことが可能なモードに切り替えられるようにすることができる。
請求項12の発明によれば、装置の表示画面を必ずしも見なくても、ユーザの装置のモードを、このユーザによって装着される他の装置であってこのユーザの眼球の前に装着される他の装置の操作を行うことが可能なモードに切り替えられるようにすることができる。
請求項13の発明によれば、装置が装着された腕の先端にある指の動きに基づき、他の装置を制御することができる。
請求項14の発明によれば、装置が装着部位に対して予め定められた特定の向きで装着されることに応じて、装置のモードを、第2のモードへ移行させることができる。
請求項15の発明によれば、装置の表示画面を必ずしも見なくても、装置のモードを、他の装置の操作を行うことが可能なモードに切り替えられるようにすることができる。
〔第1の実施形態〕
図1は、本実施形態の処理システム1の一例を示した図である。
本実施形態の処理システム1には、ユーザに装着されこのユーザの操作を受け付ける第1装置100と、この第1装置100に対して不図示の通信回線を介して接続される第2装置200とが設けられている。
本実施形態では、第1装置100のモードが、第2のモード(後述)に設定されると、ユーザは、この第1装置100に対して予め定められた動作を行うことによって、第2装置200を操作することができる。
一方、第1装置100のモードが、第1のモードの場合、ユーザは、第1装置100に対してその動作を行っても第2装置200を操作することができない。
第1装置100は、例えば、腕時計のような手首装着型の装置である。第1装置100は、ディスプレイ101を有する。本実施形態において、このディスプレイ101は、画面を表示するだけでなく、タッチパネルを有し、ユーザの接触操作による入力を受け付ける入力装置として機能する。言い換えると、本実施形態のディスプレイ101は、タッチパネル方式のディスプレイである。
第1装置100では、ディスプレイ101に、時刻が表示されたり、インストールされたアプリケーションのアイコンが並んだメニュー画面が表示されたり、各アプリケーションの実行に伴い表示されるアプリケーション画面が表示されたりする。
また、第2装置200は、ユーザに装着されずに、ユーザから離れた状態で配置されるユーザ装置であってもよい。例えば、第2装置200はノートパソコンやテレビであってもよい。
第2装置200は、例えば、ユーザが視認する現実空間内の物に重ねて映像を表示するいわゆるAR(Augmented Reality)表示装置である。
第2装置200は、例えば、眼鏡型の装置であり、第2装置200には、ユーザの頭部に装着される被装着部201が設けられる。
なお、第2装置200は、眼鏡型の装置に限定されず、例えば、ヘッドマウント型の装置であってもよい。また、第2装置200は、ユーザの眼球に装着される、コンタクトレンズ型の装置であってもよい。
本実施形態では、このディスプレイ202は、ユーザの眼球の前に装着される。言い換えると、第2装置200は、ユーザに装着されたときに、少なくともその一部がユーザの眼球の前に配置される。
ディスプレイ202は、透明に形成され、ユーザは、ディスプレイ202を通じて、自身の前方の視認を行う。言い換えると、ユーザは、透明部を通じて、透明部の背後の視認を行う。
第2装置200では、ディスプレイ202に、テキストや画像などの情報が表示される。これにより、ディスプレイ202の背後に位置しユーザが視認する現実空間RWに対して情報が重ねられる。
また、第2装置200には、ユーザの前方の映像を取得するカメラ203が設けられている。言い換えると、第2装置200には、ユーザがディスプレイ202を通じて視認する現実空間RWを撮影するカメラ203が設けられている。
また、第2装置200には、脳波計など、ユーザについての情報を測定するセンサ(不図示)が設けられている。
図2に示すこの第2装置200では、板状の筐体205の一方の面側にディスプレイ202が設けられる。また、この第2装置200では、ディスプレイ202の背後の映像を取得するカメラ206が設けられている。
この第2装置200では、ユーザがディスプレイ202を視認した際に、このユーザは、このディスプレイ202の背後にある物を、ディスプレイ202を通じて視認する。
ユーザは、ディスプレイ202に表示される、この映像を見ることによって、ディスプレイ202の背後にある物を視認する。
ディスプレイ202には、カメラ206によって取得される映像に、テキストや画像などの他の情報を重ねて表示することができる。これにより、ディスプレイ202の背後に位置しユーザが視認する現実空間RWに対して情報が重ねられる。
なお、本実施形態では、第1装置100を介しての第2装置200の制御を行えるが、この制御の対象は、表示に限られない。第1装置100を介しての第2装置200の制御では、物理的に動く部分の駆動制御や、音についての制御などが行われるようにしてもよい。
第1装置100には、アプリケーションのインストールを行える。第1装置100では、インストールされたアプリケーションを選択して実行することで、第1装置100は、様々な機能を発揮する。例えば、電子メール、アドレス帳、カレンダー、ウェブブラウザ、SNS(ソーシャルネットワークサービス)、地図、支払い、健康管理などのアプリケーションが、予め、または、ユーザによって任意に、インストールされることができる。
なお、腕時計のようにユーザの手首に装着され、時刻を表示するだけでなく上記のようなアプリケーションのインストールや実行ができる装置を、「スマートウォッチ」と呼ぶ。
例えば、第1装置100にて得られた情報を、第2装置200のディスプレイ202に表示する処理を行える。
具体的には、例えば、第1装置100に設けられた心拍計や血中酸素濃度計で、心拍数や血中酸度濃度を測定し、この測定の結果を、第2装置200のディスプレイ202に表示させることができる。
具体的には、ユーザは、まず、第2装置200のディスプレイ202に表示されている、第1装置100の表示画面を見ながら、第1装置100にインストールされているアプリケーションの選択を行い、アプリケーションを起動する。
ユーザは、第2装置200のディスプレイ202に表示されている、第1装置100のこの表示画面を見ながら、第1装置100に対する操作を行い、心拍計や血中酸素濃度計の測定についてのアプリケーションを起動する。
なお、本実施形態では、例えば、第2装置200のディスプレイ202に表示され空中に浮かぶように存在している表示要素の中から、ユーザがこの表示要素の選択を行うことで、第1装置100に対する操作を行える。
具体的には、この映像を解析して、ユーザが表示要素に対する操作を行う際のこのユーザの指の位置を検知することで、空中に浮かぶように存在している表示要素に対するユーザの操作が検知される。
表示要素に対するユーザの操作についての情報が取得されると、この情報により特定される操作に対応する表示画面が、第2装置200のディスプレイ202に表示される。
これにより、第2装置200のディスプレイ202に、心拍数や血中酸度濃度についての測定結果が表示される。
第2装置200のディスプレイ202に、第1装置100の表示画面が表示される場合、ユーザは、第1装置100に目を向けないでも、第1装置100にて表示される情報を見ることができる。
具体的には、第2装置200のディスプレイ202に、支払金額、支払いの成否、支払い後の残高などの情報が表示される。
より具体的には、例えば、第1装置100にて電子メールの通知機能がオンになっている場合に、第2装置200のディスプレイ202に、第1装置100への電子メールがあったことが表示される。
この場合、本実施形態では、第2装置200のディスプレイ202に、第1装置100への電子メールがあったことを示す情報が表示される。
これにより、ユーザは、第1装置100に直接目を向けないでも、ユーザが選択した表示要素や対象についての電子メールを第1装置100が受信したことを認識する。
これにより、本実施形態では、ユーザは、第1装置100が有する支払いの機能を用いて、商品の代金の支払いを行える。
より具体的には、ユーザは、第1装置100が有する、NFC(Near field communication)、QRコード(登録商標)/バーコード決済などの機能を用いて、商品の代金の支払いを行える。
そして、ユーザは、第1装置100が有する支払いの機能を用い、この合計金額により特定される額の支払いを行う。
具体的には、ユーザは、空中に浮かぶように存在している表示要素の選択などの操作を行って、商品についての購入の処理を行う。
また、その他に、例えば、ユーザが、第2装置200に対する操作を行って選択した店舗の情報が、第1装置100へ送信されるようにし、この店舗の情報が、第1装置100に表示される処理も行える。
具体的には、例えば、第2装置200のディスプレイ202に表示されている、レストランなどの店舗の情報や、ユーザがディスプレイ202を通して見ている店舗の情報が、第1装置100へ送信される。そして、この店舗の情報が、第1装置100に表示される。
第1装置100は、装置全体の動作を制御する制御ユニット111と、データを記憶する情報記憶装置112と、無線通信の規格に準拠する各種の通信インターフェース113と、液晶表示装置や有機EL(=Electro Luminescence)表示装置等により構成され情報を表示するディスプレイ101と、GPS(=Global Positioning System)114と、各種のセンサ115とを有する。
通信インターフェース113は、第2装置200等との通信に使用されるインターフェースである。
ディスプレイ101は、タッチパネルにより構成されている。これにより、本実施形態では、ディスプレイ101に対するユーザの操作の検知を行える。
GPS114は、GPS衛星からの電波を受信して第1装置100の位置を測定する。GPSセンサから出力される緯度、経度、高度の情報は、現在位置についての情報を第1装置100に与える。
センサ115は、第1装置100に対するユーザの操作を検知したり、ユーザの血圧情報などユーザについての情報を取得したりする。また、センサ115は、第1装置100の向きを検知したり、第1装置100における照度を検知したりする。
また、CPU111Aによって実行されるプログラムは、インターネットなどの通信手段を用いて、第1装置100へ提供してもよい。
第2装置200は、装置全体の動作を制御する制御ユニット211と、各種のデータを記憶する情報記憶装置212と、無線通信の規格に準拠する各種の通信インターフェース213と、タッチセンサやボタン等の入力装置214とを有する。
また、第2装置200は、液晶表示装置や有機EL表示装置等により構成され情報を表示するディスプレイ202と、GPS216と、センサ217と、カメラ203とを有する。
通信インターフェース213は、第1装置100等との通信に使用されるインターフェースである。
GPS216は、GPS衛星からの電波を受信して第2装置200の位置を測定するセンサである。GPS216から出力される緯度、経度、高度の情報は、現在位置についての情報を第2装置200に与える。
センサ217は、ユーザの脳波、体温、心拍などのユーザについての情報を取得する。
カメラ203は、第2装置200が装着されるユーザの前方に位置する現実空間RWの映像を取得する。言い換えると、カメラ203は、ユーザの前方に位置しユーザが視認する現実空間RWの映像を取得する。
また、CPU211Aによって実行されるプログラムは、インターネットなどの通信手段を用いて、第2装置200へ提供してもよい。
なお、第1装置100と第2装置200はそれぞれ眼鏡型の装置と手首装着型の装置に限定されない。例えば、第1装置がスマートフォンであって、第2装置が眼鏡型の装置であってもよい。
また、プロセッサの動作は、1つのプロセッサによって成すのみでなく、物理的に離れた位置に存在する複数のプロセッサが協働して成すものであってもよい。また、プロセッサの各動作の順序は、本実施形態において記載した順序のみに限定されるものではなく、変更してもよい。
図5(A)、(B)に示す例では、ユーザの装着部位30の一例である、ユーザの手首に対して、第1装置100が装着されている。言い換えると、第1装置100は、ユーザの腕に装着されており、より具体的にはユーザの手首に装着されている。
第1装置100は、この装着部位30に装着されたままの状態で、この装着部位30を軸として回転可能となっている。具体的には、第1装置100は、図5(A)の矢印5Aで示す方向への回転が可能となっている。
第1装置100の装着の向きは、装着部位30を軸として第1装置100が回転することによって変化する。本実施形態では、第1装置100を外さずに、第1装置100の装着の向きの変更を行える。言い換えると、本実施形態は、第1装置100を着用した状態で、第1装置100の装着の向きの変更を行える。
第1装置100に設けられた、プロセッサの一例としてのCPU111A(図3参照)は、ユーザの装着部位30に対して、第1装置100が予め定められた第2の向きで装着されたことに応じて、第1装置100のモードを、第1のモードから第2のモードへ移行させる。
ユーザは、この対応関係の下に、第1装置100を特定の向きで装着することによって、第1装置100のモードを、この特定の向きに対応したモードにする。
第2のモードは、ユーザの予め定められた指の動きによる第2装置200(図1参照)の操作が許可されたモードである。言い換えると、第2のモードは、第1装置100を介しての第2装置200の操作が許可されたモードである。
言い換えると、CPU111Aは、第1装置100の装着の向きが、第2の向きとは異なる第1の向きから、この第2の向きに変化したことに応じて、第1装置100のモードを、第1の向きに対応した第1のモードから、第2の向きに対応した第2のモードへ移行させる。
CPU111Aは、第1装置100の装着の向きが、この第1の向きから第2の向きに変化すると、第1装置100のモードを、第1の向きに対応した第1のモードから、第2の向きに対応した第2のモードへ移行させる。
より具体的には、本実施形態では、第1装置100が第2のモードになっている状態で、ユーザが、第1装置100のディスプレイ101(タッチパネル)に触れてこのディスプレイ101に対する操作を行うと、第1装置100にて、第2装置200を制御するための制御情報が生成される。そして、この制御情報が、第2装置200へ送信される。
この場合、第2装置200のCPU211A(図4参照)が、この操作の内容を示す情報に基づき、第2装置200の制御を行う。
これにより、本実施形態では、ユーザは、第1装置100に対する操作を行うことで、第2装置200の操作を行える。
第1装置100が第1のモード下にあるとき、ディスプレイ101には、第1装置100にインストールされているアプリケーションのアイコンが並んだメニュー画面や、これらのアプリケーションの画面が表示され、ユーザはディスプレイ101に表示されるUI要素(ボタンなど)を介して第1装置100にインストールされているアプリケーションの機能を実行する指示を出す。
第2のモードにおいて、ユーザが、第1装置100のディスプレイ101に対する操作を行うと、第2装置200のディスプレイ202(図1参照)における表示が変化するなど、この操作に応じた処理が、第2装置200にて行われる。
第2のモードでは、ユーザが特定の操作を行った場合、第2装置200の制御が行われるようにし、ユーザが他の特定の操作を行った場合、第1装置100自体の制御が行われるようにしてもよい。
また、本実施形態では、第1装置100に対するユーザの操作を、ディスプレイ101にて受け付ける場合を一例に説明したが、第1装置100に対するユーザの操作は、ディスプレイ101をユーザの手首に固定するベルトなど、ディスプレイ101以外の第1装置100のパーツにて受け付けてもよい。
第1装置100のモードが、第1のモードに戻ると、ユーザは、第1装置100を介しての第2装置200の操作を行えない。
一方、図5(B)に示すように、第1装置100のディスプレイ101が、ユーザの手の平側に位置するように、第1装置100がユーザに装着されると、第1装置100は、第2のモードで動作する。この場合、第1装置100は、第2装置200の制御のためのリモコンとして機能する。
但し、これに限られず、第1装置100のディスプレイ101が、ユーザの手の平側に位置する場合に、第1装置100が第1モードとなり、第1装置100のディスプレイ101が、ユーザの手の甲側に位置する場合に、第1装置100が第2モードとなるようにしてもよい。
この場合は、第1装置100の向きが、ユーザが設定した第1の向きである場合、第1装置100は第1モードとなり、第1装置100の向きが、ユーザが設定した第2の向きである場合、第1装置100は第2モードとなる。
また、第1装置100の向きに応じたモードは、ユーザによる第1装置100の使用状況に基づき決めてもよい。
具体的には、この場合、使用状況として、例えば、第1装置100が向いた方向の頻度についての情報を取得する。
そして、例えば、第1装置100が向いた方向のうちの、向いた頻度が多い向きを第1の向きとし、向いた頻度が小さい向きを、第2の向きとする。
具体的には、第1装置100のCPU111Aは、例えば、第1装置100が、ユーザの装着部位30に対して図5(A)に示す状態で装着された場合と、図5(B)に示す状態で装着された場合とで、ユーザが第1装置100に対して行った予め定められたジェスチャに応じて行う処理の内容を切り替える。
また、第1装置100のCPU111Aは、装着部位30に対し、第1装置100が図5(A)に示す状態で装着された場合、第2装置200の制御を行わず、ユーザが第1装置100のディスプレイ101に対して行った予め定められたジェスチャに基づき、第1装置100の制御を行う。
この構成例では、第1装置100は、いわゆるスマートリングにより構成されている。言い換えると、第1装置100は、指輪の形態を有する装置となっている。この構成例では、第1装置100は、この第1装置100に通される、ユーザの指を軸として回転する。
この構成例では、第1装置100の特定の部位が、特定の方向を向いた状態で、この第1装置100がユーザに装着された場合、第1装置100のモードが第2のモードとなり、第1装置100は、第2装置200の操作のために用いるリモコンとして機能する。
なお、第1装置100のモードが、第1のモードにある場合、電源をオフとせずに、例えば、ユーザの生体情報を取得する処理が行われるようにしてもよい。
図6、図7(A)、(B)にて示すこの構成例では、指輪の形態を有するこの第1装置100が、ユーザの指に対して第2の向きで装着された場合、上記と同様、第2のモードとなる。
また、例えば、図7(B)に示すように、特定の部分119が、ユーザの手の甲側にくるように第1装置100がユーザに装着された場合、第1装置100は第1のモードとなる。
また、特定の部分119が、ユーザの手の甲側にくるように第1装置100がユーザに装着された場合に、第1装置100を第2のモードとしてもよい。
また、その他に、例えば、図8(第1装置の他の装着例を示した図)に示すように、特定の部分119が、第1装置100が装着された指と、この指の隣の指との間にくるように第1装置100がユーザに装着された場合に、第1装置100を、第2のモードとしてもよい。
具体的には、ユーザは、図9(ユーザの指の動きを示した図)に示すように指を動かす。本実施形態では、ユーザのこの指の動きが、第1装置100に設けられた加速度センサ等により検知され、この検知の結果に基づき、第2装置200の制御が行われる。
また、図9(B)に示すように、第1装置100が装着された指が左方向へ移動した場合、第2装置200におけるディスプレイ202にて、左スクロールが行われる。
また、図9(D)に示すように、第1装置100が装着された指が上方向へ移動した場合、第2装置200におけるディスプレイ202にて、上方向へのスクロールが行われる。
また、この例では、図9(F)に示すように、第1装置100が装着された指が反対方向へ回転した場合、第2装置200におけるディスプレイ202にて、最初にフォーカスされていた表示要素の1つ前の表示要素(例えば左隣の表示要素)がフォーカスされた状態に切り替えられる。
具体的には、第2装置200のディスプレイ202に表示されている表示要素であって、カーソルなどのポインターが載っている表示要素の選択が行われる。
言い換えると、この場合、いわゆるクリックに相当する処理が行われる。
なお、例えば、表示要素がファイルを表している場合には、表示要素が選択された場合に、表示要素が表すファイルのプレビューを表示してもよい。
具体的には、この場合、例えば、第2装置200のディスプレイ202に表示されている表示要素であって、カーソルなどのポインターが載っている表示要素が、ユーザが選択した表示要素として決定される。
言い換えると、この場合、いわゆるダブルクリックに相当する処理が行われる。
なお、例えば、表示要素がファイルを表している場合には、表示要素が選択された場合に、表示要素が表すファイルが開く。
なお、選択と決定は2段階に分ける必要はなく、表示要素が選択されたことをもって選択された表示要素が表す内容を実行してもよい。
なお、指輪の形態を有するこの第1装置100においては、この第1装置100に、プロセッサであるCPU111Aと各種のセンサとを設け、この第1装置100が、第2装置200を制御するための制御情報を生成して、第2装置200の制御を行うようにしてもよい。
また、これに限られず、上記と同様、第1装置100にて行われた各種の検知の結果を、第2装置200に送信し、この第2装置200が、この検知の結果を基に、第2装置200の制御を行ってもよい。
図10に示すこの例では、指輪の形態を有する第1装置100に、磁石や金属などの被検知対象を設けるとともに、この被検知対象の動きを、他の装置800で検知する。
ここでは、この他の装置800は、装着可能な装置となっている。より具体的には、この他の装置800は、手首に装着可能な装置となっている。
具体的には、指輪の形態を有する第1装置100の向きが、第2の向きとなった場合、他の装置800のモードが、第1のモードから第2のモードに切り替えられる。
そして、この場合、第1装置100が装着された指の動きを、他の装置800に設けられたセンサが検知する。そして、この場合、この他の装置800が有するセンサが得た検知結果に基づき、第2装置200の制御が行われる。
この構成例では、図11(A)に示すように、第1装置100は、回転可能な部分131(以下、「回転部分131」と称する)を有する。
この構成例では、第1装置100は、スマートフォン132と、このスマートフォン132に取り付けられたストラップ133とにより構成されている。また、スマートフォン132はディスプレイ101を有し、ディスプレイ101にはスマートフォンにインストールされた各種アプリケーションのアイコンが並んだメニュー画面や、選択されたアプリケーションの画面などの表示画面101Aを表示することができる。
この構成例では、環状に形成されたストラップ133に対して、ユーザが頭を通すことで、ユーザの首から、第1装置100が吊り下げられる形となる。
これにより、ストラップ133に対して、このストラップ133よりも下方に位置するスマートフォン132の回転が可能となる。
この構成例では、第1装置100の装着の向きが、回転部分131の一例であるスマートフォン132が回転することによって変化する。
この構成例では、このスマートフォン132が回転することに応じて、第1装置100のモードが、第1のモードから第2のモードへ移行する。
言い換えると、第1装置100が、鉛直方向に沿い且つユーザ側とは反対側を向いている場合、第1装置100のモードが、第2のモードとなる。
これにより、ユーザは、図11(A)の符号11Xに示すように、吊り下げられている状態のこのスマートフォン132のディスプレイ101に触れることで、第2装置200(図11では不図示)の操作を行える。
言い換えると、第1装置100のディスプレイ101が、鉛直方向に沿い且つユーザ側を向いている場合、第1装置100のモードが、第1のモードとなる。
この第1のモードでは、第1装置100は、スリープ状態となり、ユーザは、第2装置200の操作を行えないようになる。第1装置100がスリープ状態となると、第1装置100のディスプレイ101のタッチパネルに対する操作は無効となり、タッチパネルとユーザが接触しても第1装置100、第2装置200が作動しない。
この場合、ユーザが、第1装置100のディスプレイ101を触れても、第2装置200は作動しない。
このストラップ付のIDカードでは、IDカードの一方の面側に、上記のタッチパネルと同様の機能を有する機能部を設ける。即ち、ユーザの操作を受け付けるための機能部を設ける。
そして、このストラップ付のIDカードでは、IDカードのうちのこの機能部が設置された面が、ユーザと反対側を向いた場合に、第1装置100を第2のモードとする。
また、IDカードのうちのこの機能部が設置された面が、ユーザ側を向いた場合に、第1装置100を第1のモードとする。
第1装置100の向きは、第1装置100に設けられたセンサ115(図3参照)からの出力に基づき判断する。
具体的には、第1装置100の向きは、例えば、第1装置100に設けられた照度センサからの出力に基づき判断する。
具体的には、例えば、回転部分131の一例であるスマートフォン132(図11参照)が回転する上記の第1装置100では、例えば、第1装置100に照度センサを設け、この照度センサからの出力に基づき、第1装置100の向きを検知する。
また、その他に、スマートフォン132が回転する上記の第1装置100では、ストラップ133とスマートフォン132との間のコネクタ134の部分に、スマートフォン132の回転を検知するセンサを設け、このセンサからの出力に基づき、スマートフォン132の向きを判断してもよい。
この場合、ユーザの手首のうちの手の平側に位置する部分に位置する血管についての情報と、ユーザの手首のうちの手の甲側に位置する部分に位置する血管についての情報とを、予め取得して登録しておく。
そして、ユーザが実際に第1装置100を装着した場合に得られる血管についての情報と、登録された上記の情報とを照合して、第1装置100の向きを判断する。
この場合も、ユーザの指のうちの手の平側に位置する部分に位置する血管についての情報と、ユーザの指のうちの手の甲側に位置する部分に位置する血管についての情報とを、予め取得して登録しておく。
そして、ユーザが実際に第1装置100を装着した場合に得られる血管についての情報と、登録された上記の情報とを照合して、第1装置100の向きを判断する。
具体的には、例えば、上記の特定の部分119(図8参照)に、圧力センサを設け、この圧力センサからの出力に基づき、第1装置100の向きを判断してもよい。
指輪の形態を有する第1装置100では、図8に示したように、第2のモードのときに、特定の部分119が、第1装置100が装着された指と、この指の隣の指との間に位置する状態で、第1装置100が装着される場合がある。
言い換えると、この場合、特定の部分119が、第1装置100が装着された指と、この指の隣の指とにより挟まれていることが検知される。
この場合、本実施形態では、第1装置100のモードが、第1のモードから、第2のモードへ移行する。
なお、上記にて説明した、第1装置100の向きの検知の方法は一例である。第1装置100の向きの検知にあたっては、重力センサ、傾斜センサ、加速度センサなどの他のセンサを用いてもよい。また、第1装置100の向きは、公知の他の方法により検知してもよい。
図12は、第2実施形態における第1装置100を示した図である。
第2実施形態における第1装置100では、図12に示すように、第1装置100のモードの切り替えにあたり、ユーザが、このユーザにより装着された第1装置100の外面側を覆う操作を行う。
そして、この実施形態では、第1装置100の外界側が覆われたことに応じて、第1装置100のCPU111Aが、第1装置100のモードを、このユーザの予め定められた指の動きによる第2装置200の操作が許可された第2のモードへ移行させる。
第1装置100のCPU111Aは、第1装置100の外界側が覆われているか否かを、例えば、第1装置100の外界側の特定の部分が予め定められた面積を超えて覆われているか否かによって判断する。
外界側の特定の部分としては、例えば、第1装置100のディスプレイ101を挙げることができる。言い換えると、外界側の特定の部分としては、第1装置100のタッチパネルを挙げることができる。
言い換えると、第1装置100のCPU111Aは、第1装置100の外界側が覆われているか否かを、第1装置100の外界側に位置するタッチパネルが予め定められた面積を超えて覆われているか否かによって判断する。
なお、本明細書において、「装置の内界側」とは、その装置がユーザに装着されたときにユーザと接触する側、あるいは、接触しなくともユーザのより近くにある側を指し、「装置の外界側」とは、その反対を指す。例えば、腕時計であれば、ユーザの手首に装着されたときにユーザの手首に接触する側はこの腕時計の内界側であり、外界側ではない。時刻などが表示される面は外界側である。また、イヤホンの場合、装着時にユーザの耳の内部に入りユーザの耳と接触する部分が内界側で、耳の外に出ている部分が外界側である。また、眼鏡のレンズはユーザが眼鏡をかけてもユーザの目と接触するわけではないが、目の近くにくる面が内界側で、その反対の面が外界側である。
なお、ユーザが任意の状態で装着できる装置の場合は、装着状態(例えば装着の向き)によってその装置のある部分が内界側になることもあれば、外界側になることもある。例えば、図11(A)はディスプレイ101が第1装置100の外界側にある状態を示している。一方、図11(B)はディスプレイ101が第1装置100の内界側にある状態を示している。
そして、第1装置100のCPU111Aは、特定したこの箇所に基づき、ユーザにより覆われた箇所の面積についての情報を取得する。
一方、CPU111Aは、第1装置100の外界側が覆われていない場合、又は、第1装置100の外界側の覆われた部分の面積が、この予め定められた閾値を超えない場合、第1装置100のモードを、第2のモードへ移行させず、第1のモードのままとする。
第1装置100の外界側が、ユーザの指先で覆われた場合、ユーザが、第1装置100自体の操作を行っていることが想定され、この場合、第1装置100のモードを第2のモードへ移行させない。
具体的には、例えば、ディスプレイ101のうちの、ユーザが実際に触った箇所の面積が、予め定められた閾値よりも小さい場合、第1装置100の外界側が、ユーザの指先で覆われたと判断する。
また、例えば、ディスプレイ101のうちの、ユーザが実際に触った箇所の面積が、予め定められた閾値よりも大きい場合、第1装置100の外界側が、ユーザの手の平(ユーザの指先以外の部分)で覆われたと判断する。
例えば、第1装置100のうちの外界側に位置する部分に照度センサを設け、この照度センサからの出力に基づき、第1装置100の外界側が覆われたか否かを判断してもよい。
また、例えば、第1装置100の外界側に圧力センサを設け、第1装置100の外界側に作用する圧力を検知することによって、第1装置100の外界側が覆われているか否かを判断してもよい。言い換えると、第1装置100の外界側が覆われているか否かは、第1装置100の外界側に作用する圧力によって判断してもよい。
また、例えば、第1装置100の表面における静電容量の変化に基づき、第1装置100の外界側が覆われたか否かを判断してもよい。
このため、照度を基に第1装置100が覆われたか否かを判断する場合は、照度についての情報と、例えば、第1装置100の表面における静電容量の変化についての情報とに基づき、第1装置100が覆われたか否かを判断してもよい。
また、例えば、照度センサからの出力が、照度が低下したことを示す出力であり、静電容量についてのセンサからの出力が、ユーザが第1装置100に触れたことを示す出力でない場合、第1装置100の外界側が衣服により覆われたと判断する。
この場合、第1装置100の外界側が、予め定められた条件を満たさないものによって覆われた場合、第1装置100のモードは、第2のモードへ移行せずに、第1のモードのままとなる。
言い換えると、第1装置100を覆ったものの種別についての情報を取得し、この種別についての情報に基づき、第1装置100のモードの切り替えを行ってもよい。
具体的には、例えば、第1装置100を覆ったものが、衣服であるか、あるいは、ユーザであるかを判断し、この判断に基づき、モードの切り替えを行ってもよい。
ここで、第1装置100を覆ったものが、衣服であるか、ユーザであるかは、第1装置100の表面における静電容量の変化を基に判断できる。
第1装置100を覆ったものが、衣服からユーザに切り替わった場合は、照度の変化が起きないことが想定されるが、上記のように、第1装置100に、静電容量の変化を検出するセンサが設けられている場合は、衣服からユーザに変わったことを検知できる。
この場合、例えば、第1装置100に、この第1装置100に作用する圧力を検知するセンサを設け、第1装置100に作用する圧力の大きさによって、ユーザの操作が、第1装置100のみを操作するための操作であるか、第2モードに切り替えるための操作であるかを判断する。
第1装置100のみを操作するための操作である場合、ディスプレイ101であるタッチパネルに局所的に圧力が作用し、第1装置100に対して作用する圧力が大きくなる傾向にある。
この場合、ユーザの操作は、第1装置100のみを操作するための操作であると判断し、第1のモードのままとする。
第2モードに切り替えるための操作である場合、ユーザが、手の平の全体で第1装置100のディスプレイ101を覆う場合が多くなり、第1装置100に対して作用する圧力が小さくなる傾向にある。
この場合、ユーザの操作は、第2モードに切り替えるための操作であると判断し、第2のモードへの切り替えを行う。
具体的には、例えば、第1装置100の覆われた部分の面積が、予め定められた閾値よりも小さい場合、ユーザの操作を、第1装置100のみに対する操作であると判断し、第1のモードのままとする。
また、例えば、第1装置100の覆われた部分の面積が、予め定められた閾値よりも大きい場合、ユーザの操作を、第2モードに切り替えるための操作であると判断する。この場合、第1装置100のモードを、第1のモードから第2のモードへ切り替える。
具体的には、例えば、第1装置100に対して作用する圧力が予め定められた閾値を超え、且つ、覆われた部分の面積が予め定められた閾値よりも小さい場合、ユーザの操作を、第1装置100のみに対する操作であると判断し、第1のモードのままとする。
この場合、第1装置100のモードを、第1のモードから第2のモードへ切り替える。
具体的には、例えば、第1装置100が、腕時計の形態を有する装置である場合は、第1装置100のフレームに相当するベゼル141(図12参照)の部分に、圧力センサや、静電容量の変化を検知するセンサや、照度センサを設けるようにする。
そして、この場合、圧力センサや、静電容量の変化を検知するセンサや、照度センサからの出力に基づき、ユーザが、ベゼル141を覆ったか否かを判断する。
そして、ユーザがベゼル141を覆ったと判断される場合、ユーザが、第1装置100の外界側を覆ったと判断する。
また、ベゼル141のうちのユーザが触れた部分に作用する圧力についての情報を取得し、圧力が、予め定められた閾値を超える場合に、ユーザが、第1装置100の外界側を覆ったと判断してもよい。
また、面積と圧力の両方を考慮してもよく、例えば、ベゼル141のうちのユーザが触れた部分の面積が予め定められた閾値を超え、且つ、ベゼル141のうちのユーザが触れた部分に作用する圧力が予め定められた閾値を超えた場合に、ユーザが、第1装置100の外界側を覆ったと判断してもよい。
この場合、例えば、圧力センサにて検知された圧力が、予め定められた閾値を超える場合、ユーザが、第1装置100を覆ったと判断し、第1装置100のモードを、第2のモードに切り替える。
一方、圧力センサにて検知された圧力が、予め定められた閾値を超えない場合、ユーザが、第1装置100を覆ったと判断せず、第1装置100のモードを、第1のモードのままとする。
この場合、ユーザは、第1装置100のモードの切り替えを行う場合、第1装置100のベルト142を覆う。
ユーザが、第1装置100のベルト142を覆うと、圧力センサや、静電容量の変化を検知するセンサや、照度センサからの出力が変化する。これに伴い、第1装置100のモードが、第1のモードから第2のモードに切り替えられる。
具体的には、例えば、図13(第1装置100を装着しているユーザの状態を示した図)に示すように、ユーザが、第1装置100の外界側の特定の部分を、自身の衣服などに対向させることで覆った場合も、第1装置100のモードを、第2のモードに切り替えられる。
図13に示す例では、ユーザが、第1装置100の外界側の特定の部分として、ディスプレイ101の外界側を、自身の衣服に対向させている状態を例示している。
また、例えば、ユーザが、第1装置100の外界側を、自身の衣服などに対して対向させ、第1装置100の外界側における照度を予め定められた閾値以下まで低下させた場合に、第1装置100のモードが、第2のモードに切り替えられてもよい。
第2のモードにおける、ユーザの指の動きの検知は、例えば、図15(A)に示すように、第1装置100を装着していない方の腕の先端にある指の動きを検知する第1態様と、図15(B)に示すように、第1装置100を装着している方の腕の先端にある指の動きを検知する第2態様とが存在する。
図15(A)に示す第1態様では、例えば、第1装置100の外界側に位置するディスプレイ101(タッチパネル)(図12参照)を用いて、ユーザの指の動きを検知する。
なお、その他に、例えば、第1装置100のフレームであるベゼル141(図12参照)の部分に、接触センサを設け、このベゼル141の部分で、ユーザの指の動きを検知してもよい。
また、その他に、第1装置100が手首装着型の装置である場合には、ベルト142(図15(A)参照)にセンサを設け、このベルト142に設けられたセンサで、ユーザの指の動きを検知してもよい。
図15(B)に示すこの第2態様では、例えば、第1装置100の内界側に、振動センサを設けたり、第1装置100の内界側に、ユーザの筋肉や腱の動きを検知するセンサを設けたりする。
図15(B)に示す第2態様では、これらのセンサを用い、第1装置100を装着している方の腕の先端にある指の動きを検知する。図15(B)に示す第2態様では、第1装置100が装着された腕の先端にある指の動きに基づき、第2装置200の制御が行われることになる。
言い換えると、図15(B)に示す第2態様では、第1装置100のCPU111Aは、第1装置100が装着された腕の先端にある指の動きに基づき、第2装置200を制御する。
即ち、第2のモードにおける、ユーザの指の動きの検知では、第1装置100を装着していない方の腕の先端にある指の動きの検知、第1装置100を装着している方の腕の先端にある指の動きの検知の両者を行ってもよい。
具体的には、この場合、例えば、図16(ユーザの手指の状態を示した図)に示すように、第1装置100が装着された腕の先端にある指に、指輪の形態を有する装着機器290を装着する。
この構成例では、第1装置100を用い、この装着機器290の動きを検知する。これにより、この場合も、第1装置100が装着された腕の先端にある指の動きの検知を行える。
この装着腕の先端にある指の動きを検知する態様は、上記の第1の実施形態にて説明した第1装置100に対しても適用してもよい。
第1の実施形態にて説明した第1装置100でも、第2のモードにて、ユーザの指の動きを検知するが、この検知の際に、装着腕の先端にある指の動きを検知してもよい。そして、第1の実施形態では、この指の動きに基づき、第2装置200の制御を行ってもよい。
第1の実施形態においても、ユーザが第1装置100に触れる箇所は、ディスプレイ101のタッチパネルに限られず、他の箇所であってもよい。
例えば、第1装置100が腕時計である場合には、第1装置100のフレームに相当するベゼル141であってもよい。また、例えば、ベルト142にセンサを設け、ユーザが第1装置100を触れる箇所は、このベルト142としてもよい。
図17に示す表示例では、ユーザの指の動きと、この動きに基づき第2装置200にて実行される処理の内容とが互いに対応付けられた状態で表示されている。言い換えると、図17では、指の操作方法をユーザに案内するための案内表示が行われている。
具体的には、ユーザが第1装置100に対して行う操作については、図17の符号17Aで示す箇所に表示され、第2装置200にて行われる処理の内容については、図17の符号17Bで示す箇所に表示される。
より具体的には、第2装置200にて行われる処理の内容については、符号17Xで示す円形の領域の内側に表示される。なお、図17では、この処理の内容についての図示は省略している。
より具体的には、図17では、ユーザが左手で行う操作と、この操作が行われた場合に第2装置200にて行われる処理の内容とが示され、また、ユーザが右手で行う操作と、この操作が行われた場合に第2装置200にて行われる処理の内容とが示されている。
言い換えると、図17では、第1装置100を装着していない方の腕の先端にある指の動きの検知、第1装置100を装着している方の腕の先端にある指の動きの検知の両者が行われる場合における案内表示を示している。
図17に示す表示例では、符号17Cで示す箇所に、左手の指先の動きと、この動きに対応した処理内容とが表示されている。
言い換えると、図17に示す表示例では、ディスプレイ202(図1参照)に表示される表示画面202Aの左側に、第1装置100が装着されている方の手である左手の指先の動きと、この動きに対応した処理内容とが表示されている。
言い換えると、図17に示す表示例では、表示画面202Aの右側に、第1装置100が装着されていない方の手である右手の指先の動きと、この動きに対応した処理内容とが表示されている。
本実施形態では、表示画面202Aの左側に、左手の指先の動きを表示し、表示画面202Aの右側に、右手の指先の動きを表示している。
この場合、表示画面202Aの左側に、右手の指先の動きを表示し、表示画面202Aの右側に、左手の指先の動きを表示する場合に比べ、ユーザは、各手の操作の内容をより直観的に認識しやすくなる。
言い換えると、図17に示すこの表示例では、第1装置100のモードが、第2装置200の操作のための第2モードであることが示されている。
言い換えると、図17に示すこの表示例では、第1装置100のモードが、第2装置200の操作のためのリモコンモードであることが示されている。
図示は省略するが、第1装置100がユーザの右手に装着された場合における表示では、例えば、符号17Cで示す箇所に、第1装置100が装着されていない方の手である左手の指先の動きと、この動きに対応した操作内容とが表示される。
また、第1装置100がユーザの右手に装着された場合における表示では、例えば、符号17Dで示す箇所に、第1装置100が装着されている方の手である右手の指先の動きと、この動きに対応した操作内容とが表示される。
この場合、第1装置100が装着されている方の腕が左であると判断された場合、図17にて示した表示が行われる。
図17にて示すこの表示では、上記の通り、符号17Cで示す箇所に、左手の指先の動きと、この動きに対応した処理内容とが表示される。また、符号17Dで示す箇所に、右手の指先の動きと、この動きに対応した処理内容とが表示される。
また、符号17Dで示す箇所に、右手の指先の動きと、この動きに対応した処理内容とが表示される。
この表示例では、第1装置100を装着している方の腕の先端にある指を動かす場合における表示例を示している。具体的には、この例では、第1装置100を装着している方の腕である左腕の先端にある指を動かす場合における表示例を示している。
この場合、第2装置200のディスプレイ202には、図18に示すように、第1装置100を装着している方の腕である左腕の指先の動きと、この動きに応じて実行される処理の内容とが表示される。
また、本実施形態では、第1装置100に対し、装着側操作および非操作側操作の両者を行える。
本実施形態では、これら3つの操作態様が存在し、この3つの操作態様の各々において、第1装置100は、ユーザが第1装置100に対して行った操作の内容を受け付ける。
また、その他に、予め、第1装置100毎に、ユーザが第1装置100に対して行うことができる操作態様を決めてもよい。この場合は、この予め決まっている操作態様の下でユーザが操作を行い、第1装置100が、この操作を受け付ける。
具体的には、例えば、ユーザが装着側操作および非装着側操作の両者を行える操作態様では、図17にて示した表示が行われる。また、ユーザが装着側操作のみを行える操作態様では、図18にて示した表示が行われる。
また、図示は省略するが、ユーザが非装着側操作のみを行える操作態様では、第1装置100が装着されていない方の腕の指先の動きと、この指先の動きに対応した操作内容とが表示される。
図19では、符号19Aで示す箇所に、上記の第1装置100の回転が行われる前や、第1装置100がユーザによって覆われる状態となる前における、第1装置100の表示例を示している。
言い換えると、図19では、符号19Aで示す箇所に、第1装置100が第1のモードにある場合における、第1装置100の表示例を示している。
第1のモードでは、第1装置100に対する操作が一定時間行われなかった場合、第1装置100はスリープ状態となり、図19(A)に示すように、第1装置100のディスプレイ101は、消灯された状態とされる。
言い換えると、ユーザは、第1装置100の表示画面101Aに表示された、アイコンなどの表示要素185の視認を行える。
そして、例えば、ユーザが、表示されている複数のアプリケーションの中から、アプリケーションの選択を行うと、図19(C)に示すように、選択されたアプリケーションに対応した画面が表示される。
具体的には、図19(C)にて示す例では、メッセージの送受信を行うためのチャットアプリケーションがユーザにより選択された場合を例示しており、この場合、第1装置100には、チャットアプリケーションに対応した画面が表示される。図19(C)に示す例では、このユーザが他のユーザ(例えばユーザA)から受信した「エンジョイ(以下省略)」というチャットメッセージが表示されており、ユーザAに返信するチャットメッセージの選択肢として「了解」、「ありがとう」が表示されている。
第1装置100のCPU111Aは、第1装置100のモードを、第1のモードから第2のモードへ移行させる場合、第1装置100のディスプレイ101における表示を変更する。
具体的には、本実施形態では、図5、図7、図11、図12にて示したように、第1装置100の向きが変更された場合や、第1装置100が覆われた場合、第1装置100のCPU111Aが、第1装置100のディスプレイ101における表示を変更する。
これにより、第1装置100におけるディスプレイ101では、例えば、図19の符号19Xで示す表示が行われる。
本実施形態では、この第2のモードへの移行に伴い、一例として、符号19Xで示す状態に第1装置100の表示画面101Aが遷移する。
本実施形態では、第2のモードへの移行の直前に第1装置100にて表示されている表示内容に関わらず、第2のモードへ移行したことに応じて第1装置100の表示画面101Aが符号19Xで示す内容へと切り替わる。
また、本実施形態では、第2のモードへの移行の直前に第1装置100に画面が表示されていたか否かに関わらず、第2のモードへ移行したことに応じて、第1装置100のディスプレイ101に符号19Xで示す内容を表示する。
また、図19(A)に示したように、第1装置100が消灯状態にある場合であっても、第2のモードへ移行した場合は、第1装置100のディスプレイ101には符号19Xで示す表示画面101Aが表示される。
さらに、符号19Xで示すこの画面では、符号19Yで示すように、第1モードへ移行するための操作方法が表示されている。言い換えると、符号19Xで示すこの画面では、第1モードへ戻るための操作方法が表示されている。
第1装置100が第2のモードにある場合における表示としては、図19の符号19Xで示した表示の他に、例えば、図20(A)、(B)に示す表示が挙げられる。この図20(A)、(B)に示す表示は、輝度が低下した表示となっている。
また、図20(B)では、第1のモードにて表示されていた表示画面101A(図19(B)参照)に対して、グレーのスクリーンを上から追加で表示した表示画面101Aを示している。この図20(B)に示す表示画面101Aの輝度は、25%となっている。
図20(B)では、表示画面101Aに、アイコンなどの表示要素185が見えているが、第2のモードでは、この表示要素185は無効となる。
このため、ユーザが、この表示要素185に対するタップやスワイプなどの操作を行っても、この操作の受け付けは行われない。
上記の輝度0%や、25%は、この第1のモードにおける表示画面101Aの輝度を100%とした場合における、輝度の割合を示している。
図20(A)、(B)に示す表示では、輝度が低下しており、これにより、ユーザは、第1装置100のモードが、第2モードであることを認識する。
この表示画面101Aは、第2のモードへの移行前に第1装置100のディスプレイ101に表示されていた表示画面101A(図19(B)参照)(以下、「第1表示画面101C」)の上に、ユーザによる選択が可能な表示要素185を含まない第2表示画面101D(図20(E)参照)を重ねた表示画面101Aとなっている。
これにより、第2のモードでは、第1装置100に表示される表示画面101Aは、図20(C)に示す表示画面101Aとなる。
これに対し、図20(B)、(C)における表示では、ユーザにより選択される表示要素185の選択が行えない表示となっている。
言い換えると、図20(B)、(C)では、第2のモードへの移行前に第1装置100に表示され且つ選択可能であった表示要素185の選択を行えないことを示す表示が行われている。
図20(B)、(C)に示す表示例では、ユーザは、第2のモードへの移行前に表示されていた表示要素185の視認を行える。しかしながら、この図20(B)、(C)に示す表示例では、ユーザは、この表示要素185の選択を行えない。
言い換えると、図20(B)、(C)では、ユーザがディスプレイ101に触れても第1装置100が反応せず、図20(B)、(C)における表示は、ディスプレイ101に対する操作が、意味がない操作であることをユーザに知らせる表示となっている。
なお、表示要素185が無効であることを示す表示としては、その他に、カラーで表示されていた表示要素185を、白黒で表示する態様なども挙げられる。
図20(B)、(C)にて示すこの表示が行われている場合、第1装置100のCPU111Aは、ユーザが、表示要素185が表示されている箇所を触れこの表示要素185に対する操作を行っても、この表示要素185に対応する処理を実行しない。
本実施形態では、CPU111Aは、第1装置100のモードを第2のモードへ移行させる場合、ディスプレイ101の表示を、図19(B)にて示した第1表示画面101Aから、例えば、図20(D)に示す、表示要素185を含まない第2表示画面101Aに切り替える。
図20(D)における表示においても、ユーザがディスプレイ101に触れても第1装置100が反応せず、図20(D)における表示は、ディスプレイ101に対する操作が、意味がない操作であることをユーザに知らせる表示となっている。
また、図20(D)に示すこの表示画面101Aでは、第1装置100のモードが、第1装置100を介して第2装置200の操作を行えるいわゆるリモコンモードであることを示す表示が行われている。
また、図20(D)に示す表示画面101Aには、第2モードを解除するための方法を示す表示が行われている。
図21にて示すこの表示例は、第2のモードへの移行に伴って第1装置100の表示画面101Aのレイアウトが変更された場合における表示例を示している。
具体的には、この表示例では、第1装置100のモードが、第1のモードから第2のモードへ移行すると、図21に示すように、第1のモードのときに表示されていた表示画面101A(図19(B)参照)が縮小されて、第1装置100の表示可能領域の上半分に表示される。なお、縮小された図19(B)の表示画面101Aは、表示可能領域の上側でなく、下側、右側、左側などに表示されてもよい。また、図19(B)の表示画面101Aは半分に縮小される必要はなく、例えば、ユーザが設定した大きさに縮小されてもよい。
この受け付け用領域193には、ユーザからの操作を受け付けるための領域であることをユーザに知らせるための表示が行われている。具体的には、受け付け用領域193には、ユーザの人差し指と中指を示す画像の表示が行われている。なお、ユーザの利き手や第1装置100をどちらの腕に装着しているかなどによって、ここで表示される指は変わってもよい。
この表示例では、第2のモードにおいて、ユーザは、この受け付け用領域193で指を動かして(タップなど)、第2装置200を操作する。
受け付け用領域193には、テキストやアイコンを含まない無地の画像が表示されるようにしてもよい。
また、受け付け用領域193には、「第2装置200に対する操作はこの領域で受け付けます」などのテキストを表示してもよい。
これに対して、上記の図1~21にて示した本実施形態では、ユーザは、ある装置(第1装置100)を回転させたり、覆ったりすることによって、その装置のモードを別の装置(第2装置)を操作するためのモードに切り替えている。つまり、ユーザは、その装置を必ずしも見なくてもその装置のモードを切り替えることができる。
上記では、手首装着型の第1装置100として腕時計、指装着型の第1装置100として指輪、首装着型の第1装置100としてネックストラップ付スマートフォンを説明したが、第1装置100は、これらに限られない。第1装置100は、上半身(頭、首、背中、腹、腕などを含む)に装着されるものであっても、下半身(腰、脚などを含む)に装着されるものであっても、その両方に装着されるものであってもよい。具体的には、第1装置100は、帽子、コンタクトレンズ、ヘッドセット、イヤホン、イヤリング、ピアス、腹巻、ネックウォーマー、ネックレス、マフラー、アームウォーマー、リストバンド、手袋、付け爪、ネイルシール、トップス(長袖、半袖、タンクトップなど)、ボトム(スカート、パンツなど)、ワンピース、靴、靴下などの形態で提供されてもよい。
言い換えると、これらの第1装置100では、この第1装置100に設けられた孔に対して、人体の一部を通せるようになっている。
具体的には、例えば、腹巻、ネックウォーマー、ネックレス、アームウォーマー、リストバンドなどの形態を有する第1装置100では、これらの第1装置100に設けられた孔に対して、人体の一部を通せるようになっている。
そして、これらの第1装置100では、この一部を中心として、この第1装置100を回転させることで、モードの切り替えを行える。
具体的には、人体の一部に被せられる形態を有する第1装置100としては、帽子、手袋、靴、靴下などの形態を有する装置が挙げられる。
帽子の形態を有する第1装置100では、ユーザの頭部を中心として帽子を周方向に回転させることで、モードの切り替えを行える。
また、靴、手袋、靴下などの形態を有する第1装置100では、例えば、右手や右足に装着されていた第1装置100を、左手や左足に装着することで、モードの切り替えを行える。また、左手や左足に装着されていた第1装置100を、右手や右足に装着することで、モードの切り替えを行える。
人体に存在する穴にはめ込む形態を有する第1装置100としては、例えば、イヤホンの形態を有する第1装置100が挙げられる。
イヤホンの形態を有する第1装置100では、ユーザの耳の内部に入る部分を中心としてこの第1装置100を周方向に回転させることで、モードの切り替えを行える。
人体に存在する穴に通したうえでこの人体に引っ掛ける形態を有する第1装置100としては、例えば、ユーザの耳たぶに装着されるピアスの形態を有する装置が挙げられる。
ピアスの形態を有する第1装置100では、ユーザの耳の内部に入る部分を中心としてこの第1装置100を周方向に回転させることで、モードの切り替えを行える。
また、ピアスの形態を有する第1装置100では、耳たぶの一方の面に装着されていたこの第1装置100を、他方の面側に装着することで、モードの切り替えを行える。
具体的には、例えば、ユーザの頭部を挟むヘッドセットの形態を有する第1装置100や、耳たぶを挟むイヤリングの形態を有する第1装置100が挙げられる。
ヘッドセットの形態を有する第1装置100では、ユーザが、右耳側と左耳側とを入れ替えた状態でこの第1装置100を装着することで、モードの切り替えを行える。
また、イヤリングの形態を有する第1装置100では、耳たぶの一方の面側に位置する部分と、他方の面側に位置する部分とが入れ替われるように第1装置100の装着状態を変えることで、モードの切り替えを行える。
これらの第1装置100では、これらの第1装置100のうちの外界側に位置する部分に、上記と同様、圧力センサや、静電容量の変化を検知するセンサや、照度センサを設けるようにする。
そして、これらの第1装置100の外界側がユーザにより覆われた場合に、モードの切り替えを行う。
例えば、上記にて説明した各構成の一部を省略したり、上記にて説明した各構成に対して他の機能を付加したりしてもよい。
また、上記では、複数の実施形態を説明したが、一の実施形態に含まれる構成と他の実施形態に含まれる構成とを入れ替えたり、一の実施形態に含まれる構成を他の実施形態に付加したりしてもよい。
Claims (15)
- プロセッサを有しユーザの装着部位に装着される装置であって、ユーザが当該装置を介して他の装置の操作を行うことが可能な装置であり、
前記プロセッサは、
前記装着部位に装着された前記装置の向きを検知し、
前記装置がユーザの前記装着部位に対して第2の向きで装着されたことに応じて、前記装置のモードを、前記装置を介しての前記他の装置の操作が許可された第2のモードへ移行させる、
装置。 - 前記装置は、前記装着部位に装着されたまま前記装着部位を軸として回転可能であって、
前記装置の装着の向きは、前記装置が前記装着部位を軸として回転することによって変化する、
請求項1に記載の装置。 - 前記プロセッサは、
前記装置の装着の向きが前記装着部位に対して前記第2の向きと異なる第1の向きから前記第2の向きに変化したことに応じて、前記装置のモードを前記第1の向きに対応した第1のモードから前記第2のモードへ移行させる、
請求項1に記載の装置。 - 前記装置は、回転可能な部分を有し、
前記装置の装着の向きは、前記回転可能な部分が回転することによって変化し、
前記プロセッサは、
前記回転可能な部分が回転することに応じて、前記装置のモードを前記第2のモードへ移行させる、
請求項1に記載の装置。 - 前記プロセッサは、
前記装置の向きが前記第2の向きでなくなったことに応じて、前記装置のモードを、前記第2のモードから前記第2のモードに入る前の第1のモードに戻す、
請求項1に記載の装置。 - 前記第1のモードは、前記他の装置を操作するためのモードではなく、前記装置を操作するためのモードであり、
前記第2のモードは、前記装置を介して、前記他の装置を操作するためのモードである、
請求項3又は5に記載の装置。 - 前記プロセッサは、
前記装置のモードを前記第2のモードへ移行させる場合、前記装置のディスプレイにおける表示を変更する請求項1に記載の装置。 - 前記プロセッサは、
前記装置のモードを前記第2のモードへ移行させる場合、前記装置のディスプレイの輝度を低下させる、
請求項1に記載の装置。 - 前記プロセッサは、
前記装置のモードを前記第2のモードへ移行させる場合、移行前に前記装置のディスプレイに表示されていた選択可能な要素が選択不可能になったことがわかるように表示する、
請求項1に記載の装置。 - 前記プロセッサは、
前記装置のモードを前記第2のモードへ移行させる場合、移行前に前記装置のディスプレイに表示されていた第1の画面の上に、選択可能な要素を含まない第2の画面を重ねて表示する、又は、前記ディスプレイの表示を前記第1の画面から前記第2の画面に切り替える、
請求項1に記載の装置。 - 前記他の装置は、前記ユーザによって装着される前記装置とは異なる、前記ユーザによって装着される装置である、
請求項1乃至10の何れかに記載の装置。 - 前記他の装置は、前記ユーザの眼球の前に装着される装置である、
請求項11に記載の装置。 - 前記装置は、前記ユーザの腕に装着され、
前記プロセッサは、
前記装置が装着された腕の先端にある指の動きに基づき、前記他の装置を制御する、
請求項1~12の何れかに記載の装置。 - 前記第2の向きは、予め定められた特定の向きであり、
前記プロセッサは、
前記装置が前記装着部位に対して前記予め定められた特定の向きで装着されることに応じて、前記装置のモードを、前記第2のモードへ移行させる、
請求項1に記載の装置。 - ユーザの装着部位に装着される装置であって、ユーザが当該装置を介して他の装置の操作を行うことが可能な装置に設けられたコンピュータによって実行されるプログラムであり、
前記装着部位に装着された前記装置の向きを検知する機能と、
前記装置がユーザの前記装着部位に対して第1の向きで装着されたことに応じて、前記装置を、前記装置を介しての前記他の装置の操作が許可された第2のモードへ移行させる機能と、
を前記コンピュータに実現させるためのプログラム。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021126263A JP7767760B2 (ja) | 2021-07-30 | 2021-07-30 | 装置およびプログラム |
| US17/544,938 US12399569B2 (en) | 2021-07-30 | 2021-12-08 | Non-transitory computer readable medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021126263A JP7767760B2 (ja) | 2021-07-30 | 2021-07-30 | 装置およびプログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023020731A JP2023020731A (ja) | 2023-02-09 |
| JP7767760B2 true JP7767760B2 (ja) | 2025-11-12 |
Family
ID=85038840
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021126263A Active JP7767760B2 (ja) | 2021-07-30 | 2021-07-30 | 装置およびプログラム |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US12399569B2 (ja) |
| JP (1) | JP7767760B2 (ja) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12322204B2 (en) * | 2023-01-20 | 2025-06-03 | The Texas A&M University System | Multispectral optical finger system for physiological measurements |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014102838A (ja) | 2012-11-20 | 2014-06-05 | Samsung Electronics Co Ltd | 着用式電子デバイスでのgui転移 |
| JP2016027848A (ja) | 2014-07-08 | 2016-02-25 | パナソニックIpマネジメント株式会社 | 筋電位計測装置及び筋電位計測方法 |
| JP2016076203A (ja) | 2014-10-02 | 2016-05-12 | エルジー エレクトロニクス インコーポレイティド | 移動端末機及びその制御方法 |
| US20160196693A1 (en) | 2015-01-06 | 2016-07-07 | Seiko Epson Corporation | Display system, control method for display device, and computer program |
| JP2016126589A (ja) | 2015-01-06 | 2016-07-11 | セイコーエプソン株式会社 | 表示システム、プログラム、及び、表示装置の制御方法 |
| WO2021007221A1 (en) | 2019-07-09 | 2021-01-14 | Facebook Technologies, Llc | Virtual user interface using a peripheral device in artificial reality environments |
| JP2021512433A (ja) | 2018-04-06 | 2021-05-13 | ディーエヌエーナッジ リミテッド | 手首装着型製品コード・リーダ |
Family Cites Families (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20120262381A1 (en) * | 2011-04-18 | 2012-10-18 | Research In Motion Limited | Portable electronic device and method of controlling same |
| US9094534B2 (en) * | 2011-12-29 | 2015-07-28 | Apple Inc. | Device, method, and graphical user interface for configuring and implementing restricted interactions with a user interface |
| US20130285921A1 (en) * | 2012-04-25 | 2013-10-31 | Motorola Mobility, Inc. | Systems and Methods for a Rollable Illumination Device |
| KR102169952B1 (ko) * | 2013-10-18 | 2020-10-26 | 엘지전자 주식회사 | 웨어러블 디바이스 및 그 제어 방법 |
| JP2015156186A (ja) | 2014-02-21 | 2015-08-27 | ソニー株式会社 | 電子機器、および連係動作方法 |
| US9659482B2 (en) * | 2014-09-02 | 2017-05-23 | Apple Inc. | Context-based alerts for an electronic device |
| JP6516464B2 (ja) | 2014-12-15 | 2019-05-22 | Kddi株式会社 | ウェアラブル検索システム |
| JP2017005292A (ja) | 2015-06-04 | 2017-01-05 | キヤノン株式会社 | 無線通信端末、無線通信端末の制御方法、及びプログラム |
| JP6758856B2 (ja) | 2016-02-24 | 2020-09-23 | Dynabook株式会社 | リモートコントロールシステム、ウェアラブル端末およびリモートコントロール方法 |
| US11126258B2 (en) * | 2017-10-14 | 2021-09-21 | Qualcomm Incorporated | Managing and mapping multi-sided touch |
| JP2021121877A (ja) * | 2018-04-27 | 2021-08-26 | ソニーグループ株式会社 | 情報処理装置および情報処理方法 |
| US20200150772A1 (en) * | 2018-11-09 | 2020-05-14 | Google Llc | Sensing Hand Gestures Using Optical Sensors |
| US12079386B2 (en) * | 2020-09-14 | 2024-09-03 | Zebra Technologies Corporation | Devices having protective screens selectively positionable to switch devices between user interface modes and methods of operating the same |
-
2021
- 2021-07-30 JP JP2021126263A patent/JP7767760B2/ja active Active
- 2021-12-08 US US17/544,938 patent/US12399569B2/en active Active
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014102838A (ja) | 2012-11-20 | 2014-06-05 | Samsung Electronics Co Ltd | 着用式電子デバイスでのgui転移 |
| JP2016027848A (ja) | 2014-07-08 | 2016-02-25 | パナソニックIpマネジメント株式会社 | 筋電位計測装置及び筋電位計測方法 |
| JP2016076203A (ja) | 2014-10-02 | 2016-05-12 | エルジー エレクトロニクス インコーポレイティド | 移動端末機及びその制御方法 |
| US20160196693A1 (en) | 2015-01-06 | 2016-07-07 | Seiko Epson Corporation | Display system, control method for display device, and computer program |
| JP2016126589A (ja) | 2015-01-06 | 2016-07-11 | セイコーエプソン株式会社 | 表示システム、プログラム、及び、表示装置の制御方法 |
| JP2021512433A (ja) | 2018-04-06 | 2021-05-13 | ディーエヌエーナッジ リミテッド | 手首装着型製品コード・リーダ |
| WO2021007221A1 (en) | 2019-07-09 | 2021-01-14 | Facebook Technologies, Llc | Virtual user interface using a peripheral device in artificial reality environments |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2023020731A (ja) | 2023-02-09 |
| US12399569B2 (en) | 2025-08-26 |
| US20230036474A1 (en) | 2023-02-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10656822B2 (en) | Systems, devices, and methods for interacting with content displayed on head-mounted displays | |
| EP3164785B1 (en) | Wearable device user interface control | |
| JP6432754B2 (ja) | 着用式電子デバイス上への光学センサーの配置 | |
| US8884874B1 (en) | Digital device and control method thereof | |
| JP6547741B2 (ja) | 情報処理システムおよび情報処理方法 | |
| JP2019164822A (ja) | 着用式電子デバイスでのgui転移 | |
| US20140049487A1 (en) | Interactive user interface for clothing displays | |
| KR20170019081A (ko) | 휴대 장치 및 휴대 장치의 화면 표시방법 | |
| US20160132189A1 (en) | Method of controlling the display of images and electronic device adapted to the same | |
| WO2019187487A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
| KR20160101497A (ko) | 웨어러블 디바이스 및 웨어러블 디바이스의 동작 방법. | |
| WO2015064165A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
| EP3550415B1 (en) | Method for displaying object and electronic device thereof | |
| CN105511750B (zh) | 一种切换方法及电子设备 | |
| US20200073481A1 (en) | Information processing apparatus, information processing method, and program | |
| JP7642746B2 (ja) | 表示制御方法 | |
| CN114730214A (zh) | 人机接口设备 | |
| JP7767760B2 (ja) | 装置およびプログラム | |
| US20150277742A1 (en) | Wearable electronic device | |
| CN119759200A (zh) | 信息处理设备、信息处理方法、计算机程序产品和存储介质 | |
| US20170177088A1 (en) | Two-step gesture recognition for fine-grain control of wearable applications | |
| KR102539045B1 (ko) | 착용형 증강현실 장치를 위한 대시보드 제어 장치 및 대시보드 제어 방법 | |
| US20250264973A1 (en) | Contextual interfaces for 3d environments | |
| US20250238110A1 (en) | Shape-based graphical indications of interaction events | |
| EP3864495B1 (en) | Direct manipulation of display device using wearable computing device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240619 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20250225 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250304 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20250430 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250703 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250930 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20251013 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7767760 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |