[go: up one dir, main page]

JP7767760B2 - 装置およびプログラム - Google Patents

装置およびプログラム

Info

Publication number
JP7767760B2
JP7767760B2 JP2021126263A JP2021126263A JP7767760B2 JP 7767760 B2 JP7767760 B2 JP 7767760B2 JP 2021126263 A JP2021126263 A JP 2021126263A JP 2021126263 A JP2021126263 A JP 2021126263A JP 7767760 B2 JP7767760 B2 JP 7767760B2
Authority
JP
Japan
Prior art keywords
mode
user
display
orientation
worn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021126263A
Other languages
English (en)
Other versions
JP2023020731A (ja
Inventor
育美 楓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2021126263A priority Critical patent/JP7767760B2/ja
Priority to US17/544,938 priority patent/US12399569B2/en
Publication of JP2023020731A publication Critical patent/JP2023020731A/ja
Application granted granted Critical
Publication of JP7767760B2 publication Critical patent/JP7767760B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Dermatology (AREA)
  • Neurosurgery (AREA)
  • Neurology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、装置およびプログラムに関する。
特許文献1には、情報処理装置にインストールされた第2のドライバソフトウェアを介して情報処理装置と連携動作する外部装置とも連携動作する電子機器が開示されている。
特許文献2には、第2ウェアラブル端末へユーザの視線が向けられたことを第1ウェアラブル端末または第2ウェアラブル端末により検出して、電子機器の操作画面を第2ウェアラブル端末により表示する処理が開示されている。
特許文献3には、カメラ画像上で手領域を認識して手領域と所定の位置関係にある検索画像範囲から検索画像を抽出し、検索画像を含む検索要求を画像認識サーバへ送信して検索を実行する処理が開示されている。
特許文献4には、外部機器と接続して無線通信する通信手段と、身体への装着状態の変化を検出する検出手段と、検出された装着状態の変化に応じて、外部機器との間の前記無線通信の接続状態を制御する制御手段とを備える無線通信端末が開示されている。
特開2015-156186号公報 特開2017-152890号公報 特開2016-115125号公報 特開2017-5292号公報
装置のモードを、他の装置の操作を行うことが可能なモードに切り替えるには、例えば、装置の表示画面を見ながらモードの切り替えを行う必要がある。
本発明の目的は、装置の表示画面を必ずしも見なくても、装置のモードを、他の装置の操作を行うことが可能なモードに切り替えられるようにすることにある。
請求項1に記載の発明は、プロセッサを有しユーザの装着部位に装着される装置であって、ユーザが当該装置を介して他の装置の操作を行うことが可能な装置であり、前記プロセッサは、前記装着部位に装着された前記装置の向きを検知し、前記装置がユーザの前記装着部位に対して第2の向きで装着されたことに応じて、前記装置のモードを、前記装置を介しての前記他の装置の操作が許可された第2のモードへ移行させる、装置である。
請求項2に記載の発明は、前記装置は、前記装着部位に装着されたまま前記装着部位を軸として回転可能であって、前記装置の装着の向きは、前記装置が前記装着部位を軸として回転することによって変化する、請求項1に記載の装置である。
請求項3に記載の発明は、前記プロセッサは、前記装置の装着の向きが前記装着部位に対して前記第2の向きと異なる第1の向きから前記第2の向きに変化したことに応じて、前記装置のモードを前記第1の向きに対応した第1のモードから前記第2のモードへ移行させる、請求項1に記載の装置である。
請求項4に記載の発明は、前記装置は、回転可能な部分を有し、前記装置の装着の向きは、前記回転可能な部分が回転することによって変化し、前記プロセッサは、前記回転可能な部分が回転することに応じて、前記装置のモードを前記第2のモードへ移行させる、請求項1に記載の装置である。
請求項5に記載の発明は、前記プロセッサは、前記装置の向きが前記第2の向きでなくなったことに応じて、前記装置のモードを、前記第2のモードから前記第2のモードに入る前の第1のモードに戻す、請求項1に記載の装置である。
請求項に記載の発明は、前記第1のモードは、前記他の装置を操作するためのモードではなく、前記装置を操作するためのモードであり、前記第2のモードは、前記装置を介して、前記他の装置を操作するためのモードである、請求項3又は5に記載の装置である。
請求項に記載の発明は、前記プロセッサは、前記装置のモードを前記第2のモードへ移行させる場合、前記装置のディスプレイにおける表示を変更する請求項1に記載の装置である。
請求項に記載の発明は、前記プロセッサは、前記装置のモードを前記第2のモードへ移行させる場合、前記装置のディスプレイの輝度を低下させる、請求項1に記載の装置である。
請求項に記載の発明は、前記プロセッサは、前記装置のモードを前記第2のモードへ移行させる場合、移行前に前記装置のディスプレイに表示されていた選択可能な要素が選択不可能になったことがわかるように表示する、請求項1に記載の装置である。
請求項10に記載の発明は、前記プロセッサは、前記装置のモードを前記第2のモードへ移行させる場合、移行前に前記装置のディスプレイに表示されていた第1の画面の上に、選択可能な要素を含まない第2の画面を重ねて表示する、又は、前記ディスプレイの表示を前記第1の画面から前記第2の画面に切り替える、請求項1に記載の装置である。
請求項11に記載の発明は、前記他の装置は、前記ユーザによって装着される前記装置とは異なる、前記ユーザによって装着される装置である、請求項1乃至10の何れかに記載の装置である。
請求項12に記載の発明は、前記他の装置は、前記ユーザの眼球の前に装着される装置である、請求項11に記載の装置である。
請求項13に記載の発明は、前記装置は、前記ユーザの腕に装着され、前記プロセッサは、前記装置が装着された腕の先端にある指の動きに基づき、前記他の装置を制御する、請求項1~12の何れかに記載の装置である。
請求項14に記載の発明は、前記第2の向きは、予め定められた特定の向きであり、前記プロセッサは、前記装置が前記装着部位に対して前記予め定められた特定の向きで装着されることに応じて、前記装置のモードを、前記第2のモードへ移行させる、請求項1に記載の装置である。
請求項15に記載の発明は、ユーザの装着部位に装着される装置であって、ユーザが当該装置を介して他の装置の操作を行うことが可能な装置に設けられたコンピュータによって実行されるプログラムであり、前記装着部位に装着された前記装置の向きを検知する機能と、前記装置がユーザの前記装着部位に対して第1の向きで装着されたことに応じて、前記装置を、前記装置を介しての前記他の装置の操作が許可された第2のモードへ移行させる機能と、を前記コンピュータに実現させるためのプログラムである。
請求項1の発明によれば、装置の表示画面を必ずしも見なくても、装置のモードを、他の装置の操作を行うことが可能なモードに切り替えられるようにすることができる。
請求項2の発明によれば、装着部位を軸として装置を回転させることで、装置のモードを、他の装置の操作を行うことが可能なモードに切り替えられるようにすることができる。
請求項3の発明によれば、装置の装着の向きを第1の向きから第2の向きに変化させることで、装置のモードを第1の向きに対応した第1のモードから第2のモードへ移行させることができる。
請求項4の発明によれば、装置のうちの、回転可能な部分を回転させることで、装置のモードを第2のモードへ移行させることができる。
請求項5の発明によれば、装置の向きを第2の向きではないようにすることで、装置のモードを、第2のモードからこの第2のモードに入る前の第1のモードに戻すことができる。
請求項の発明によれば、第1のモードでは、装置を操作することができ、第2のモードでは、この装置を介して他の装置を操作することができる。
請求項の発明によれば、装置のモードが第2のモードへ移行したことをユーザに知らせることができる。
請求項の発明によれば、装置のモードが第2のモードへ移行したことをユーザに知らせることができる。
請求項の発明によれば、装置のディスプレイに表示されていた選択可能な要素が選択不可能になったことをユーザに知らせることできる。
請求項10の発明によれば、第2のモードへ移行させる前に装置のディスプレイに表示されていた画面を、選択可能な要素を含まない画面に切り替えることができる。
請求項11の発明によれば、装置の表示画面を必ずしも見なくても、ユーザの装置のモードを、このユーザによって装着される他の装置の操作を行うことが可能なモードに切り替えられるようにすることができる。
請求項12の発明によれば、装置の表示画面を必ずしも見なくても、ユーザの装置のモードを、このユーザによって装着される他の装置であってこのユーザの眼球の前に装着される他の装置の操作を行うことが可能なモードに切り替えられるようにすることができる。
請求項13の発明によれば、装置が装着された腕の先端にある指の動きに基づき、他の装置を制御することができる。
請求項14の発明によれば、装置が装着部位に対して予め定められた特定の向きで装着されることに応じて、装置のモードを、第2のモードへ移行させることができる。
請求項15の発明によれば、装置の表示画面を必ずしも見なくても、装置のモードを、他の装置の操作を行うことが可能なモードに切り替えられるようにすることができる。
処理システムの一例を示した図である。 第2装置の他の構成例を示した図である。 第1装置のハードウエア構成の一例を示す図である。 第2装置のハードウエア構成の一例を示す図である。 (A)、(B)は、第1装置の装着状態を示した図である。 第1装置の他の構成例を示した図である。 (A)、(B)は、図6の矢印VIIで示す方向から、第1装置および第1装置が装着された指を見た場合の図である。 第1装置の他の装着例を示した図である。 ユーザの指の動きを示した図である。 指の動きの他の検知方法を示した図である。 (A)、(B)は、第1装置の他の構成例を示した図である。 第2実施形態における第1装置を示した図である。 第1装置を装着しているユーザの状態を示した図である。 第1装置を装着しているユーザの他の状態を示した図である。 第2のモードにおける、ユーザの指の動きの検知について説明する図である。 ユーザの手指の状態を示した図である。 第2装置に設けられたディスプレイにおける表示例を示した図である。 第2装置における他の表示例を示した図である。 第1装置のディスプレイの画面遷移例を示した図である。 第1装置が第2のモードにある場合における、第1装置における表示例を示した図である。 第1装置が第2のモードにある場合における、第1装置における他の表示例を示した図である。
以下、添付図面を参照して、本発明の実施の形態について説明する。
〔第1の実施形態〕
図1は、本実施形態の処理システム1の一例を示した図である。
本実施形態の処理システム1には、ユーザに装着されこのユーザの操作を受け付ける第1装置100と、この第1装置100に対して不図示の通信回線を介して接続される第2装置200とが設けられている。
第1装置100と第2装置200とを接続する通信回線は、特に制限されず、有線の通信回線であってもよいし、無線の通信回線であってもよい。
本実施形態では、第1装置100のモードが、第2のモード(後述)に設定されると、ユーザは、この第1装置100に対して予め定められた動作を行うことによって、第2装置200を操作することができる。
一方、第1装置100のモードが、第1のモードの場合、ユーザは、第1装置100に対してその動作を行っても第2装置200を操作することができない。
第1装置100、第2装置200の各々は、ユーザに装着される、いわゆるウェアラブル装置となっている。
第1装置100は、例えば、腕時計のような手首装着型の装置である。第1装置100は、ディスプレイ101を有する。本実施形態において、このディスプレイ101は、画面を表示するだけでなく、タッチパネルを有し、ユーザの接触操作による入力を受け付ける入力装置として機能する。言い換えると、本実施形態のディスプレイ101は、タッチパネル方式のディスプレイである。
第1装置100では、ディスプレイ101に、時刻が表示されたり、インストールされたアプリケーションのアイコンが並んだメニュー画面が表示されたり、各アプリケーションの実行に伴い表示されるアプリケーション画面が表示されたりする。
なお、本実施形態では、共通の一人のユーザに、第1装置100、第2装置200の両者が装着される場合を説明するが、第1装置100が装着されるユーザと、第2装置200が装着されるユーザとが異なってもよい。
また、第2装置200は、ユーザに装着されずに、ユーザから離れた状態で配置されるユーザ装置であってもよい。例えば、第2装置200はノートパソコンやテレビであってもよい。
本実施形態では、ユーザが、第1装置100を介して、他の装置の一例である第2装置200の操作を行える。
第2装置200は、例えば、ユーザが視認する現実空間内の物に重ねて映像を表示するいわゆるAR(Augmented Reality)表示装置である。
第2装置200は、例えば、眼鏡型の装置であり、第2装置200には、ユーザの頭部に装着される被装着部201が設けられる。
なお、第2装置200は、眼鏡型の装置に限定されず、例えば、ヘッドマウント型の装置であってもよい。また、第2装置200は、ユーザの眼球に装着される、コンタクトレンズ型の装置であってもよい。
本実施形態では、第2装置200には、ユーザが視認するディスプレイ202が設けられている。
本実施形態では、このディスプレイ202は、ユーザの眼球の前に装着される。言い換えると、第2装置200は、ユーザに装着されたときに、少なくともその一部がユーザの眼球の前に配置される。
ディスプレイ202は、透明に形成され、ユーザは、ディスプレイ202を通じて、自身の前方の視認を行う。言い換えると、ユーザは、透明部を通じて、透明部の背後の視認を行う。
ディスプレイ202は、光が透過するように構成されている。この場合、ディスプレイ202が透け、ユーザは、透けるこのディスプレイ202を通じて、ディスプレイ202の背後にある現実空間RWを視認する。
第2装置200では、ディスプレイ202に、テキストや画像などの情報が表示される。これにより、ディスプレイ202の背後に位置しユーザが視認する現実空間RWに対して情報が重ねられる。
また、第2装置200には、音を出力するスピーカ(不図示)や、ユーザからの指示を受け付けるための操作ボタン(不図示)が設けられている。
また、第2装置200には、ユーザの前方の映像を取得するカメラ203が設けられている。言い換えると、第2装置200には、ユーザがディスプレイ202を通じて視認する現実空間RWを撮影するカメラ203が設けられている。
また、第2装置200には、脳波計など、ユーザについての情報を測定するセンサ(不図示)が設けられている。
なお、第2装置200は、図2(第2装置の他の構成例を示した図)に示すように、タブレッド型の装置であってもよい。
図2に示すこの第2装置200では、板状の筐体205の一方の面側にディスプレイ202が設けられる。また、この第2装置200では、ディスプレイ202の背後の映像を取得するカメラ206が設けられている。
この第2装置200では、ユーザがディスプレイ202を視認した際に、このユーザは、このディスプレイ202の背後にある物を、ディスプレイ202を通じて視認する。
具体的には、この第2装置200では、ディスプレイ202の背後にある物の映像が、カメラ206によって取得され、この映像が、ディスプレイ202に表示される。
ユーザは、ディスプレイ202に表示される、この映像を見ることによって、ディスプレイ202の背後にある物を視認する。
ディスプレイ202には、カメラ206によって取得される映像に、テキストや画像などの他の情報を重ねて表示することができる。これにより、ディスプレイ202の背後に位置しユーザが視認する現実空間RWに対して情報が重ねられる。
図2に示す第2装置200の場合、例えば、装着用のパーツ(不図示)を別途用意することで、ユーザの眼球の前方に、この第2装置200の設置を行える。言い換えると、装着用のパーツを別途用意することで、ユーザの頭部に対してこの第2装置200の装着が可能となり、ユーザの顔の前に、この第2装置200を保持することができる。
なお、本実施形態では、第1装置100を介しての第2装置200の制御を行えるが、この制御の対象は、表示に限られない。第1装置100を介しての第2装置200の制御では、物理的に動く部分の駆動制御や、音についての制御などが行われるようにしてもよい。
第1装置100(図1参照)は、様々な機能を備えた多機能装置である。
第1装置100には、アプリケーションのインストールを行える。第1装置100では、インストールされたアプリケーションを選択して実行することで、第1装置100は、様々な機能を発揮する。例えば、電子メール、アドレス帳、カレンダー、ウェブブラウザ、SNS(ソーシャルネットワークサービス)、地図、支払い、健康管理などのアプリケーションが、予め、または、ユーザによって任意に、インストールされることができる。
なお、腕時計のようにユーザの手首に装着され、時刻を表示するだけでなく上記のようなアプリケーションのインストールや実行ができる装置を、「スマートウォッチ」と呼ぶ。
また、本実施形態では、第1装置100と第2装置200とが連携し、様々な処理を行える。
例えば、第1装置100にて得られた情報を、第2装置200のディスプレイ202に表示する処理を行える。
具体的には、例えば、第1装置100に設けられた心拍計や血中酸素濃度計で、心拍数や血中酸度濃度を測定し、この測定の結果を、第2装置200のディスプレイ202に表示させることができる。
具体的には、この処理を行う場合、例えば、ユーザは、まず、第2装置200のディスプレイ202に表示されている、第1装置100の表示画面を見ながら、第1装置100に対する操作を行う。
具体的には、ユーザは、まず、第2装置200のディスプレイ202に表示されている、第1装置100の表示画面を見ながら、第1装置100にインストールされているアプリケーションの選択を行い、アプリケーションを起動する。
より具体的には、この例では、第2装置200のディスプレイ202に、第1装置100の表示画面が表示される。
ユーザは、第2装置200のディスプレイ202に表示されている、第1装置100のこの表示画面を見ながら、第1装置100に対する操作を行い、心拍計や血中酸素濃度計の測定についてのアプリケーションを起動する。
なお、本実施形態では、例えば、第2装置200のディスプレイ202に表示され空中に浮かぶように存在している表示要素の中から、ユーザがこの表示要素の選択を行うことで、第1装置100に対する操作を行える。
なお、空中に浮かぶように存在している表示要素に対するユーザの操作は、例えば、第2装置200に設けられたカメラ203により得られた映像を解析することで検知される。
具体的には、この映像を解析して、ユーザが表示要素に対する操作を行う際のこのユーザの指の位置を検知することで、空中に浮かぶように存在している表示要素に対するユーザの操作が検知される。
また、その他に、例えば、表示要素に対する操作の検知の方法としては、第2装置200に設けられた物理的なボタンに対するユーザの操作を検知することで、表示要素に対する操作を検知する方法も挙げられる。
表示要素に対するユーザの操作についての情報が取得されると、この情報により特定される操作に対応する表示画面が、第2装置200のディスプレイ202に表示される。
より具体的には、例えば、ユーザの操作が、心拍計や血中酸素濃度計の測定についてのアプリケーションを選択する操作である場合には、このアプリケーションに対応する表示画面が、第2装置200のディスプレイ202に表示される。
これにより、第2装置200のディスプレイ202に、心拍数や血中酸度濃度についての測定結果が表示される。
第2装置200のディスプレイ202に、第1装置100の表示画面が表示される場合、ユーザは、第1装置100に目を向けないでも、第1装置100にて表示される情報を見ることができる。
また、本実施形態では、例えば、ユーザが、第1装置100を用い電子マネーによる支払いを行った場合に、第2装置200に、この支払についての情報が表示される。
具体的には、第2装置200のディスプレイ202に、支払金額、支払いの成否、支払い後の残高などの情報が表示される。
また、本実施形態では、第1装置100が電子メールを受信した旨の通知を第2装置200のディスプレイ202に表示する。つまり、ユーザは、第1装置100に直接目を向けないでも、第1装置100が電子メールを受信したことがわかる。
より具体的には、例えば、第1装置100にて電子メールの通知機能がオンになっている場合に、第2装置200のディスプレイ202に、第1装置100への電子メールがあったことが表示される。
より具体的には、本実施形態では、例えば、第2装置200のディスプレイ202に表示されている表示要素や、第2装置200のディスプレイ202を通して見えている対象をユーザが選択した場合に、この選択した対象についての情報が、例えば、電子メールによって、第1装置100に送信される。
この場合、本実施形態では、第2装置200のディスプレイ202に、第1装置100への電子メールがあったことを示す情報が表示される。
これにより、ユーザは、第1装置100に直接目を向けないでも、ユーザが選択した表示要素や対象についての電子メールを第1装置100が受信したことを認識する。
また、本実施形態では、例えば、ユーザが、第2装置200のディスプレイ202に表示されている商品や、第2装置200のディスプレイ202を通して見えている商品の購入を行った場合、この購入についての情報が、第1装置100へ送信される。
これにより、本実施形態では、ユーザは、第1装置100が有する支払いの機能を用いて、商品の代金の支払いを行える。
より具体的には、ユーザは、第1装置100が有する、NFC(Near field communication)、QRコード(登録商標)/バーコード決済などの機能を用いて、商品の代金の支払いを行える。
より具体的には、本実施形態では、第2装置200のディスプレイ202に表示されている商品や、第2装置200のディスプレイ202を通して見えている商品についての購入の処理をユーザが行うと、不図示のサーバにて合計金額が計算される。そして、この合計金額についての情報が、第1装置100に送信される。
そして、ユーザは、第1装置100が有する支払いの機能を用い、この合計金額により特定される額の支払いを行う。
なお、第2装置200のディスプレイ202に表示されている商品や、第2装置200のディスプレイ202を通して見えている商品についての購入の処理は、ユーザが、第2装置200のディスプレイ202を見ながら行う。
具体的には、ユーザは、空中に浮かぶように存在している表示要素の選択などの操作を行って、商品についての購入の処理を行う。
また、本実施形態では、例えば、第2装置200に設けられた脳波計による測定結果を、第1装置100へ送信し、第1装置100にインストールされているアプリケーション上で、この測定結果の表示を行える。
また、その他に、例えば、ユーザが、第2装置200に対する操作を行って選択した店舗の情報が、第1装置100へ送信されるようにし、この店舗の情報が、第1装置100に表示される処理も行える。
具体的には、例えば、第2装置200のディスプレイ202に表示されている、レストランなどの店舗の情報や、ユーザがディスプレイ202を通して見ている店舗の情報が、第1装置100へ送信される。そして、この店舗の情報が、第1装置100に表示される。
図3は、第1装置100のハードウエア構成の一例を示す図である。図3では、第1装置100が手首装着型の装置である場合を想定する。
第1装置100は、装置全体の動作を制御する制御ユニット111と、データを記憶する情報記憶装置112と、無線通信の規格に準拠する各種の通信インターフェース113と、液晶表示装置や有機EL(=Electro Luminescence)表示装置等により構成され情報を表示するディスプレイ101と、GPS(=Global Positioning System)114と、各種のセンサ115とを有する。
制御ユニット111は、プロセッサの一例としてのCPU111Aと、ファームウェアやBIOS等が記憶されたROM111Bと、ワークエリアとして用いられるRAM111Cとを有する。
通信インターフェース113は、第2装置200等との通信に使用されるインターフェースである。
ディスプレイ101は、タッチパネルにより構成されている。これにより、本実施形態では、ディスプレイ101に対するユーザの操作の検知を行える。
GPS114は、GPS衛星からの電波を受信して第1装置100の位置を測定する。GPSセンサから出力される緯度、経度、高度の情報は、現在位置についての情報を第1装置100に与える。
センサ115は、第1装置100に対するユーザの操作を検知したり、ユーザの血圧情報などユーザについての情報を取得したりする。また、センサ115は、第1装置100の向きを検知したり、第1装置100における照度を検知したりする。
ここで、CPU111Aによって実行されるプログラムは、磁気記録媒体(磁気テープ、磁気ディスクなど)、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリなどのコンピュータが読取可能な記録媒体に記憶した状態で、第1装置100へ提供しうる。
また、CPU111Aによって実行されるプログラムは、インターネットなどの通信手段を用いて、第1装置100へ提供してもよい。
図4は、第2装置200のハードウエア構成の一例を示す図である。図に示す構成は、第2装置200が眼鏡型の装置の場合を想定する。
第2装置200は、装置全体の動作を制御する制御ユニット211と、各種のデータを記憶する情報記憶装置212と、無線通信の規格に準拠する各種の通信インターフェース213と、タッチセンサやボタン等の入力装置214とを有する。
また、第2装置200は、液晶表示装置や有機EL表示装置等により構成され情報を表示するディスプレイ202と、GPS216と、センサ217と、カメラ203とを有する。
制御ユニット211は、プロセッサの一例としてのCPU211Aと、ファームウェアやBIOS等が記憶されたROM211Bと、ワークエリアとして用いられるRAM211Cとを有する。
通信インターフェース213は、第1装置100等との通信に使用されるインターフェースである。
GPS216は、GPS衛星からの電波を受信して第2装置200の位置を測定するセンサである。GPS216から出力される緯度、経度、高度の情報は、現在位置についての情報を第2装置200に与える。
センサ217は、ユーザの脳波、体温、心拍などのユーザについての情報を取得する。
カメラ203は、第2装置200が装着されるユーザの前方に位置する現実空間RWの映像を取得する。言い換えると、カメラ203は、ユーザの前方に位置しユーザが視認する現実空間RWの映像を取得する。
ここで、CPU211Aによって実行されるプログラムは、磁気記録媒体(磁気テープ、磁気ディスクなど)、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリなどのコンピュータが読取可能な記録媒体に記憶した状態で、第2装置200へ提供しうる。
また、CPU211Aによって実行されるプログラムは、インターネットなどの通信手段を用いて、第2装置200へ提供してもよい。
なお、第1装置100と第2装置200はそれぞれ眼鏡型の装置と手首装着型の装置に限定されない。例えば、第1装置がスマートフォンであって、第2装置が眼鏡型の装置であってもよい。
なお、本実施形態において、プロセッサとは、広義的なプロセッサを指し、汎用的なプロセッサ(例えばCPU:Central Processing Unit、等)や、専用のプロセッサ(例えばGPU: Graphics Processing Unit、ASIC: Application Specific Integrated Circuit、FPGA: Field Programmable Gate Array、プログラマブル論理デバイス、等)を含むものである。
また、プロセッサの動作は、1つのプロセッサによって成すのみでなく、物理的に離れた位置に存在する複数のプロセッサが協働して成すものであってもよい。また、プロセッサの各動作の順序は、本実施形態において記載した順序のみに限定されるものではなく、変更してもよい。
図5(A)、(B)は、第1装置100の装着状態を示した図である。
図5(A)、(B)に示す例では、ユーザの装着部位30の一例である、ユーザの手首に対して、第1装置100が装着されている。言い換えると、第1装置100は、ユーザの腕に装着されており、より具体的にはユーザの手首に装着されている。
第1装置100は、この装着部位30に装着されたままの状態で、この装着部位30を軸として回転可能となっている。具体的には、第1装置100は、図5(A)の矢印5Aで示す方向への回転が可能となっている。
本実施形態では、この回転によって、第1装置100の向きが変化する。
第1装置100の装着の向きは、装着部位30を軸として第1装置100が回転することによって変化する。本実施形態では、第1装置100を外さずに、第1装置100の装着の向きの変更を行える。言い換えると、本実施形態は、第1装置100を着用した状態で、第1装置100の装着の向きの変更を行える。
第1装置100に設けられた、プロセッサの一例としてのCPU111A(図3参照)は、ユーザの装着部位30に対して、第1装置100が予め定められた第2の向きで装着されたことに応じて、第1装置100のモードを、第1のモードから第2のモードへ移行させる。
本実施形態では、予め、マニュアル等で、第1装置100の向きと第1装置100のモードとの対応関係を、ユーザに通知しておく。
ユーザは、この対応関係の下に、第1装置100を特定の向きで装着することによって、第1装置100のモードを、この特定の向きに対応したモードにする。
本実施形態では、図5(B)が、第1装置100が第2の向きで装着された状態を示しており、本実施形態では、第1装置100がこの第2の向きで装着されたことに応じて、第1装置100のモードが、第1のモードから第2のモードへ移行する。
第2のモードは、ユーザの予め定められた指の動きによる第2装置200(図1参照)の操作が許可されたモードである。言い換えると、第2のモードは、第1装置100を介しての第2装置200の操作が許可されたモードである。
第1装置100のCPU111Aは、第1装置100がユーザの装着部位30に対して第2の向きで装着されたことに応じ、第1装置100のモードを、第1モードから、ユーザの予め定められた指の動きによる第2装置200の操作が許可された第2のモードへ移行させる。
言い換えると、CPU111Aは、第1装置100の装着の向きが、第2の向きとは異なる第1の向きから、この第2の向きに変化したことに応じて、第1装置100のモードを、第1の向きに対応した第1のモードから、第2の向きに対応した第2のモードへ移行させる。
図5(A)は、第1装置100が、ユーザの装着部位30に対して第1の向きで装着された状態を示しており、この状態の場合、CPU111Aは、第1装置100のモードを、第1のモードとする。
CPU111Aは、第1装置100の装着の向きが、この第1の向きから第2の向きに変化すると、第1装置100のモードを、第1の向きに対応した第1のモードから、第2の向きに対応した第2のモードへ移行させる。
第1装置100が、第2のモードになっている状態で、ユーザが、第1装置100に対する操作を行うと、例えば、第1装置100にて、第2装置200(図1参照)を制御するための制御情報が生成され、この制御情報が、第2装置200へ送信される。
より具体的には、本実施形態では、第1装置100が第2のモードになっている状態で、ユーザが、第1装置100のディスプレイ101(タッチパネル)に触れてこのディスプレイ101に対する操作を行うと、第1装置100にて、第2装置200を制御するための制御情報が生成される。そして、この制御情報が、第2装置200へ送信される。
また、例えば、第1装置100が、第2のモードになっている状態で、ユーザが、第1装置100のディスプレイ101に対する操作を行うと、第1装置100から第2装置200へ、この操作の内容を示す情報が送信される。
この場合、第2装置200のCPU211A(図4参照)が、この操作の内容を示す情報に基づき、第2装置200の制御を行う。
これにより、本実施形態では、ユーザは、第1装置100に対する操作を行うことで、第2装置200の操作を行える。
第1のモードは、他の装置の一例である第2装置200をユーザが操作するためのモードではなく、第1装置100自体をユーザが操作するためのモードとなっている。
第1装置100が第1のモード下にあるとき、ディスプレイ101には、第1装置100にインストールされているアプリケーションのアイコンが並んだメニュー画面や、これらのアプリケーションの画面が表示され、ユーザはディスプレイ101に表示されるUI要素(ボタンなど)を介して第1装置100にインストールされているアプリケーションの機能を実行する指示を出す。
第2のモードは、第1装置100を介して第2装置200を操作するためのモードとなっている。
第2のモードにおいて、ユーザが、第1装置100のディスプレイ101に対する操作を行うと、第2装置200のディスプレイ202(図1参照)における表示が変化するなど、この操作に応じた処理が、第2装置200にて行われる。
なお、第2のモードでは、第1装置100自体の操作を行えるようにすることを排除するものではない。
第2のモードでは、ユーザが特定の操作を行った場合、第2装置200の制御が行われるようにし、ユーザが他の特定の操作を行った場合、第1装置100自体の制御が行われるようにしてもよい。
また、本実施形態では、第1装置100に対するユーザの操作を、ディスプレイ101にて受け付ける場合を一例に説明したが、第1装置100に対するユーザの操作は、ディスプレイ101をユーザの手首に固定するベルトなど、ディスプレイ101以外の第1装置100のパーツにて受け付けてもよい。
第1装置100のCPU111Aは、第1装置100の向きが、第2の向きではなくなった場合は、これに応じて、第1装置100のモードを、第2のモードから、この第2のモードに入る前の第1のモードに戻す。
第1装置100のモードが、第1のモードに戻ると、ユーザは、第1装置100を介しての第2装置200の操作を行えない。
本実施形態では、図5(A)に示すように、第1装置100のディスプレイ101が、ユーザの手の甲側に位置するように、第1装置100がユーザに装着されると、第1装置100は、第1のモードで動作し、スマートウォッチとして機能する。
一方、図5(B)に示すように、第1装置100のディスプレイ101が、ユーザの手の平側に位置するように、第1装置100がユーザに装着されると、第1装置100は、第2のモードで動作する。この場合、第1装置100は、第2装置200の制御のためのリモコンとして機能する。
本実施形態では、このように、第1装置100のディスプレイ101が、ユーザの手の甲側に位置する場合、第1装置100は第1モードとなり、第1装置100のディスプレイ101が、ユーザの手の平側に位置する場合、第1装置100は第2モードとなる。
但し、これに限られず、第1装置100のディスプレイ101が、ユーザの手の平側に位置する場合に、第1装置100が第1モードとなり、第1装置100のディスプレイ101が、ユーザの手の甲側に位置する場合に、第1装置100が第2モードとなるようにしてもよい。
また、第1装置100の向きに応じたモードを、ユーザが設定できるようにしてもよい。
この場合は、第1装置100の向きが、ユーザが設定した第1の向きである場合、第1装置100は第1モードとなり、第1装置100の向きが、ユーザが設定した第2の向きである場合、第1装置100は第2モードとなる。
また、第1装置100の向きに応じたモードは、ユーザによる第1装置100の使用状況に基づき決めてもよい。
具体的には、この場合、使用状況として、例えば、第1装置100が向いた方向の頻度についての情報を取得する。
そして、例えば、第1装置100が向いた方向のうちの、向いた頻度が多い向きを第1の向きとし、向いた頻度が小さい向きを、第2の向きとする。
第1装置100のCPU111Aは、第1装置100がユーザの装着部位30に対して第1の状態で装着された場合と、この第1の状態とは異なる第2の状態で装着された場合とで、ユーザが第1装置100に対して行った予め定められたジェスチャに応じて行う処理の内容を切り替える。
具体的には、第1装置100のCPU111Aは、例えば、第1装置100が、ユーザの装着部位30に対して図5(A)に示す状態で装着された場合と、図5(B)に示す状態で装着された場合とで、ユーザが第1装置100に対して行った予め定められたジェスチャに応じて行う処理の内容を切り替える。
具体的には、本実施形態では、第1装置100のCPU111Aは、装着部位30に対し、第1装置100が図5(B)に示す状態で装着された場合、ユーザが第1装置100のディスプレイ101に対して行った予め定められたジェスチャに基づき、第2装置200の制御を行う。
また、第1装置100のCPU111Aは、装着部位30に対し、第1装置100が図5(A)に示す状態で装着された場合、第2装置200の制御を行わず、ユーザが第1装置100のディスプレイ101に対して行った予め定められたジェスチャに基づき、第1装置100の制御を行う。
図6は、第1装置100の他の構成例を示した図である。
この構成例では、第1装置100は、いわゆるスマートリングにより構成されている。言い換えると、第1装置100は、指輪の形態を有する装置となっている。この構成例では、第1装置100は、この第1装置100に通される、ユーザの指を軸として回転する。
この構成例では、第1装置100の特定の部位が、特定の方向を向いた状態で、この第1装置100がユーザに装着された場合、第1装置100のモードが第2のモードとなり、第1装置100は、第2装置200の操作のために用いるリモコンとして機能する。
また、この構成例では、第1装置100の特定の部位が、特定の方向を向かない状態で、この第1装置100がユーザに装着された場合、第1装置100のモードが第1のモードとなり、第1装置100の電源がオフになる。
なお、第1装置100のモードが、第1のモードにある場合、電源をオフとせずに、例えば、ユーザの生体情報を取得する処理が行われるようにしてもよい。
図7(A)、(B)は、図6の矢印VIIで示す方向から、第1装置100およびこの第1装置100が装着された指を見た場合の図である。
図6、図7(A)、(B)にて示すこの構成例では、指輪の形態を有するこの第1装置100が、ユーザの指に対して第2の向きで装着された場合、上記と同様、第2のモードとなる。
具体的には、第1装置100のうちの、図7(A)の7Aで示す特定の部分119が、ユーザの手の平側にくるように第1装置100がユーザに装着された場合、第1装置100は第2のモードとなる。
また、例えば、図7(B)に示すように、特定の部分119が、ユーザの手の甲側にくるように第1装置100がユーザに装着された場合、第1装置100は第1のモードとなる。
なお、これは一例であり、例えば、特定の部分119が、ユーザの手の平側にくるように第1装置100がユーザに装着された場合に、第1装置100を第1のモードとしてもよい。
また、特定の部分119が、ユーザの手の甲側にくるように第1装置100がユーザに装着された場合に、第1装置100を第2のモードとしてもよい。
また、その他に、例えば、図8(第1装置の他の装着例を示した図)に示すように、特定の部分119が、第1装置100が装着された指と、この指の隣の指との間にくるように第1装置100がユーザに装着された場合に、第1装置100を、第2のモードとしてもよい。
指輪の形態を有するこの第1装置100が、第2モードにある場合、この第1装置100が装着された指の動きを、第1装置100に設けられた加速度センサ等により検知する。
具体的には、ユーザは、図9(ユーザの指の動きを示した図)に示すように指を動かす。本実施形態では、ユーザのこの指の動きが、第1装置100に設けられた加速度センサ等により検知され、この検知の結果に基づき、第2装置200の制御が行われる。
本実施形態では、図9(A)に示すように、第1装置100が装着された指が右方向へ移動した場合、第2装置200におけるディスプレイ202(図1参照)にて、右スクロールが行われる。
また、図9(B)に示すように、第1装置100が装着された指が左方向へ移動した場合、第2装置200におけるディスプレイ202にて、左スクロールが行われる。
また、この例では、図9(C)に示すように、第1装置100が装着された指が下方向へ移動した場合、第2装置200におけるディスプレイ202にて、下方向へのスクロールが行われる。
また、図9(D)に示すように、第1装置100が装着された指が上方向へ移動した場合、第2装置200におけるディスプレイ202にて、上方向へのスクロールが行われる。
また、この例では、図9(E)に示すように、第1装置100が装着された指が一方向へ回転した場合、第2装置200におけるディスプレイ202にて、ある表示要素にフォーカスされた状態から、別の表示要素にフォーカスされた状態へと切り替わる。より具体的には、最初にフォーカスされていた表示要素の1つ後の表示要素(例えば右隣の表示要素)がフォーカスされた状態に切り替えられる。言い換えると、第1装置100が装着された指が一方向へ回転した場合、カーソルなどのポインターが載っている表示要素を変更することができる。
また、この例では、図9(F)に示すように、第1装置100が装着された指が反対方向へ回転した場合、第2装置200におけるディスプレイ202にて、最初にフォーカスされていた表示要素の1つ前の表示要素(例えば左隣の表示要素)がフォーカスされた状態に切り替えられる。
また、この例では、図9(G)に示すように、第1装置100が装着された指が、この指の隣の指に向かって移動し押し当てられると、第2装置200におけるディスプレイ202にて、アイコンなどの表示要素の選択が行われる。
具体的には、第2装置200のディスプレイ202に表示されている表示要素であって、カーソルなどのポインターが載っている表示要素の選択が行われる。
言い換えると、この場合、いわゆるクリックに相当する処理が行われる。
なお、例えば、表示要素がファイルを表している場合には、表示要素が選択された場合に、表示要素が表すファイルのプレビューを表示してもよい。
また、この例では、図9(H)に示すように、第1装置100が装着された指が、この指の隣の指に向かって2回移動し、この指に2回押し当てられると、決定の処理が行われる。
具体的には、この場合、例えば、第2装置200のディスプレイ202に表示されている表示要素であって、カーソルなどのポインターが載っている表示要素が、ユーザが選択した表示要素として決定される。
言い換えると、この場合、いわゆるダブルクリックに相当する処理が行われる。
なお、例えば、表示要素がファイルを表している場合には、表示要素が選択された場合に、表示要素が表すファイルが開く。
なお、選択と決定は2段階に分ける必要はなく、表示要素が選択されたことをもって選択された表示要素が表す内容を実行してもよい。
第1装置100が、指輪の形態を有する場合、ユーザは、トラックパッドを利用している場合の感覚に近い感覚で、第2装置200についての操作を行える。
なお、指輪の形態を有するこの第1装置100においては、この第1装置100に、プロセッサであるCPU111Aと各種のセンサとを設け、この第1装置100が、第2装置200を制御するための制御情報を生成して、第2装置200の制御を行うようにしてもよい。
また、これに限られず、上記と同様、第1装置100にて行われた各種の検知の結果を、第2装置200に送信し、この第2装置200が、この検知の結果を基に、第2装置200の制御を行ってもよい。
また、その他に、指輪の形態を有する第1装置100が装着された指の動きの検知は、第1装置100によらずに、図10(指の動きの他の検知方法を示した図)に示すように、他の装置800により行ってもよい。
図10に示すこの例では、指輪の形態を有する第1装置100に、磁石や金属などの被検知対象を設けるとともに、この被検知対象の動きを、他の装置800で検知する。
ここでは、この他の装置800は、装着可能な装置となっている。より具体的には、この他の装置800は、手首に装着可能な装置となっている。
より具体的には、図10にて示すこの例では、まず、指輪の形態を有する第1装置100の向きに応じて、他の装置800のモードの切り替えが行われる。
具体的には、指輪の形態を有する第1装置100の向きが、第2の向きとなった場合、他の装置800のモードが、第1のモードから第2のモードに切り替えられる。
そして、この場合、第1装置100が装着された指の動きを、他の装置800に設けられたセンサが検知する。そして、この場合、この他の装置800が有するセンサが得た検知結果に基づき、第2装置200の制御が行われる。
図11(A)、(B)は、第1装置100の他の構成例を示した図である。
この構成例では、図11(A)に示すように、第1装置100は、回転可能な部分131(以下、「回転部分131」と称する)を有する。
この構成例では、第1装置100は、スマートフォン132と、このスマートフォン132に取り付けられたストラップ133とにより構成されている。また、スマートフォン132はディスプレイ101を有し、ディスプレイ101にはスマートフォンにインストールされた各種アプリケーションのアイコンが並んだメニュー画面や、選択されたアプリケーションの画面などの表示画面101Aを表示することができる。
この構成例では、環状に形成されたストラップ133に対して、ユーザが頭を通すことで、ユーザの首から、第1装置100が吊り下げられる形となる。
この構成例では、ストラップ133とスマートフォン132との接続部に、スマートフォン132を回転させるためのコネクタ134が設けられている。
これにより、ストラップ133に対して、このストラップ133よりも下方に位置するスマートフォン132の回転が可能となる。
この構成例では、第1装置100の装着の向きが、回転部分131の一例であるスマートフォン132が回転することによって変化する。
この構成例では、このスマートフォン132が回転することに応じて、第1装置100のモードが、第1のモードから第2のモードへ移行する。
具体的には、この構成例では、図11(A)に示すように、スマートフォン132のディスプレイ101が、鉛直方向に沿い且つユーザとは反対側を向いている場合、第1装置100のモードが、第2のモードとなる。
言い換えると、第1装置100が、鉛直方向に沿い且つユーザ側とは反対側を向いている場合、第1装置100のモードが、第2のモードとなる。
これにより、ユーザは、図11(A)の符号11Xに示すように、吊り下げられている状態のこのスマートフォン132のディスプレイ101に触れることで、第2装置200(図11では不図示)の操作を行える。
一方、この構成例では、図11(B)に示すように、スマートフォンのディスプレイ101(図11(B)では隠れていて見えない)が、鉛直方向に沿い且つユーザ側を向いている場合、第1装置100のモードが、第1のモードとなる。
言い換えると、第1装置100のディスプレイ101が、鉛直方向に沿い且つユーザ側を向いている場合、第1装置100のモードが、第1のモードとなる。
この第1のモードでは、第1装置100は、スリープ状態となり、ユーザは、第2装置200の操作を行えないようになる。第1装置100がスリープ状態となると、第1装置100のディスプレイ101のタッチパネルに対する操作は無効となり、タッチパネルとユーザが接触しても第1装置100、第2装置200が作動しない。
また、図示は省略するが、この構成例では、第1装置100がユーザによって持ち上げられ、第1装置100のディスプレイ101が鉛直方向以外の方向に沿った状態となった場合、第1装置100は、スマートフォンとして機能する。
この場合、ユーザが、第1装置100のディスプレイ101を触れても、第2装置200は作動しない。
なお、第1装置100としては、その他に、ストラップ付のIDカードが挙げられる。
このストラップ付のIDカードでは、IDカードの一方の面側に、上記のタッチパネルと同様の機能を有する機能部を設ける。即ち、ユーザの操作を受け付けるための機能部を設ける。
そして、このストラップ付のIDカードでは、IDカードのうちのこの機能部が設置された面が、ユーザと反対側を向いた場合に、第1装置100を第2のモードとする。
また、IDカードのうちのこの機能部が設置された面が、ユーザ側を向いた場合に、第1装置100を第1のモードとする。
第1装置100の向きの検知について説明する。
第1装置100の向きは、第1装置100に設けられたセンサ115(図3参照)からの出力に基づき判断する。
具体的には、第1装置100の向きは、例えば、第1装置100に設けられた照度センサからの出力に基づき判断する。
具体的には、例えば、回転部分131の一例であるスマートフォン132(図11参照)が回転する上記の第1装置100では、例えば、第1装置100に照度センサを設け、この照度センサからの出力に基づき、第1装置100の向きを検知する。
本実施形態では、一例として、照度センサをディスプレイ101に設け、ディスプレイ101の外界側の照度を測定する。この場合、図11(B)のようにディスプレイ101が他の人から見えないように装着されている場合、図11(A)のようにディスプレイ101が他の人から見えるように装着されている場合と比較して、照度センサの測定値は小さくなる。そこで、例えば、照度センサの測定結果が予め定められた閾値よりも小さい場合、第1装置100のディスプレイ101がユーザ側を向いていると判断し、照度センサの測定結果が予め定められた閾値と同じまたは大きい場合、第1装置100のディスプレイ101がユーザとは反対側を向いていると判断することができる。
また、その他に、スマートフォン132が回転する上記の第1装置100では、ストラップ133とスマートフォン132との間のコネクタ134の部分に、スマートフォン132の回転を検知するセンサを設け、このセンサからの出力に基づき、スマートフォン132の向きを判断してもよい。
また、例えば、第1装置100が手首装着型の装置である場合には、第1装置100の内界側に、ユーザの腕の表面にある血管についての情報を取得するセンサを設け、このセンサから出力に基づき、第1装置100の向きを判断する。
この場合、ユーザの手首のうちの手の平側に位置する部分に位置する血管についての情報と、ユーザの手首のうちの手の甲側に位置する部分に位置する血管についての情報とを、予め取得して登録しておく。
そして、ユーザが実際に第1装置100を装着した場合に得られる血管についての情報と、登録された上記の情報とを照合して、第1装置100の向きを判断する。
また、例えば、上記の指輪の形態を有する第1装置100では、第1装置100の内周面に、ユーザの指の表面にある血管についての情報を取得するセンサを設け、このセンサからの出力に基づき、第1装置100の向きを判断する。
この場合も、ユーザの指のうちの手の平側に位置する部分に位置する血管についての情報と、ユーザの指のうちの手の甲側に位置する部分に位置する血管についての情報とを、予め取得して登録しておく。
そして、ユーザが実際に第1装置100を装着した場合に得られる血管についての情報と、登録された上記の情報とを照合して、第1装置100の向きを判断する。
また、上記の指輪の形態を有する第1装置100では、第1装置100の外周面に、圧力を検知する圧力センサを設け、この圧力センサからの出力に基づき、第1装置100の向きを判断してもよい。
具体的には、例えば、上記の特定の部分119(図8参照)に、圧力センサを設け、この圧力センサからの出力に基づき、第1装置100の向きを判断してもよい。
指輪の形態を有する第1装置100では、図8に示したように、第2のモードのときに、特定の部分119が、第1装置100が装着された指と、この指の隣の指との間に位置する状態で、第1装置100が装着される場合がある。
この場合に、この特定の部分119に圧力センサが設けられていると、この圧力センサに圧力が作用し、この特定の部分119が、指と指との間に位置し2本の指により挟まれたことが検知される。
言い換えると、この場合、特定の部分119が、第1装置100が装着された指と、この指の隣の指とにより挟まれていることが検知される。
この場合、本実施形態では、第1装置100のモードが、第1のモードから、第2のモードへ移行する。
また、この場合、特定の部分119が、第1装置100が装着された指と、この指の隣の指との間に位置する状態ではない場合は、圧力センサに作用する圧力が低下する。この場合、第1装置100が第1モードとなる。
なお、上記にて説明した、第1装置100の向きの検知の方法は一例である。第1装置100の向きの検知にあたっては、重力センサ、傾斜センサ、加速度センサなどの他のセンサを用いてもよい。また、第1装置100の向きは、公知の他の方法により検知してもよい。
〔第2の実施形態〕
図12は、第2実施形態における第1装置100を示した図である。
第2実施形態における第1装置100では、図12に示すように、第1装置100のモードの切り替えにあたり、ユーザが、このユーザにより装着された第1装置100の外面側を覆う操作を行う。
そして、この実施形態では、第1装置100の外界側が覆われたことに応じて、第1装置100のCPU111Aが、第1装置100のモードを、このユーザの予め定められた指の動きによる第2装置200の操作が許可された第2のモードへ移行させる。
また、第1装置100のCPU111Aは、第1装置100の外界側が覆われなくなったことに応じて、第1装置100のモードを、この第2のモードから、第2のモードに入る前の第1のモードへ移行させる。
第1装置100のCPU111Aは、第1装置100の外界側が覆われているか否かを、例えば、第1装置100の外界側の特定の部分が予め定められた面積を超えて覆われているか否かによって判断する。
外界側の特定の部分としては、例えば、第1装置100のディスプレイ101を挙げることができる。言い換えると、外界側の特定の部分としては、第1装置100のタッチパネルを挙げることができる。
第1装置100のCPU111Aは、第1装置100の外界側が覆われているか否かを、例えば、第1装置100の外界側に位置するディスプレイ101が予め定められた面積を超えて覆われているか否かによって判断する。
言い換えると、第1装置100のCPU111Aは、第1装置100の外界側が覆われているか否かを、第1装置100の外界側に位置するタッチパネルが予め定められた面積を超えて覆われているか否かによって判断する。
なお、本明細書において、「装置の内界側」とは、その装置がユーザに装着されたときにユーザと接触する側、あるいは、接触しなくともユーザのより近くにある側を指し、「装置の外界側」とは、その反対を指す。例えば、腕時計であれば、ユーザの手首に装着されたときにユーザの手首に接触する側はこの腕時計の内界側であり、外界側ではない。時刻などが表示される面は外界側である。また、イヤホンの場合、装着時にユーザの耳の内部に入りユーザの耳と接触する部分が内界側で、耳の外に出ている部分が外界側である。また、眼鏡のレンズはユーザが眼鏡をかけてもユーザの目と接触するわけではないが、目の近くにくる面が内界側で、その反対の面が外界側である。
なお、ユーザが任意の状態で装着できる装置の場合は、装着状態(例えば装着の向き)によってその装置のある部分が内界側になることもあれば、外界側になることもある。例えば、図11(A)はディスプレイ101が第1装置100の外界側にある状態を示している。一方、図11(B)はディスプレイ101が第1装置100の内界側にある状態を示している。
本実施形態では、ディスプレイ101が、タッチパネルとなっており、第1装置100のCPU111Aは、このタッチパネルからの出力に基づき、ディスプレイ101のうちのユーザが覆った箇所の特定を行う。
そして、第1装置100のCPU111Aは、特定したこの箇所に基づき、ユーザにより覆われた箇所の面積についての情報を取得する。
第1装置100のCPU111Aは、第1装置100の外界側の覆われた部分の面積が予め定められた閾値を超える場合、第1装置100のモードを、第1のモードから第2のモードへ移行させる。
一方、CPU111Aは、第1装置100の外界側が覆われていない場合、又は、第1装置100の外界側の覆われた部分の面積が、この予め定められた閾値を超えない場合、第1装置100のモードを、第2のモードへ移行させず、第1のモードのままとする。
また、その他に、第1装置100のCPU111Aは、第1装置100の外界側が、ユーザの手の平で覆われた場合、第1装置100のモードを第2のモードへ移行させ、ユーザの指先で覆われた場合、第1装置100のモードを第2のモードへ移行させないようにしてもよい。
第1装置100の外界側が、ユーザの指先で覆われた場合、ユーザが、第1装置100自体の操作を行っていることが想定され、この場合、第1装置100のモードを第2のモードへ移行させない。
第1装置100の外界側が、ユーザの手の平(ユーザの指先以外の部分)で覆われたか、あるいは、ユーザの指先で覆われたかは、例えば、ディスプレイ101のうちの、ユーザが実際に触った箇所の面積についての情報に基づき判断する。
具体的には、例えば、ディスプレイ101のうちの、ユーザが実際に触った箇所の面積が、予め定められた閾値よりも小さい場合、第1装置100の外界側が、ユーザの指先で覆われたと判断する。
また、例えば、ディスプレイ101のうちの、ユーザが実際に触った箇所の面積が、予め定められた閾値よりも大きい場合、第1装置100の外界側が、ユーザの手の平(ユーザの指先以外の部分)で覆われたと判断する。
本実施形態では、タッチパネルからの出力に基づき、第1装置100の外界側が覆われたか否かを判断するが、覆われたか否かの判断の方法はこれに限られない。
例えば、第1装置100のうちの外界側に位置する部分に照度センサを設け、この照度センサからの出力に基づき、第1装置100の外界側が覆われたか否かを判断してもよい。
また、例えば、第1装置100の外界側に圧力センサを設け、第1装置100の外界側に作用する圧力を検知することによって、第1装置100の外界側が覆われているか否かを判断してもよい。言い換えると、第1装置100の外界側が覆われているか否かは、第1装置100の外界側に作用する圧力によって判断してもよい。
また、例えば、第1装置100の表面における静電容量の変化に基づき、第1装置100の外界側が覆われたか否かを判断してもよい。
なお、照度センサからの出力に基づき、第1装置100の外界側が覆われたか否かを判断する場合、ユーザが長袖の服を着た場合も、照度が低下し、第1装置100が覆われたと判断されるおそれがある。
このため、照度を基に第1装置100が覆われたか否かを判断する場合は、照度についての情報と、例えば、第1装置100の表面における静電容量の変化についての情報とに基づき、第1装置100が覆われたか否かを判断してもよい。
具体的には、例えば、照度センサからの出力が、照度が低下したことを示す出力であり、静電容量についてのセンサからの出力が、ユーザが第1装置100に触れたことを示す出力である場合、第1装置100の外界側がユーザにより覆われたと判断する。
また、例えば、照度センサからの出力が、照度が低下したことを示す出力であり、静電容量についてのセンサからの出力が、ユーザが第1装置100に触れたことを示す出力でない場合、第1装置100の外界側が衣服により覆われたと判断する。
また、その他に、例えば、第1装置100の外界側が、予め定められた条件を満たすものによって覆われた場合に、第1装置100のモードを第2のモードへ移行させてもよい。
この場合、第1装置100の外界側が、予め定められた条件を満たさないものによって覆われた場合、第1装置100のモードは、第2のモードへ移行せずに、第1のモードのままとなる。
言い換えると、第1装置100を覆ったものが何であるかを判断し、この判断の結果に基づき、第1装置100のモードの切り替えを行ってもよい。
言い換えると、第1装置100を覆ったものの種別についての情報を取得し、この種別についての情報に基づき、第1装置100のモードの切り替えを行ってもよい。
具体的には、例えば、第1装置100を覆ったものが、衣服であるか、あるいは、ユーザであるかを判断し、この判断に基づき、モードの切り替えを行ってもよい。
この場合、例えば、第1装置100を覆ったものが衣服である場合、第1装置100のモードの切り替えを行わない。一方、例えば、第1装置100を覆ったものがユーザである場合、第1装置100のモードの切り替えを行う。
ここで、第1装置100を覆ったものが、衣服であるか、ユーザであるかは、第1装置100の表面における静電容量の変化を基に判断できる。
また、例えば、第1装置100を覆ったものが途中で変化し、第1装置100を覆ったものが、例えば、衣服からユーザに切り替わった場合に、第1装置100のモードの切り替えを行い、第1装置100のモードを、第2のモードとしてもよい。
第1装置100を覆ったものが、衣服からユーザに切り替わった場合は、照度の変化が起きないことが想定されるが、上記のように、第1装置100に、静電容量の変化を検出するセンサが設けられている場合は、衣服からユーザに変わったことを検知できる。
本実施形態では、第1装置100に対する操作をユーザが行い、第1装置100の少なくとも一部が覆われた場合、ユーザのこの操作が、第1装置100のみを操作するための操作であるか、あるいは、第2モードに切り替えるための操作であるかを判断する必要が生じる。
第1装置100のみを操作するための操作であるか、あるいは、第2モードに切り替えるための操作であるかの判断は、例えば、第1装置100に作用する圧力の大きさに基づき行える。
この場合、例えば、第1装置100に、この第1装置100に作用する圧力を検知するセンサを設け、第1装置100に作用する圧力の大きさによって、ユーザの操作が、第1装置100のみを操作するための操作であるか、第2モードに切り替えるための操作であるかを判断する。
具体的には、例えば、第1装置100に対して作用する圧力が予め定められた閾値を超える場合、ユーザの操作は、第1装置100のみを操作するための操作であると判断し、第1のモードのままとする。
第1装置100のみを操作するための操作である場合、ディスプレイ101であるタッチパネルに局所的に圧力が作用し、第1装置100に対して作用する圧力が大きくなる傾向にある。
この場合、ユーザの操作は、第1装置100のみを操作するための操作であると判断し、第1のモードのままとする。
また、例えば、第1装置100に対して作用する圧力が予め定められた閾値を超えない場合、ユーザの操作は、第2モードに切り替えるための操作であると判断し、第2のモードへの切り替えを行う。
第2モードに切り替えるための操作である場合、ユーザが、手の平の全体で第1装置100のディスプレイ101を覆う場合が多くなり、第1装置100に対して作用する圧力が小さくなる傾向にある。
この場合、ユーザの操作は、第2モードに切り替えるための操作であると判断し、第2のモードへの切り替えを行う。
また、その他に、第1装置100のみに対するユーザの操作であるか、あるいは、第2モードに切り替えるための操作であるかは、例えば、第1装置100の覆われた部分の面積に基づき判断してもよい。
具体的には、例えば、第1装置100の覆われた部分の面積が、予め定められた閾値よりも小さい場合、ユーザの操作を、第1装置100のみに対する操作であると判断し、第1のモードのままとする。
また、例えば、第1装置100の覆われた部分の面積が、予め定められた閾値よりも大きい場合、ユーザの操作を、第2モードに切り替えるための操作であると判断する。この場合、第1装置100のモードを、第1のモードから第2のモードへ切り替える。
また、その他に、第1装置100のみに対するユーザの操作であるか、あるいは、第2モードに切り替えるための操作であるかは、例えば、第1装置100に作用する圧力、第1装置100の覆われた部分の面積の両者に基づき判定してもよい。
具体的には、例えば、第1装置100に対して作用する圧力が予め定められた閾値を超え、且つ、覆われた部分の面積が予め定められた閾値よりも小さい場合、ユーザの操作を、第1装置100のみに対する操作であると判断し、第1のモードのままとする。
また、例えば、第1装置100に対して作用する圧力が予め定められた閾値を超えておらず、且つ、覆われた部分の面積が予め定められた閾値よりも大きい場合、ユーザの操作を、第2モードに切り替えるための操作であると判断する。
この場合、第1装置100のモードを、第1のモードから第2のモードへ切り替える。
また、ユーザが第1装置100の外界側を覆ったか否かは、ディスプレイ101以外の箇所をユーザが覆ったか否かに基づき判断してもよい。
具体的には、例えば、第1装置100が、腕時計の形態を有する装置である場合は、第1装置100のフレームに相当するベゼル141(図12参照)の部分に、圧力センサや、静電容量の変化を検知するセンサや、照度センサを設けるようにする。
そして、この場合、圧力センサや、静電容量の変化を検知するセンサや、照度センサからの出力に基づき、ユーザが、ベゼル141を覆ったか否かを判断する。
そして、ユーザがベゼル141を覆ったと判断される場合、ユーザが、第1装置100の外界側を覆ったと判断する。
なお、この場合、ベゼル141のうちのユーザが触れた部分の面積についての情報を取得し、触れた部分の面積が、予め定められた閾値を超える場合に、ユーザが、第1装置100の外界側を覆ったと判断してもよい。
また、ベゼル141のうちのユーザが触れた部分に作用する圧力についての情報を取得し、圧力が、予め定められた閾値を超える場合に、ユーザが、第1装置100の外界側を覆ったと判断してもよい。
また、面積と圧力の両方を考慮してもよく、例えば、ベゼル141のうちのユーザが触れた部分の面積が予め定められた閾値を超え、且つ、ベゼル141のうちのユーザが触れた部分に作用する圧力が予め定められた閾値を超えた場合に、ユーザが、第1装置100の外界側を覆ったと判断してもよい。
また、その他に、例えば、第1装置100の内界側に、圧力センサを設け、この圧力センサによる検知結果に基づき、ユーザが、第1装置100を覆ったか否かを判断してもよい。
ユーザが、第1装置100を覆うと、第1装置100の内界側にも圧力が作用する。第1装置100の内界側に作用する圧力を検知することでも、ユーザが、第1装置100を覆ったか否かの判断を行える。
この場合、例えば、圧力センサにて検知された圧力が、予め定められた閾値を超える場合、ユーザが、第1装置100を覆ったと判断し、第1装置100のモードを、第2のモードに切り替える。
一方、圧力センサにて検知された圧力が、予め定められた閾値を超えない場合、ユーザが、第1装置100を覆ったと判断せず、第1装置100のモードを、第1のモードのままとする。
また、その他に、第1装置100のベルト142(図12参照)に、圧力センサや、静電容量の変化を検知するセンサや、照度センサを設けてもよい。
この場合、ユーザは、第1装置100のモードの切り替えを行う場合、第1装置100のベルト142を覆う。
ユーザが、第1装置100のベルト142を覆うと、圧力センサや、静電容量の変化を検知するセンサや、照度センサからの出力が変化する。これに伴い、第1装置100のモードが、第1のモードから第2のモードに切り替えられる。
また、本実施形態では、ユーザが、第1装置100を手で覆わずに、ユーザが、手以外の箇所で第1装置100を覆った場合も、第1装置100のモードの切り替えを行える。
具体的には、例えば、図13(第1装置100を装着しているユーザの状態を示した図)に示すように、ユーザが、第1装置100の外界側の特定の部分を、自身の衣服などに対向させることで覆った場合も、第1装置100のモードを、第2のモードに切り替えられる。
図13に示す例では、ユーザが、第1装置100の外界側の特定の部分として、ディスプレイ101の外界側を、自身の衣服に対向させている状態を例示している。
より具体的には、例えば、ユーザが、ディスプレイ101の外界側を、自身の衣服などに対して予め定められた大きさ以上の圧力で接触させた場合に、第1装置100のモードが、第2のモードに切り替えられる。
また、例えば、ユーザが、第1装置100の外界側を、自身の衣服などに対して対向させ、第1装置100の外界側における照度を予め定められた閾値以下まで低下させた場合に、第1装置100のモードが、第2のモードに切り替えられてもよい。
図14に示す例では、ユーザが、第1装置100の外界側の特定の部分として、ベルト142の外界側を自身の衣服に対向させている状態を例示している。この例では、第1装置100のベルト142に、圧力センサや、静電容量の変化を検知するセンサや、照度センサなどのセンサを設ける。
より好適には、センサは、ベルト142のうち、ユーザが第1装置100を装着したときにユーザの手の平側に位置する部分に設けられるとよい。
腕時計の一般的な装着状態を、時刻を示す部分(第1装置100においてはディスプレイ101)がユーザの手の甲側に位置する状態であると仮定した場合、第1装置100のうち、ユーザが自身の衣服などに対向させやすい部分は、ディスプレイ101よりもベルト142である。したがって、ベルト142にセンサが設けられていると、ユーザが、センサが設けられている部分を、自身の衣服などに対して対向させるときに、図13に示す場合と比較してより自然な姿勢をとることができる。つまり、より自然な姿勢をとることによってモードの切り替えを行える。
図15は、第2のモードにおける、ユーザの指の動きの検知について説明する図である。
第2のモードにおける、ユーザの指の動きの検知は、例えば、図15(A)に示すように、第1装置100を装着していない方の腕の先端にある指の動きを検知する第1態様と、図15(B)に示すように、第1装置100を装着している方の腕の先端にある指の動きを検知する第2態様とが存在する。
図15(A)に示す第1態様では、ユーザは、第1装置100を覆っている方の手の指を動かす。言い換えると、ユーザは、第1装置100を押さえている方の手の指を動かす。
図15(A)に示す第1態様では、例えば、第1装置100の外界側に位置するディスプレイ101(タッチパネル)(図12参照)を用いて、ユーザの指の動きを検知する。
なお、その他に、例えば、第1装置100のフレームであるベゼル141(図12参照)の部分に、接触センサを設け、このベゼル141の部分で、ユーザの指の動きを検知してもよい。
また、その他に、第1装置100が手首装着型の装置である場合には、ベルト142(図15(A)参照)にセンサを設け、このベルト142に設けられたセンサで、ユーザの指の動きを検知してもよい。
図15(B)に示す第2態様では、ユーザは、第1装置100を装着している方の腕の先端にある指を動かす。
図15(B)に示すこの第2態様では、例えば、第1装置100の内界側に、振動センサを設けたり、第1装置100の内界側に、ユーザの筋肉や腱の動きを検知するセンサを設けたりする。
図15(B)に示す第2態様では、これらのセンサを用い、第1装置100を装着している方の腕の先端にある指の動きを検知する。図15(B)に示す第2態様では、第1装置100が装着された腕の先端にある指の動きに基づき、第2装置200の制御が行われることになる。
言い換えると、図15(B)に示す第2態様では、第1装置100のCPU111Aは、第1装置100が装着された腕の先端にある指の動きに基づき、第2装置200を制御する。
なお、第2のモードにおける、ユーザの指の動きの検知では、第1態様での検知、第2態様での検知のいずれか一方のみを用いることに限らず、第1態様での検知と第2態様での検知の両方を用いてもよい。
即ち、第2のモードにおける、ユーザの指の動きの検知では、第1装置100を装着していない方の腕の先端にある指の動きの検知、第1装置100を装着している方の腕の先端にある指の動きの検知の両者を行ってもよい。
また、その他に、第1装置100が装着された方の腕の先端にある指の検知は、この指に装着された機器である装着機器290の動きを検知することで行ってもよい。
具体的には、この場合、例えば、図16(ユーザの手指の状態を示した図)に示すように、第1装置100が装着された腕の先端にある指に、指輪の形態を有する装着機器290を装着する。
この構成例では、第1装置100を用い、この装着機器290の動きを検知する。これにより、この場合も、第1装置100が装着された腕の先端にある指の動きの検知を行える。
この第2の実施形態では、検知の態様の一つとして、第1装置100が装着された方の腕である装着腕の先端にある指の動きを検知する態様を説明した。
この装着腕の先端にある指の動きを検知する態様は、上記の第1の実施形態にて説明した第1装置100に対しても適用してもよい。
第1の実施形態にて説明した第1装置100でも、第2のモードにて、ユーザの指の動きを検知するが、この検知の際に、装着腕の先端にある指の動きを検知してもよい。そして、第1の実施形態では、この指の動きに基づき、第2装置200の制御を行ってもよい。
また、第1の実施形態にて説明した第1装置100では、ディスプレイ101(タッチパネル)に対するユーザの操作を検知し、この検知の結果に基づき、第2装置200の制御を行った。
第1の実施形態においても、ユーザが第1装置100に触れる箇所は、ディスプレイ101のタッチパネルに限られず、他の箇所であってもよい。
例えば、第1装置100が腕時計である場合には、第1装置100のフレームに相当するベゼル141であってもよい。また、例えば、ベルト142にセンサを設け、ユーザが第1装置100を触れる箇所は、このベルト142としてもよい。
図17は、第2装置200に設けられたディスプレイ202(図1参照)における表示例を示した図である。
図17に示す表示例では、ユーザの指の動きと、この動きに基づき第2装置200にて実行される処理の内容とが互いに対応付けられた状態で表示されている。言い換えると、図17では、指の操作方法をユーザに案内するための案内表示が行われている。
図17に示す表示例では、第1装置100が第2のモードにある状態にてユーザが行う操作と、この操作が行われた場合に第2装置200にて行われる処理の内容とが示されている。
具体的には、ユーザが第1装置100に対して行う操作については、図17の符号17Aで示す箇所に表示され、第2装置200にて行われる処理の内容については、図17の符号17Bで示す箇所に表示される。
より具体的には、第2装置200にて行われる処理の内容については、符号17Xで示す円形の領域の内側に表示される。なお、図17では、この処理の内容についての図示は省略している。
図17に示す表示例では、第1装置100をユーザが右手で覆っている状況下における操作と、処理の内容とが示されている。
より具体的には、図17では、ユーザが左手で行う操作と、この操作が行われた場合に第2装置200にて行われる処理の内容とが示され、また、ユーザが右手で行う操作と、この操作が行われた場合に第2装置200にて行われる処理の内容とが示されている。
言い換えると、図17では、第1装置100を装着していない方の腕の先端にある指の動きの検知、第1装置100を装着している方の腕の先端にある指の動きの検知の両者が行われる場合における案内表示を示している。
第1装置100をユーザが右手で覆っている状況下では、ユーザは、自身の右手の指先、および、自身の左手の指先を動かすことで、第1装置100に対する操作を行える。
図17に示す表示例では、符号17Cで示す箇所に、左手の指先の動きと、この動きに対応した処理内容とが表示されている。
言い換えると、図17に示す表示例では、ディスプレイ202(図1参照)に表示される表示画面202Aの左側に、第1装置100が装着されている方の手である左手の指先の動きと、この動きに対応した処理内容とが表示されている。
また、図17に示す表示例では、符号17Dで示す箇所に、右手の指先の動きと、この動きに対応した処理内容とが表示されている。
言い換えると、図17に示す表示例では、表示画面202Aの右側に、第1装置100が装着されていない方の手である右手の指先の動きと、この動きに対応した処理内容とが表示されている。
本実施形態では、表示画面202Aの左側に、左手の指先の動きを表示し、表示画面202Aの右側に、右手の指先の動きを表示している。
この場合、表示画面202Aの左側に、右手の指先の動きを表示し、表示画面202Aの右側に、左手の指先の動きを表示する場合に比べ、ユーザは、各手の操作の内容をより直観的に認識しやすくなる。
さらに、図17に示すこの表示例では、符号17Fで示すように、第1装置100を示す画像が表示され、図17に示すこの表示例では、第1装置100に対する操作を行うことで第2装置200の操作を行えることが示されている。
言い換えると、図17に示すこの表示例では、第1装置100のモードが、第2装置200の操作のための第2モードであることが示されている。
言い換えると、図17に示すこの表示例では、第1装置100のモードが、第2装置200の操作のためのリモコンモードであることが示されている。
図17は、第1装置100がユーザの左手に装着された場合における表示となっている。
図示は省略するが、第1装置100がユーザの右手に装着された場合における表示では、例えば、符号17Cで示す箇所に、第1装置100が装着されていない方の手である左手の指先の動きと、この動きに対応した操作内容とが表示される。
また、第1装置100がユーザの右手に装着された場合における表示では、例えば、符号17Dで示す箇所に、第1装置100が装着されている方の手である右手の指先の動きと、この動きに対応した操作内容とが表示される。
また、その他に、例えば、第1装置100がユーザの右手および左手のいずれに装着されているかを判断し、この判断の結果に応じて、第2装置200におけるディスプレイ202の表示を自動で切り替えてもよい。
この場合、第1装置100が装着されている方の腕が左であると判断された場合、図17にて示した表示が行われる。
図17にて示すこの表示では、上記の通り、符号17Cで示す箇所に、左手の指先の動きと、この動きに対応した処理内容とが表示される。また、符号17Dで示す箇所に、右手の指先の動きと、この動きに対応した処理内容とが表示される。
また、第1装置100が装着されている方の腕が右であると判断された場合も、符号17Cで示す箇所に、左手の指先の動きと、この動きに対応した処理内容とが表示される。
また、符号17Dで示す箇所に、右手の指先の動きと、この動きに対応した処理内容とが表示される。
図18は、第2装置200における他の表示例を示した図である。
この表示例では、第1装置100を装着している方の腕の先端にある指を動かす場合における表示例を示している。具体的には、この例では、第1装置100を装着している方の腕である左腕の先端にある指を動かす場合における表示例を示している。
この場合、第2装置200のディスプレイ202には、図18に示すように、第1装置100を装着している方の腕である左腕の指先の動きと、この動きに応じて実行される処理の内容とが表示される。
本実施形態では、第1装置100に対し、ユーザは、第1装置100が装着されている腕の先端の指先による操作(以下、「装着側操作」と称する)、第1装置100が装着されていない方の腕の先端の指先による操作(以下、「非装着側操作」)を行える。
また、本実施形態では、第1装置100に対し、装着側操作および非操作側操作の両者を行える。
本実施形態では、これら3つの操作態様が存在し、この3つの操作態様の各々において、第1装置100は、ユーザが第1装置100に対して行った操作の内容を受け付ける。
また、本実施形態では、例えば、ユーザが、これらの3つの操作態様の中から操作態様の選択を行えるようにしてもよい。この場合、3つの操作態様のうちのユーザが選択した操作態様において、第1装置100は、ユーザが行った操作の内容を受け付ける。
また、その他に、予め、第1装置100毎に、ユーザが第1装置100に対して行うことができる操作態様を決めてもよい。この場合は、この予め決まっている操作態様の下でユーザが操作を行い、第1装置100が、この操作を受け付ける。
ユーザが操作態様の選択を行える構成となっている場合、第2装置200のディスプレイ202には、ユーザが選択した操作態様に対応した表示が行われる。
具体的には、例えば、ユーザが装着側操作および非装着側操作の両者を行える操作態様では、図17にて示した表示が行われる。また、ユーザが装着側操作のみを行える操作態様では、図18にて示した表示が行われる。
また、図示は省略するが、ユーザが非装着側操作のみを行える操作態様では、第1装置100が装着されていない方の腕の指先の動きと、この指先の動きに対応した操作内容とが表示される。
図19は、第1装置100のディスプレイ101の画面遷移例を示した図である。
図19では、符号19Aで示す箇所に、上記の第1装置100の回転が行われる前や、第1装置100がユーザによって覆われる状態となる前における、第1装置100の表示例を示している。
言い換えると、図19では、符号19Aで示す箇所に、第1装置100が第1のモードにある場合における、第1装置100の表示例を示している。
第1のモードでは、第1装置100に対する操作が一定時間行われなかった場合、第1装置100はスリープ状態となり、図19(A)に示すように、第1装置100のディスプレイ101は、消灯された状態とされる。
この状態から、ユーザが、例えば、第1装置100が装着された腕を上方へ移動させると、図19(B)に示すように、第1装置100のディスプレイ101が点灯し、ユーザは、例えば、表示画面101A上のアプリケーションなどの視認を行える。
言い換えると、ユーザは、第1装置100の表示画面101Aに表示された、アイコンなどの表示要素185の視認を行える。
そして、例えば、ユーザが、表示されている複数のアプリケーションの中から、アプリケーションの選択を行うと、図19(C)に示すように、選択されたアプリケーションに対応した画面が表示される。
言い換えると、第1装置100のディスプレイ101に表示された、アイコンなどの表示要素185に対して、ユーザが、タップなどの予め定められたジェスチャによる選択を行うと、第1装置100にインストールされたアプリケーションのうち、選択されたアプリケーションに対応した画面が表示される。
具体的には、図19(C)にて示す例では、メッセージの送受信を行うためのチャットアプリケーションがユーザにより選択された場合を例示しており、この場合、第1装置100には、チャットアプリケーションに対応した画面が表示される。図19(C)に示す例では、このユーザが他のユーザ(例えばユーザA)から受信した「エンジョイ(以下省略)」というチャットメッセージが表示されており、ユーザAに返信するチャットメッセージの選択肢として「了解」、「ありがとう」が表示されている。
次に、第1装置100が第2のモードへ移行した場合における、第1装置100における表示例について説明する。
第1装置100のCPU111Aは、第1装置100のモードを、第1のモードから第2のモードへ移行させる場合、第1装置100のディスプレイ101における表示を変更する。
具体的には、本実施形態では、図5、図7、図11、図12にて示したように、第1装置100の向きが変更された場合や、第1装置100が覆われた場合、第1装置100のCPU111Aが、第1装置100のディスプレイ101における表示を変更する。
これにより、第1装置100におけるディスプレイ101では、例えば、図19の符号19Xで示す表示が行われる。
上記のように、本実施形態では、第1装置100の向きが変更された場合や、第1装置100が覆われた場合、第1装置100のモードが、第2のモードへ移行する。
本実施形態では、この第2のモードへの移行に伴い、一例として、符号19Xで示す状態に第1装置100の表示画面101Aが遷移する。
本実施形態では、第2のモードへの移行の直前に第1装置100にて表示されている表示内容に関わらず、第2のモードへ移行したことに応じて第1装置100の表示画面101Aが符号19Xで示す内容へと切り替わる。
また、本実施形態では、第2のモードへの移行の直前に第1装置100に画面が表示されていたか否かに関わらず、第2のモードへ移行したことに応じて、第1装置100のディスプレイ101に符号19Xで示す内容を表示する。
具体的には、例えば、第1装置100に、メニュー画面(図19(B)参照)が表示されている場合であっても、また、メニュー画面以外の他の画面が表示されている場合であっても、第2のモードへ移行した場合、第1装置100のディスプレイ101には符号19Xで示す表示画面101Aが表示される。
また、図19(A)に示したように、第1装置100が消灯状態にある場合であっても、第2のモードへ移行した場合は、第1装置100のディスプレイ101には符号19Xで示す表示画面101Aが表示される。
符号19Xで示すこのディスプレイ101では、「リモコンモード中」と表示され、第1装置100のモードが、第1装置100を介して第2装置200の操作を行えるいわゆるリモコンモードであることを示す表示が行われている。言い換えると、第1装置100のモードが、第2のモードにあることを示す表示が行われている。
さらに、符号19Xで示すこの画面では、符号19Yで示すように、第1モードへ移行するための操作方法が表示されている。言い換えると、符号19Xで示すこの画面では、第1モードへ戻るための操作方法が表示されている。
図20は、第1装置100が第2のモードにある場合における、第1装置100における表示例を示した図である。
第1装置100が第2のモードにある場合における表示としては、図19の符号19Xで示した表示の他に、例えば、図20(A)、(B)に示す表示が挙げられる。この図20(A)、(B)に示す表示は、輝度が低下した表示となっている。
具体的には、図20(A)では、ディスプレイ101の輝度が0%とされ、消灯状態となっている。
また、図20(B)では、第1のモードにて表示されていた表示画面101A(図19(B)参照)に対して、グレーのスクリーンを上から追加で表示した表示画面101Aを示している。この図20(B)に示す表示画面101Aの輝度は、25%となっている。
図20(B)では、表示画面101Aに、アイコンなどの表示要素185が見えているが、第2のモードでは、この表示要素185は無効となる。
このため、ユーザが、この表示要素185に対するタップやスワイプなどの操作を行っても、この操作の受け付けは行われない。
図19(B)では、第1装置100が第1のモードにある場合における、第1装置100の表示画面101Aの一例を示した。
上記の輝度0%や、25%は、この第1のモードにおける表示画面101Aの輝度を100%とした場合における、輝度の割合を示している。
図20(A)、(B)に示す表示では、輝度が低下しており、これにより、ユーザは、第1装置100のモードが、第2モードであることを認識する。
図20(C)に示す表示画面101Aは、図19の符号19Xで示した表示画面101Aと同じ表示画面101Aである。
この表示画面101Aは、第2のモードへの移行前に第1装置100のディスプレイ101に表示されていた表示画面101A(図19(B)参照)(以下、「第1表示画面101C」)の上に、ユーザによる選択が可能な表示要素185を含まない第2表示画面101D(図20(E)参照)を重ねた表示画面101Aとなっている。
図20(E)は、第2表示画面101Dのみを示しており、CPU111Aは、第1装置100のモードを第2のモードへ移行させる場合、移行前に第1装置100のディスプレイ101に表示されていた第1表示画面101C(図19(B)参照)の上に、この第2表示画面101Dを重ねる。
これにより、第2のモードでは、第1装置100に表示される表示画面101Aは、図20(C)に示す表示画面101Aとなる。
第1のモードにて表示される第1表示画面101A(図19(B)にて示す表示画面101A)では、ボタン、アイコン、リンクなど、ユーザにより選択される表示要素185が表示されている。
これに対し、図20(B)、(C)における表示では、ユーザにより選択される表示要素185の選択が行えない表示となっている。
言い換えると、図20(B)、(C)では、第2のモードへの移行前に第1装置100に表示され且つ選択可能であった表示要素185の選択を行えないことを示す表示が行われている。
第1装置100のCPU111Aは、第1装置100を、第1のモードから第2のモードへ移行させた場合、図20(B)、(C)に示すように、第1のモード下において選択可能であった表示要素185の選択が不可能になったことが分かるように、表示の変更を行う。
図20(B)、(C)に示す表示例では、ユーザは、第2のモードへの移行前に表示されていた表示要素185の視認を行える。しかしながら、この図20(B)、(C)に示す表示例では、ユーザは、この表示要素185の選択を行えない。
また、図20(B)、(C)に示す表示例では、さらに、表示要素185が無効であることを示す表示となっている。言い換えると、表示要素185の選択を行えないことをユーザが認識可能な表示となっている。
言い換えると、図20(B)、(C)では、ユーザがディスプレイ101に触れても第1装置100が反応せず、図20(B)、(C)における表示は、ディスプレイ101に対する操作が、意味がない操作であることをユーザに知らせる表示となっている。
なお、表示要素185が無効であることを示す表示としては、その他に、カラーで表示されていた表示要素185を、白黒で表示する態様なども挙げられる。
図20(B)、(C)にて示すこの表示が行われている場合、第1装置100のCPU111Aは、ユーザが、表示要素185が表示されている箇所を触れこの表示要素185に対する操作を行っても、この表示要素185に対応する処理を実行しない。
図20(D)にて示す表示画面101Aは、表示要素185を含まない表示画面101Aを表示している。言い換えると、図20(D)にて示す表示画面101Aは、図20(E)にて示した第2表示画面101Dのみを、第1装置100のディスプレイ101に表示した表示画面101Aとなっている。
本実施形態では、CPU111Aは、第1装置100のモードを第2のモードへ移行させる場合、ディスプレイ101の表示を、図19(B)にて示した第1表示画面101Aから、例えば、図20(D)に示す、表示要素185を含まない第2表示画面101Aに切り替える。
図20(D)に示す表示画面101Aは、ユーザの操作に反応する表示要素185を含んでいない。すなわち、ボタン、アイコン、リンクなどの表示要素185を含んでいない。
図20(D)における表示においても、ユーザがディスプレイ101に触れても第1装置100が反応せず、図20(D)における表示は、ディスプレイ101に対する操作が、意味がない操作であることをユーザに知らせる表示となっている。
また、図20(D)に示すこの表示画面101Aでは、第1装置100のモードが、第1装置100を介して第2装置200の操作を行えるいわゆるリモコンモードであることを示す表示が行われている。
言い換えると、図20(D)に示すこの表示画面101Aでは、第1装置100が、第2モードにある旨の表示が行われている。なお、第2モードにある旨の表示は、テキストで示してもよいし、イラストやアイコンなどテキスト以外で示してもよい。
また、図20(D)に示す表示画面101Aには、第2モードを解除するための方法を示す表示が行われている。
図21は、第1装置100が第2のモードにある場合における、第1装置100における他の表示例を示した図である。
図21にて示すこの表示例は、第2のモードへの移行に伴って第1装置100の表示画面101Aのレイアウトが変更された場合における表示例を示している。
具体的には、この表示例では、第1装置100のモードが、第1のモードから第2のモードへ移行すると、図21に示すように、第1のモードのときに表示されていた表示画面101A(図19(B)参照)が縮小されて、第1装置100の表示可能領域の上半分に表示される。なお、縮小された図19(B)の表示画面101Aは、表示可能領域の上側でなく、下側、右側、左側などに表示されてもよい。また、図19(B)の表示画面101Aは半分に縮小される必要はなく、例えば、ユーザが設定した大きさに縮小されてもよい。
さらに、この表示例では、第1装置100のモードが、第1のモードから第2のモードへ移行すると、第1装置100の表示可能領域の下半分(つまり、縮小された図19(B)の表示画面101Aが表示されていない領域)が、第2装置200に対するユーザの操作を受け付けるための領域である受け付け用領域193となる。
この受け付け用領域193には、ユーザからの操作を受け付けるための領域であることをユーザに知らせるための表示が行われている。具体的には、受け付け用領域193には、ユーザの人差し指と中指を示す画像の表示が行われている。なお、ユーザの利き手や第1装置100をどちらの腕に装着しているかなどによって、ここで表示される指は変わってもよい。
言い換えると、この表示例では、ユーザが第1装置100のどこで指を動かすことによって第2装置200を操作することができるかを案内するガイドが表示されている。また、この表示例では、ユーザが第1装置100にどこでどの指を動かすことによって第2装置200を操作することができるかが示されているとも言える。
この表示例では、第2のモードにおいて、ユーザは、この受け付け用領域193で指を動かして(タップなど)、第2装置200を操作する。
なお、受け付け用領域193の表示態様は、図21にて示す表示態様に限られない。
受け付け用領域193には、テキストやアイコンを含まない無地の画像が表示されるようにしてもよい。
また、受け付け用領域193には、「第2装置200に対する操作はこの領域で受け付けます」などのテキストを表示してもよい。
ここで、従来技術として、あるユーザ装置(例えばスマートウォッチ)から別のユーザ装置(例えばスマートフォン)を操作する方法には、例えば、スマートウォッチに、このスマートウォッチとペアリングされたスマートフォンを操作するためのアプリケーションを示すアイコンを表示し、このアイコンがスマートウォッチ上で選択された場合に、このスマートウォッチにスマートフォンで実行できる機能を示すボタンを表示させる方法がある。
より具体的な例として、例えば、スマートウォッチ(第1装置100に相当)上でスマートフォン(第2装置200に相当)のカメラを操作するためのアプリケーションを示すアイコンをタップすると、スマートウォッチ上にスマートフォンのカメラのシャッターを切るためのボタンが表示され、ユーザはこのボタンをタップすることによって、スマートフォンのカメラで写真や動画の撮影を行うことができる。
しかし、この場合、ユーザは、スマートウォッチのディスプレイに表示されている画面を見ずに、スマートウォッチを、スマートウォッチからスマートフォンを操作できる状態にすることは困難である。さらに、もしもユーザが眼鏡型の装置を装着していた場合、眼鏡型の装置の表示を消したり、ユーザがその装置を外したりしない限り、眼鏡型の装置やそこで表示されている画面が邪魔になり、スマートウォッチのタッチパネルに表示されている画面が見づらいという状況が発生する恐れもある。
これに対して、上記の図1~21にて示した本実施形態では、ユーザは、ある装置(第1装置100)を回転させたり、覆ったりすることによって、その装置のモードを別の装置(第2装置)を操作するためのモードに切り替えている。つまり、ユーザは、その装置を必ずしも見なくてもその装置のモードを切り替えることができる。
第1装置100の他の構成例を説明する。
上記では、手首装着型の第1装置100として腕時計、指装着型の第1装置100として指輪、首装着型の第1装置100としてネックストラップ付スマートフォンを説明したが、第1装置100は、これらに限られない。第1装置100は、上半身(頭、首、背中、腹、腕などを含む)に装着されるものであっても、下半身(腰、脚などを含む)に装着されるものであっても、その両方に装着されるものであってもよい。具体的には、第1装置100は、帽子、コンタクトレンズ、ヘッドセット、イヤホン、イヤリング、ピアス、腹巻、ネックウォーマー、ネックレス、マフラー、アームウォーマー、リストバンド、手袋、付け爪、ネイルシール、トップス(長袖、半袖、タンクトップなど)、ボトム(スカート、パンツなど)、ワンピース、靴、靴下などの形態で提供されてもよい。
これらの第1装置100のうちの一部の第1装置100は、腕時計や指輪の形態を有する上記の第1装置100と同様、胴部、首、腕、指などを軸とした回転を行うことができ、上記と同様、回転を行うことでモードの切り替えを行える。
言い換えると、これらの第1装置100では、この第1装置100に設けられた孔に対して、人体の一部を通せるようになっている。
具体的には、例えば、腹巻、ネックウォーマー、ネックレス、アームウォーマー、リストバンドなどの形態を有する第1装置100では、これらの第1装置100に設けられた孔に対して、人体の一部を通せるようになっている。
そして、これらの第1装置100では、この一部を中心として、この第1装置100を回転させることで、モードの切り替えを行える。
また、第1装置100としては、例えば、人体の一部に被せられる形態を有する装置が挙げられる。
具体的には、人体の一部に被せられる形態を有する第1装置100としては、帽子、手袋、靴、靴下などの形態を有する装置が挙げられる。
帽子の形態を有する第1装置100では、ユーザの頭部を中心として帽子を周方向に回転させることで、モードの切り替えを行える。
また、靴、手袋、靴下などの形態を有する第1装置100では、例えば、右手や右足に装着されていた第1装置100を、左手や左足に装着することで、モードの切り替えを行える。また、左手や左足に装着されていた第1装置100を、右手や右足に装着することで、モードの切り替えを行える。
また、第1装置100としては、例えば、人体に存在する穴にはめ込む形態を有する装置が挙げられる。
人体に存在する穴にはめ込む形態を有する第1装置100としては、例えば、イヤホンの形態を有する第1装置100が挙げられる。
イヤホンの形態を有する第1装置100では、ユーザの耳の内部に入る部分を中心としてこの第1装置100を周方向に回転させることで、モードの切り替えを行える。
また、第1装置100としては、例えば、人体に存在する穴に通したうえでこの人体に引っ掛ける形態を有する装置が挙げられる。
人体に存在する穴に通したうえでこの人体に引っ掛ける形態を有する第1装置100としては、例えば、ユーザの耳たぶに装着されるピアスの形態を有する装置が挙げられる。
ピアスの形態を有する第1装置100では、ユーザの耳の内部に入る部分を中心としてこの第1装置100を周方向に回転させることで、モードの切り替えを行える。
また、ピアスの形態を有する第1装置100では、耳たぶの一方の面に装着されていたこの第1装置100を、他方の面側に装着することで、モードの切り替えを行える。
また、第1装置100としては、例えば、人体に一部を挟む形態を有する装置が挙げられる。
具体的には、例えば、ユーザの頭部を挟むヘッドセットの形態を有する第1装置100や、耳たぶを挟むイヤリングの形態を有する第1装置100が挙げられる。
ヘッドセットの形態を有する第1装置100では、ユーザが、右耳側と左耳側とを入れ替えた状態でこの第1装置100を装着することで、モードの切り替えを行える。
また、イヤリングの形態を有する第1装置100では、耳たぶの一方の面側に位置する部分と、他方の面側に位置する部分とが入れ替われるように第1装置100の装着状態を変えることで、モードの切り替えを行える。
また、第1装置100としては、例えば、マフラー、トップス(長袖、半袖、タンクトップなど)、付け爪、ネイルシールなどの形態を有する装置が挙げられる。
これらの第1装置100では、これらの第1装置100のうちの外界側に位置する部分に、上記と同様、圧力センサや、静電容量の変化を検知するセンサや、照度センサを設けるようにする。
そして、これらの第1装置100の外界側がユーザにより覆われた場合に、モードの切り替えを行う。
なお、上記で説明した各構成は、上記の実施形態及びその変形例に限られるものではなく、趣旨を逸脱しない範囲で変更可能である。言い換えると、特許請求の範囲の趣旨及び範囲から逸脱することなく、形態や詳細の多様な変更が可能なことが理解される。
例えば、上記にて説明した各構成の一部を省略したり、上記にて説明した各構成に対して他の機能を付加したりしてもよい。
また、上記では、複数の実施形態を説明したが、一の実施形態に含まれる構成と他の実施形態に含まれる構成とを入れ替えたり、一の実施形態に含まれる構成を他の実施形態に付加したりしてもよい。
30…装着部位、100…第1装置、101…ディスプレイ、111A…CPU、131…回転部分、200…第2装置

Claims (15)

  1. プロセッサを有しユーザの装着部位に装着される装置であって、ユーザが当該装置を介して他の装置の操作を行うことが可能な装置であり、
    前記プロセッサは、
    前記装着部位に装着された前記装置の向きを検知し、
    前記装置がユーザの前記装着部位に対して第2の向きで装着されたことに応じて、前記装置のモードを、前記装置を介しての前記他の装置の操作が許可された第2のモードへ移行させる、
    装置。
  2. 前記装置は、前記装着部位に装着されたまま前記装着部位を軸として回転可能であって、
    前記装置の装着の向きは、前記装置が前記装着部位を軸として回転することによって変化する、
    請求項1に記載の装置。
  3. 前記プロセッサは、
    前記装置の装着の向きが前記装着部位に対して前記第2の向きと異なる第1の向きから前記第2の向きに変化したことに応じて、前記装置のモードを前記第1の向きに対応した第1のモードから前記第2のモードへ移行させる、
    請求項1に記載の装置。
  4. 前記装置は、回転可能な部分を有し、
    前記装置の装着の向きは、前記回転可能な部分が回転することによって変化し、
    前記プロセッサは、
    前記回転可能な部分が回転することに応じて、前記装置のモードを前記第2のモードへ移行させる、
    請求項1に記載の装置。
  5. 前記プロセッサは、
    前記装置の向きが前記第2の向きでなくなったことに応じて、前記装置のモードを、前記第2のモードから前記第2のモードに入る前の第1のモードに戻す、
    請求項1に記載の装置。
  6. 前記第1のモードは、前記他の装置を操作するためのモードではなく、前記装置を操作するためのモードであり、
    前記第2のモードは、前記装置を介して、前記他の装置を操作するためのモードである、
    請求項3又は5に記載の装置。
  7. 前記プロセッサは、
    前記装置のモードを前記第2のモードへ移行させる場合、前記装置のディスプレイにおける表示を変更する請求項1に記載の装置。
  8. 前記プロセッサは、
    前記装置のモードを前記第2のモードへ移行させる場合、前記装置のディスプレイの輝度を低下させる、
    請求項1に記載の装置。
  9. 前記プロセッサは、
    前記装置のモードを前記第2のモードへ移行させる場合、移行前に前記装置のディスプレイに表示されていた選択可能な要素が選択不可能になったことがわかるように表示する、
    請求項1に記載の装置。
  10. 前記プロセッサは、
    前記装置のモードを前記第2のモードへ移行させる場合、移行前に前記装置のディスプレイに表示されていた第1の画面の上に、選択可能な要素を含まない第2の画面を重ねて表示する、又は、前記ディスプレイの表示を前記第1の画面から前記第2の画面に切り替える、
    請求項1に記載の装置。
  11. 前記他の装置は、前記ユーザによって装着される前記装置とは異なる、前記ユーザによって装着される装置である、
    請求項1乃至10の何れかに記載の装置。
  12. 前記他の装置は、前記ユーザの眼球の前に装着される装置である、
    請求項11に記載の装置。
  13. 前記装置は、前記ユーザの腕に装着され、
    前記プロセッサは、
    前記装置が装着された腕の先端にある指の動きに基づき、前記他の装置を制御する、
    請求項1~12の何れかに記載の装置。
  14. 前記第2の向きは、予め定められた特定の向きであり、
    前記プロセッサは、
    前記装置が前記装着部位に対して前記予め定められた特定の向きで装着されることに応じて、前記装置のモードを、前記第2のモードへ移行させる、
    請求項1に記載の装置。
  15. ユーザの装着部位に装着される装置であって、ユーザが当該装置を介して他の装置の操作を行うことが可能な装置に設けられたコンピュータによって実行されるプログラムであり、
    前記装着部位に装着された前記装置の向きを検知する機能と、
    前記装置がユーザの前記装着部位に対して第1の向きで装着されたことに応じて、前記装置を、前記装置を介しての前記他の装置の操作が許可された第2のモードへ移行させる機能と、
    を前記コンピュータに実現させるためのプログラム。
JP2021126263A 2021-07-30 2021-07-30 装置およびプログラム Active JP7767760B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021126263A JP7767760B2 (ja) 2021-07-30 2021-07-30 装置およびプログラム
US17/544,938 US12399569B2 (en) 2021-07-30 2021-12-08 Non-transitory computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021126263A JP7767760B2 (ja) 2021-07-30 2021-07-30 装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2023020731A JP2023020731A (ja) 2023-02-09
JP7767760B2 true JP7767760B2 (ja) 2025-11-12

Family

ID=85038840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021126263A Active JP7767760B2 (ja) 2021-07-30 2021-07-30 装置およびプログラム

Country Status (2)

Country Link
US (1) US12399569B2 (ja)
JP (1) JP7767760B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12322204B2 (en) * 2023-01-20 2025-06-03 The Texas A&M University System Multispectral optical finger system for physiological measurements

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014102838A (ja) 2012-11-20 2014-06-05 Samsung Electronics Co Ltd 着用式電子デバイスでのgui転移
JP2016027848A (ja) 2014-07-08 2016-02-25 パナソニックIpマネジメント株式会社 筋電位計測装置及び筋電位計測方法
JP2016076203A (ja) 2014-10-02 2016-05-12 エルジー エレクトロニクス インコーポレイティド 移動端末機及びその制御方法
US20160196693A1 (en) 2015-01-06 2016-07-07 Seiko Epson Corporation Display system, control method for display device, and computer program
JP2016126589A (ja) 2015-01-06 2016-07-11 セイコーエプソン株式会社 表示システム、プログラム、及び、表示装置の制御方法
WO2021007221A1 (en) 2019-07-09 2021-01-14 Facebook Technologies, Llc Virtual user interface using a peripheral device in artificial reality environments
JP2021512433A (ja) 2018-04-06 2021-05-13 ディーエヌエーナッジ リミテッド 手首装着型製品コード・リーダ

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120262381A1 (en) * 2011-04-18 2012-10-18 Research In Motion Limited Portable electronic device and method of controlling same
US9094534B2 (en) * 2011-12-29 2015-07-28 Apple Inc. Device, method, and graphical user interface for configuring and implementing restricted interactions with a user interface
US20130285921A1 (en) * 2012-04-25 2013-10-31 Motorola Mobility, Inc. Systems and Methods for a Rollable Illumination Device
KR102169952B1 (ko) * 2013-10-18 2020-10-26 엘지전자 주식회사 웨어러블 디바이스 및 그 제어 방법
JP2015156186A (ja) 2014-02-21 2015-08-27 ソニー株式会社 電子機器、および連係動作方法
US9659482B2 (en) * 2014-09-02 2017-05-23 Apple Inc. Context-based alerts for an electronic device
JP6516464B2 (ja) 2014-12-15 2019-05-22 Kddi株式会社 ウェアラブル検索システム
JP2017005292A (ja) 2015-06-04 2017-01-05 キヤノン株式会社 無線通信端末、無線通信端末の制御方法、及びプログラム
JP6758856B2 (ja) 2016-02-24 2020-09-23 Dynabook株式会社 リモートコントロールシステム、ウェアラブル端末およびリモートコントロール方法
US11126258B2 (en) * 2017-10-14 2021-09-21 Qualcomm Incorporated Managing and mapping multi-sided touch
JP2021121877A (ja) * 2018-04-27 2021-08-26 ソニーグループ株式会社 情報処理装置および情報処理方法
US20200150772A1 (en) * 2018-11-09 2020-05-14 Google Llc Sensing Hand Gestures Using Optical Sensors
US12079386B2 (en) * 2020-09-14 2024-09-03 Zebra Technologies Corporation Devices having protective screens selectively positionable to switch devices between user interface modes and methods of operating the same

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014102838A (ja) 2012-11-20 2014-06-05 Samsung Electronics Co Ltd 着用式電子デバイスでのgui転移
JP2016027848A (ja) 2014-07-08 2016-02-25 パナソニックIpマネジメント株式会社 筋電位計測装置及び筋電位計測方法
JP2016076203A (ja) 2014-10-02 2016-05-12 エルジー エレクトロニクス インコーポレイティド 移動端末機及びその制御方法
US20160196693A1 (en) 2015-01-06 2016-07-07 Seiko Epson Corporation Display system, control method for display device, and computer program
JP2016126589A (ja) 2015-01-06 2016-07-11 セイコーエプソン株式会社 表示システム、プログラム、及び、表示装置の制御方法
JP2021512433A (ja) 2018-04-06 2021-05-13 ディーエヌエーナッジ リミテッド 手首装着型製品コード・リーダ
WO2021007221A1 (en) 2019-07-09 2021-01-14 Facebook Technologies, Llc Virtual user interface using a peripheral device in artificial reality environments

Also Published As

Publication number Publication date
JP2023020731A (ja) 2023-02-09
US12399569B2 (en) 2025-08-26
US20230036474A1 (en) 2023-02-02

Similar Documents

Publication Publication Date Title
US10656822B2 (en) Systems, devices, and methods for interacting with content displayed on head-mounted displays
EP3164785B1 (en) Wearable device user interface control
JP6432754B2 (ja) 着用式電子デバイス上への光学センサーの配置
US8884874B1 (en) Digital device and control method thereof
JP6547741B2 (ja) 情報処理システムおよび情報処理方法
JP2019164822A (ja) 着用式電子デバイスでのgui転移
US20140049487A1 (en) Interactive user interface for clothing displays
KR20170019081A (ko) 휴대 장치 및 휴대 장치의 화면 표시방법
US20160132189A1 (en) Method of controlling the display of images and electronic device adapted to the same
WO2019187487A1 (ja) 情報処理装置、情報処理方法、およびプログラム
KR20160101497A (ko) 웨어러블 디바이스 및 웨어러블 디바이스의 동작 방법.
WO2015064165A1 (ja) 情報処理装置、情報処理方法、およびプログラム
EP3550415B1 (en) Method for displaying object and electronic device thereof
CN105511750B (zh) 一种切换方法及电子设备
US20200073481A1 (en) Information processing apparatus, information processing method, and program
JP7642746B2 (ja) 表示制御方法
CN114730214A (zh) 人机接口设备
JP7767760B2 (ja) 装置およびプログラム
US20150277742A1 (en) Wearable electronic device
CN119759200A (zh) 信息处理设备、信息处理方法、计算机程序产品和存储介质
US20170177088A1 (en) Two-step gesture recognition for fine-grain control of wearable applications
KR102539045B1 (ko) 착용형 증강현실 장치를 위한 대시보드 제어 장치 및 대시보드 제어 방법
US20250264973A1 (en) Contextual interfaces for 3d environments
US20250238110A1 (en) Shape-based graphical indications of interaction events
EP3864495B1 (en) Direct manipulation of display device using wearable computing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20250225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250304

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20250430

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250930

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20251013

R150 Certificate of patent or registration of utility model

Ref document number: 7767760

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150