[go: up one dir, main page]

JP2025099255A - Information processing device, control method for information processing device, and program - Google Patents

Information processing device, control method for information processing device, and program Download PDF

Info

Publication number
JP2025099255A
JP2025099255A JP2023215770A JP2023215770A JP2025099255A JP 2025099255 A JP2025099255 A JP 2025099255A JP 2023215770 A JP2023215770 A JP 2023215770A JP 2023215770 A JP2023215770 A JP 2023215770A JP 2025099255 A JP2025099255 A JP 2025099255A
Authority
JP
Japan
Prior art keywords
type
information processing
virtual menu
information
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023215770A
Other languages
Japanese (ja)
Inventor
亮士 松橋
Ryoji Matasuhashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2023215770A priority Critical patent/JP2025099255A/en
Publication of JP2025099255A publication Critical patent/JP2025099255A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】仮想メニューの操作性を向上させることができる情報処理装置、情報処理装置の制御方法、およびプログラムを提供することを目的とする。【解決手段】HMD100は、使用中のUIの種類の情報を操作情報として記憶し、仮想メニューの表示操作が実行されたかどうかを判定し、仮想メニューの表示操作が実行されたと判定した場合、操作情報に基づいて、仮想メニューの仮想空間における描画態様を、使用中のUIの種類に適した描画態様に決定するCPU101を備える。【選択図】図1[Problem] It is an object to provide an information processing device, a control method for the information processing device, and a program that can improve the operability of a virtual menu. [Solution] An HMD (100) includes a CPU (101) that stores information on the type of UI in use as operation information, determines whether an operation to display a virtual menu has been performed, and, if it is determined that an operation to display a virtual menu has been performed, determines, based on the operation information, the drawing mode of the virtual menu in the virtual space to be a drawing mode suitable for the type of UI in use. [Selected Figure] Figure 1

Description

本発明は、情報処理装置、情報処理装置の制御方法、およびプログラムに関する。 The present invention relates to an information processing device, a control method for an information processing device, and a program.

従来のXR(クロスリアリティ)では、仮想空間に描画されたメニューの仮想オブジェクト(以下、「仮想メニュー」という)を、ゲームやシミュレーションなどといった用途で、ユーザが操作することができる。XRとは、VR(仮想現実)や、AR(拡張現実)、MR(複合現実)などの総称である。ユーザは、XRにおいて、仮想メニューを操作する際、例えば、ハンドジェスチャ、レイ、視線入力、またはコントローラなど、各種のUI(ユーザインターフェイス)を用いる。この際、仮想メニューは、ユーザが使用中のUIの種類に関係なく、表示部に画一的な位置に画一的な形状で表示される。そのため、これまでのユーザの作業が中断したり、操作性が損なわれたりすることがあった。この点に関し、例えば、特許文献1には、複数のUIの情報を使用して、仮想オブジェクトの選択、標的化を行う技術が開示されている。 In conventional XR (cross reality), a user can operate a virtual object (hereinafter referred to as a "virtual menu") of a menu drawn in a virtual space for purposes such as games and simulations. XR is a general term for VR (virtual reality), AR (augmented reality), MR (mixed reality), etc. When operating a virtual menu in XR, a user uses various UIs (user interfaces), such as hand gestures, ray, gaze input, or a controller. In this case, the virtual menu is displayed on the display unit in a uniform position and in a uniform shape, regardless of the type of UI the user is using. Therefore, there have been cases where the user's work has been interrupted or operability has been impaired. In this regard, for example, Patent Document 1 discloses a technology for selecting and targeting a virtual object using information from multiple UIs.

特表2021-524629号公報Special Publication No. 2021-524629

しかしながら、特許文献1に開示された技術は、仮想オブジェクトを新規に表示するときには効果を発揮することができない。そのため、特許文献1に開示された技術が仮想メニューの表示に適用されても、従来のように、仮想メニューが表示部に画一的な位置に画一的な形状で表示されてしまうという問題があった。 However, the technology disclosed in Patent Document 1 is not effective when displaying a new virtual object. Therefore, even if the technology disclosed in Patent Document 1 is applied to displaying a virtual menu, there is a problem in that the virtual menu is displayed in a uniform shape and at a uniform position on the display unit, as in the conventional technology.

本発明は、上記の課題に鑑みてなされたものである。本発明は、仮想メニューの操作性を向上させることができる情報処理装置、情報処理装置の制御方法、およびプログラムを提供することを目的とする。 The present invention has been made in consideration of the above problems. The present invention aims to provide an information processing device, a control method for an information processing device, and a program that can improve the operability of a virtual menu.

上記の目的を達成するために、本発明の情報処理装置は、使用中のUIの種類の情報を操作情報として記憶する記憶手段と、仮想メニューの表示操作が実行されたかどうかを判定する判定手段と、前記判定手段が仮想メニューの表示操作が実行されたと判定した場合、前記操作情報に基づいて、仮想メニューの仮想空間における描画態様を、使用中のUIの種類に適した描画態様に決定する決定手段と、を備えることを特徴とする。 To achieve the above object, the information processing device of the present invention is characterized by comprising: a storage means for storing information on the type of UI being used as operation information; a determination means for determining whether an operation to display a virtual menu has been performed; and, when the determination means determines that an operation to display a virtual menu has been performed, a determination means for determining, based on the operation information, the drawing mode of the virtual menu in the virtual space to be a drawing mode suitable for the type of UI being used.

本発明によれば、仮想メニューの操作性を向上させることができる。 The present invention can improve the operability of virtual menus.

HMD(ヘッドマウントディスプレイ)の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of an HMD (head mounted display). HMDのカメラが撮影した映像の一例を示す図である。FIG. 2 is a diagram showing an example of an image captured by a camera of the HMD. 使用中のUIの種類がハンドジェスチャである場合に、HMDの表示部に表示される映像の一例を示す図である。13 is a diagram showing an example of an image displayed on the display unit of the HMD when the type of UI being used is a hand gesture. FIG. 使用中のUIの種類がレイである場合に、HMDの表示部に表示される映像の一例を示す図である。13 is a diagram showing an example of an image displayed on the display unit of the HMD when the type of UI in use is Ray. FIG. 仮想メニューの描画態様を、使用中のUIの種類に適した描画態様に決定するHMDの動作の流れを示すフローチャートである。10 is a flowchart showing the flow of operations of the HMD for determining the drawing style of the virtual menu to be suitable for the type of UI being used. 使用中のUIの種類がハンドジェスチャである場合の仮想メニューの描画態様の一例を説明するための図である。13A and 13B are diagrams illustrating an example of a drawing mode of a virtual menu when the type of UI being used is a hand gesture; 使用中のUIの種類がレイである場合の仮想メニューの描画態様の一例を説明するための図である。13A and 13B are diagrams illustrating an example of a drawing mode of a virtual menu when the type of UI being used is a ray.

以下、本発明の実施形態について図面を参照しながら詳細に説明する。ただし、以下の本実施形態に記載されている構成はあくまで例示に過ぎず、本発明の範囲は本実施形態に記載されている構成によって限定されることはない。例えば、本発明を構成する各部は、同様の機能を発揮し得る任意の構成のものと置換することができる。また、任意の構成物が付加されていてもよい。また、本実施形態のうちの、任意の2以上の構成(特徴)を組み合わせることもできる。さらに、添付図面においては、同一若しくは同様の構成に同一の符号を付し、重複した説明は省略する。以下、本実施形態について、図1~図7を参照して説明する。なお、本実施形態では、本発明の情報処理装置の一例として、HMDについて説明する。 The following describes an embodiment of the present invention in detail with reference to the drawings. However, the configuration described in the following embodiment is merely an example, and the scope of the present invention is not limited by the configuration described in the present embodiment. For example, each part constituting the present invention can be replaced with any configuration that can perform a similar function. Any configuration may also be added. Any two or more configurations (features) of the present embodiment can also be combined. Furthermore, in the attached drawings, the same reference numerals are used to denote the same or similar configurations, and duplicated explanations are omitted. The following describes the present embodiment with reference to Figures 1 to 7. In this embodiment, an HMD is described as an example of an information processing device of the present invention.

[HMD]
図1は、HMD100の構成を示すブロック図である。HMD100は、CPU101、GPU102、ROM103、RAM104、表示部105、通信部106、慣性計測装置107、地磁気センサ108、カメラ109、ハンドジェスチャ検出部110、およびシステムバス111を有する。システムバス111には、CPU101、GPU102、ROM103、RAM104、表示部105、通信部106、慣性計測装置107、地磁気センサ108、カメラ109、およびハンドジェスチャ検出部110が接続されている。CPU101(記憶手段)(判定手段)(決定手段)は、中央演算処理装置であって、RAM104をワークメモリとして、ROM103に格納されたプログラムを実行し、システムバス111に接続された各構成を制御する。これにより、CPU101は、HMD100を頭部に装着したユーザに対して、VRや、AR、MRなどで実現した空間を提供する。
[HMD]
1 is a block diagram showing the configuration of the HMD 100. The HMD 100 includes a CPU 101, a GPU 102, a ROM 103, a RAM 104, a display unit 105, a communication unit 106, an inertial measurement unit 107, a geomagnetic sensor 108, a camera 109, a hand gesture detection unit 110, and a system bus 111. The CPU 101, the GPU 102, the ROM 103, the RAM 104, the display unit 105, the communication unit 106, the inertial measurement unit 107, the geomagnetic sensor 108, the camera 109, and the hand gesture detection unit 110 are connected to the system bus 111. The CPU 101 (storage means) (determination means) (decision means) is a central processing unit that uses the RAM 104 as a work memory, executes a program stored in the ROM 103, and controls each component connected to the system bus 111. As a result, the CPU 101 provides a space realized by VR, AR, MR, or the like to a user wearing the HMD 100 on his or her head.

GPU102は、仮想オブジェクトを仮想空間に描画するグラフィックス処理装置である。ROM103は、不揮発性の記憶手段であり、プログラムの記憶装置である。RAM104は、CPU101がプログラムを実行するために必要なワークメモリである。表示部105は、描画されたグラフィックスの表示などに利用される液晶パネルや有機ELパネルなどの出力機器である。通信部106は、データの送受信を行う有線または無線通信機能を有するものである。慣性計測装置107は、HMD100の姿勢や動きを検出するためのセンサである。 The GPU 102 is a graphics processing unit that draws virtual objects in a virtual space. The ROM 103 is a non-volatile storage means and a program storage device. The RAM 104 is a work memory required for the CPU 101 to execute the programs. The display unit 105 is an output device such as a liquid crystal panel or an organic EL panel that is used to display drawn graphics. The communication unit 106 has a wired or wireless communication function for sending and receiving data. The inertial measurement unit 107 is a sensor for detecting the attitude and movement of the HMD 100.

地磁気センサ108は、HMD100の方角を検出するためのセンサである。カメラ109は、HMD100の周囲の状況を映像として撮影するための装置である。ハンドジェスチャ検出部110は、カメラ109で撮影された映像を解析し、ユーザの手や指などを検出する機能を有するものである。ハンドジェスチャ検出部110の機能に関する詳細な説明は、後述の図2の説明とともに行う。なお、HMD100は、光学透過型であってもよいし、ビデオ透過型であってもよいし、非透過型であってもよい。 The geomagnetic sensor 108 is a sensor for detecting the direction of the HMD 100. The camera 109 is a device for capturing images of the surroundings of the HMD 100. The hand gesture detection unit 110 has a function of analyzing the images captured by the camera 109 and detecting the user's hands, fingers, etc. A detailed explanation of the function of the hand gesture detection unit 110 will be given later with reference to FIG. 2. The HMD 100 may be an optically transparent type, a video transparent type, or a non-transparent type.

[ハンドジェスチャ検出部の機能]
ここでは、ハンドジェスチャ検出部110の機能について、図2を参照して説明する。図2は、ユーザの頭部に装着されたHMD100のカメラ109が撮影した映像200の一例を示す図である。映像200には、ユーザの手201が映っている。ハンドジェスチャ検出部110は、ユーザの手201について、位置およびサイズを示す領域202の情報を映像200から検出する。さらに、ハンドジェスチャ検出部110は、ユーザの手201の指203について、先端および各関節ポイントの位置204の情報を検出する。
[Function of hand gesture detection unit]
Here, the function of the hand gesture detection unit 110 will be described with reference to Fig. 2. Fig. 2 is a diagram showing an example of an image 200 captured by the camera 109 of the HMD 100 worn on the user's head. The image 200 shows a user's hand 201. The hand gesture detection unit 110 detects information on an area 202 indicating the position and size of the user's hand 201 from the image 200. Furthermore, the hand gesture detection unit 110 detects information on the tips and positions 204 of each joint point of the fingers 203 of the user's hand 201.

なお、図2の203および204の引出線は、ユーザの手201の人差し指から引き出されているが、ユーザの手201の人差し指だけでなく、ユーザの手201の他の指についても、同様な情報が検出される。また、本実施形態において、指203とは、特に明記しない限り、ユーザの手201の各指を示すものとする。CPU101は、ハンドジェスチャ検出部110を制御して、これらの検出で得た情報を、仮想空間上の3次元座標情報として、RAM104に記憶する。また、ハンドジェスチャ検出部110は、HMD100のカメラ109が連続して撮影した映像を解析することによって、ユーザの手201および指203の動きを検出することができる。 Note that the leader lines 203 and 204 in FIG. 2 are drawn from the index finger of the user's hand 201, but similar information is detected not only from the index finger of the user's hand 201 but also from the other fingers of the user's hand 201. Furthermore, in this embodiment, unless otherwise specified, the fingers 203 refer to each finger of the user's hand 201. The CPU 101 controls the hand gesture detection unit 110 and stores the information obtained by these detections in the RAM 104 as three-dimensional coordinate information in the virtual space. Furthermore, the hand gesture detection unit 110 can detect the movements of the user's hand 201 and fingers 203 by analyzing the images continuously captured by the camera 109 of the HMD 100.

[UI]
ここでは、HMD100の表示部105に表示されている仮想オブジェクトをユーザが操作する際に使用するUIの例について、図3および図4を参照して説明する。図3は、ユーザの頭部に装着されたHMD100の表示部105に表示される、映像300の一例を示す図である。カメラ109がユーザの手201を含む周囲を撮影することで映像300を取得すると、CPU101は、ハンドジェスチャ検出部110を制御して、映像300からユーザの手201や指203の位置を検出する。さらに、CPU101は、GPU102を制御して、仮想オブジェクト301が、ユーザの手201および指203から少し離れた位置で表示部105に表示されるように、当該仮想オブジェクト301を仮想空間に描画する。ユーザは、仮想オブジェクト301に対して、手201や指203で、例えば、押す、掴むなどの動作を行うことができる。CPU101は、GPU102を制御して、ユーザの動作に応じて、仮想空間上の仮想オブジェクト301の描画位置や描画形状を変化させる。このような仮想オブジェクト301に対するユーザの動作は、XRでユーザが使用できるUIの一つであり、ハンドジェスチャとして知られている。
[UI]
Here, an example of a UI used when a user operates a virtual object displayed on the display unit 105 of the HMD 100 will be described with reference to FIGS. 3 and 4. FIG. 3 is a diagram showing an example of an image 300 displayed on the display unit 105 of the HMD 100 worn on the user's head. When the camera 109 captures the surroundings including the user's hand 201 to obtain the image 300, the CPU 101 controls the hand gesture detection unit 110 to detect the positions of the user's hand 201 and fingers 203 from the image 300. Furthermore, the CPU 101 controls the GPU 102 to draw the virtual object 301 in the virtual space so that the virtual object 301 is displayed on the display unit 105 at a position slightly away from the user's hand 201 and fingers 203. The user can perform actions such as pushing and grabbing the virtual object 301 with the hand 201 and fingers 203. The CPU 101 controls the GPU 102 to change the drawing position and drawing shape of a virtual object 301 in a virtual space in response to a user's action. Such a user's action on the virtual object 301 is one of the UIs that the user can use in XR, and is known as a hand gesture.

図4は、ユーザの頭部に装着されたHMD100の表示部105に表示される、映像400の一例を示す図である。カメラ109がユーザの手201を含む周囲を撮影することで映像400を取得すると、CPU101は、ハンドジェスチャ検出部110を制御して、映像400からユーザの手201や指203の位置を検出する。さらに、CPU101は、GPU102を制御して、仮想オブジェクト401が、ユーザの手201および指203から遠く離れた位置で表示部105に表示されるように、当該仮想オブジェクト401を仮想空間に描画する。また、CPU101は、GPU102を制御して、レイ402が、ユーザの一つの指203の先端から伸びた状態で表示部105に表示されるように、当該レイ402を仮想空間に描画する。 Figure 4 is a diagram showing an example of an image 400 displayed on the display unit 105 of the HMD 100 worn on the user's head. When the camera 109 captures the surroundings including the user's hand 201 to obtain the image 400, the CPU 101 controls the hand gesture detection unit 110 to detect the positions of the user's hand 201 and fingers 203 from the image 400. Furthermore, the CPU 101 controls the GPU 102 to draw the virtual object 401 in the virtual space so that the virtual object 401 is displayed on the display unit 105 at a position far away from the user's hand 201 and fingers 203. The CPU 101 also controls the GPU 102 to draw the ray 402 in the virtual space so that the ray 402 is displayed on the display unit 105 in a state where it is extended from the tip of one of the user's fingers 203.

CPU101は、仮想オブジェクト401におけるレイ402の照射位置403を検出でき、この検出で得た照射位置403の情報を、仮想空間上の3次元座標情報として、RAM104に記憶する。なお、照射位置403は、仮想オブジェクト401とレイ402との交点に限定されるものではない。照射位置403は、例えば、レイ402と現実物体との交点でもよいし、レイ402の先端位置でもよい。ユーザは、仮想オブジェクト401を、レイ402で、例えば、選択する、掴むなどの動作を行うことができる。 The CPU 101 can detect the irradiation position 403 of the ray 402 on the virtual object 401, and stores information on the irradiation position 403 obtained by this detection in the RAM 104 as three-dimensional coordinate information in the virtual space. Note that the irradiation position 403 is not limited to the intersection of the virtual object 401 and the ray 402. The irradiation position 403 may be, for example, the intersection of the ray 402 and a real object, or the tip position of the ray 402. The user can perform an action such as selecting or grabbing the virtual object 401 with the ray 402.

CPU101は、GPU102を制御して、レイ402を用いたユーザの動作に応じて、仮想空間上の仮想オブジェクト401やレイ402の描画位置や描画形状を変化させる。このようなユーザの動作で用いられるレイ402は、XRでユーザが使用できるUIの一つである。なお、映像400において、レイ402は、ユーザの一つの指203の先端から伸びているが、これに限定されるものではない。レイ402は、例えば、ユーザの手201の平から伸びていてもよい。 The CPU 101 controls the GPU 102 to change the drawing position and drawing shape of the virtual object 401 and the ray 402 in the virtual space in response to the user's actions using the ray 402. The ray 402 used in such user actions is one of the UIs that the user can use in XR. Note that in the image 400, the ray 402 extends from the tip of one of the user's fingers 203, but is not limited to this. The ray 402 may extend from the palm of the user's hand 201, for example.

[仮想メニューの表示操作]
ここでは、仮想メニューの表示操作について説明する。仮想メニューの表示操作とは、CPU101に対して、仮想メニューを表示部105に表示させる操作である。従って、ユーザがUIを使用して仮想メニューの表示操作を行うと、CPU101は、GPU102を制御して、仮想メニュー(つまり、メニューの仮想オブジェクト)を仮想空間に描画する。これにより、仮想メニューが表示部105に表示される。なお、仮想メニューの表示操作でユーザが使用できるUIには、上述したハンドジェスチャやレイに加えて、例えば、視線入力や、コントローラなどがある。
[Virtual menu display operation]
Here, the display operation of the virtual menu will be described. The display operation of the virtual menu is an operation for causing the CPU 101 to display the virtual menu on the display unit 105. Therefore, when the user performs the display operation of the virtual menu using the UI, the CPU 101 controls the GPU 102 to draw the virtual menu (i.e., the virtual object of the menu) in the virtual space. As a result, the virtual menu is displayed on the display unit 105. Note that the UI that the user can use in the display operation of the virtual menu includes, for example, gaze input and a controller in addition to the above-mentioned hand gestures and rays.

なお、視線入力では、例えば、ユーザが視線を特定の位置に向けたことをHMD100が検知することで、仮想メニューが表示部105に表示される。また、コントローラには、OTP(オプティカルトラックパッド)などを内蔵したボタンや、タッチパッド、タッチパネル、十字キー、ジョイスティック、トラックパッド装置、モーションセンサなどのうち、少なくとも一つを含んだものがある。また、仮想メニューとは異なる別の仮想メニューに対する表示操作によって、本仮想メニューが表示されてもよい。 In addition, in the case of gaze input, for example, when the HMD 100 detects that the user has directed their gaze to a specific position, a virtual menu is displayed on the display unit 105. In addition, the controller may include at least one of a button incorporating an OTP (optical track pad), a touch pad, a touch panel, a cross key, a joystick, a track pad device, a motion sensor, etc. In addition, this virtual menu may be displayed by a display operation on a different virtual menu from the virtual menu.

[仮想メニューの描画態様]
仮想メニューの描画態様は、使用中のUIの種類によって異なる。本実施形態において、仮想メニューの描画態様には、ハンドジェスチャ用の描画態様、レイ用の描画態様、および汎用の描画態様がある。従って、ユーザが使用中のUIの種類がハンドジェスチャおよびレイ以外である場合、仮想メニューは、汎用の描画態様で仮想空間に描画される。なお、汎用の描画態様とは、特定の種類のUI向けではない、仮想メニューの描画態様である。
[Virtual menu drawing style]
The drawing mode of the virtual menu varies depending on the type of UI being used. In this embodiment, the drawing mode of the virtual menu includes a drawing mode for hand gestures, a drawing mode for rays, and a general-purpose drawing mode. Therefore, when the type of UI being used by the user is other than hand gestures and rays, the virtual menu is drawn in the virtual space in the general-purpose drawing mode. Note that the general-purpose drawing mode is a drawing mode of the virtual menu that is not for a specific type of UI.

[仮想メニューの描画態様の決定]
図5は、仮想メニューの描画態様を、使用中のUIの種類に適した描画態様に決定する、HMD100の動作の流れ500を示すフローチャートである。図5のフローチャートで示すHMD100の動作の流れ500(情報処理装置の制御方法)は、CPU101(コンピュータ)が、ROM103に格納されたプログラムをRAM104に展開して実行することで実現される。ステップS501において、CPU101は、操作情報をRAM104に記憶する(記憶工程)。操作情報には、少なくとも、使用中のUIの種類の情報と、UIの使用位置の情報が含まれる。UIの使用位置の情報には、例えば、上述した仮想空間上の3次元座標情報がある。
[Determining the Virtual Menu Drawing Mode]
5 is a flowchart showing an operation flow 500 of the HMD 100 that determines the drawing mode of the virtual menu to be a drawing mode suitable for the type of UI being used. The operation flow 500 of the HMD 100 (control method of the information processing device) shown in the flowchart of FIG. 5 is realized by the CPU 101 (computer) expanding a program stored in the ROM 103 into the RAM 104 and executing it. In step S501, the CPU 101 stores operation information in the RAM 104 (storage process). The operation information includes at least information on the type of the UI being used and information on the position where the UI is used. The information on the position where the UI is used includes, for example, three-dimensional coordinate information in the virtual space described above.

従って、操作情報には、ユーザの手201の位置およびサイズを示す領域202の情報や、ユーザの手201の指203の先端および各関節ポイントの位置204の情報、レイ402の照射位置403の情報が含まれる。また、UIが使用されていない場合、CPU101は、UIが使用されていない旨の情報を操作情報に含ませる。ステップS502において、CPU101は、仮想メニューの表示操作が実行されたかどうかを判定する(判定工程)。CPU101が、仮想メニューの表示操作が実行されていないと判定する場合、処理はステップS501に戻る。これに対して、CPU101が、仮想メニューの表示操作が実行されたと判定する場合、処理はステップS503に進む。 The operation information therefore includes information on the area 202 indicating the position and size of the user's hand 201, information on the tips of the fingers 203 of the user's hand 201 and the positions 204 of each joint point, and information on the irradiation position 403 of the ray 402. Furthermore, if the UI is not being used, the CPU 101 includes information to the effect that the UI is not being used in the operation information. In step S502, the CPU 101 determines whether or not a display operation of a virtual menu has been performed (determination step). If the CPU 101 determines that a display operation of a virtual menu has not been performed, the process returns to step S501. On the other hand, if the CPU 101 determines that a display operation of a virtual menu has been performed, the process proceeds to step S503.

ステップS503において、CPU101は、RAM104に記憶されている操作情報を参照する。ステップS504において、CPU101は、使用中のUIの種類を判別する。この判別は、ステップS503で参照された操作情報に含まれる、使用中のUIの種類の情報に基づいて行われる。CPU101が、使用中のUIの種類がハンドジェスチャであると判別した場合、処理はステップS505に進む。CPU101が、使用中のUIの種類がレイであると判別した場合、処理はステップS506に進む。CPU101が、使用中のUIの種類がハンドジェスチャおよびレイとは異なると判別した場合、処理はステップS507に進む。なお、UIが使用されていない旨の情報が、ステップS503で参照された操作情報に含まれている場合、つまり、使用中のUIの種類の情報が操作情報に含まれていない場合も、処理はステップS507に進む。 In step S503, CPU 101 refers to the operation information stored in RAM 104. In step S504, CPU 101 determines the type of UI being used. This determination is made based on the information on the type of UI being used that is included in the operation information referenced in step S503. If CPU 101 determines that the type of UI being used is a hand gesture, the process proceeds to step S505. If CPU 101 determines that the type of UI being used is a ray, the process proceeds to step S506. If CPU 101 determines that the type of UI being used is different from a hand gesture and a ray, the process proceeds to step S507. Note that if the operation information referenced in step S503 includes information that the UI is not being used, that is, if the operation information does not include information on the type of UI being used, the process also proceeds to step S507.

ステップS505において、CPU101は、仮想メニューの描画態様を、ハンドジェスチャ用の描画態様に決定する(決定工程)。これにより、仮想メニューは、ハンドジェスチャ用の描画態様で仮想空間に描画される。この結果、仮想メニューは、例えば、図6に示すようにして、ハンドジェスチャ用の描画態様で表示部105に表示される。なお、図6の詳細な説明は、後述する。ステップS506において、CPU101は、仮想メニューの描画態様を、レイ用の描画態様に決定する(決定工程)。これにより、仮想メニューは、レイ用の描画態様で仮想空間に描画される。この結果、仮想メニューは、例えば、図7に示すようにして、レイ用の描画態様で表示部105に表示される。なお、図7の詳細な説明は、後述する。ステップS507において、CPU101は、仮想メニューの描画態様を、汎用の描画態様に決定する(決定工程)。これにより、仮想メニューは、汎用の描画態様で仮想空間に描画される。この結果、仮想メニューは、図示しないが、汎用の描画態様で表示部105に表示される。このようにして、ステップS504の後に実行される処理が使用中のUIの種類に応じて変わることで、仮想メニューが、使用中のUIの種類に適した描画態様で仮想空間に描画され、さらに表示部105に表示される。ステップS505、ステップS506、またはステップS507の処理が実行されると、図5のフローチャートで示すHMD100の動作の流れ500は終了する。 In step S505, the CPU 101 determines the drawing mode of the virtual menu to be a drawing mode for hand gestures (determination process). As a result, the virtual menu is drawn in the virtual space in the drawing mode for hand gestures. As a result, the virtual menu is displayed on the display unit 105 in the drawing mode for hand gestures, for example, as shown in FIG. 6. Note that a detailed description of FIG. 6 will be given later. In step S506, the CPU 101 determines the drawing mode of the virtual menu to be a drawing mode for rays (determination process). As a result, the virtual menu is drawn in the virtual space in the drawing mode for rays. As a result, the virtual menu is displayed on the display unit 105 in the drawing mode for rays, for example, as shown in FIG. 7. Note that a detailed description of FIG. 7 will be given later. In step S507, the CPU 101 determines the drawing mode of the virtual menu to be a general-purpose drawing mode (determination process). As a result, the virtual menu is drawn in the virtual space in the general-purpose drawing mode. As a result, the virtual menu is displayed on the display unit 105 in a general-purpose drawing style (not shown). In this way, the process executed after step S504 changes depending on the type of UI being used, so that the virtual menu is drawn in the virtual space in a drawing style suitable for the type of UI being used, and is then displayed on the display unit 105. When the process of step S505, step S506, or step S507 is executed, the operation flow 500 of the HMD 100 shown in the flowchart of FIG. 5 ends.

[仮想メニューの描画態様]
ここでは、仮想メニューの描画態様について、図6および図7を参照して説明する。図6は、使用中のUIの種類がハンドジェスチャである場合の仮想メニューの描画態様の一例を説明するための図である。使用中のUIの種類がハンドジェスチャである場合に、仮想メニューの表示操作が実行されると、CPU101は、GPU102を制御して、仮想メニュー601をハンドジェスチャ用の描画態様で仮想空間に描画する。これにより、CPU101は、仮想メニュー601をハンドジェスチャ用の描画態様で表示部105に表示する。
[Virtual menu drawing style]
Here, the drawing mode of the virtual menu will be described with reference to Fig. 6 and Fig. 7. Fig. 6 is a diagram for explaining an example of the drawing mode of the virtual menu when the type of UI being used is hand gesture. When the type of UI being used is hand gesture and an operation to display the virtual menu is executed, CPU 101 controls GPU 102 to draw virtual menu 601 in the virtual space in a drawing mode for hand gestures. As a result, CPU 101 displays virtual menu 601 on display unit 105 in the drawing mode for hand gestures.

具体的には、CPU101は、操作情報に含まれる、ユーザの手201の指203の先端および各関節ポイントの位置204の情報に基づいて、仮想メニュー601の描画位置を、ユーザの手201および指203の近傍の位置に決定する。このとき、CPU101は、仮想メニュー601の描画位置を、ユーザの手201の近傍の位置に決定してもよいし、ユーザの手201の一つの指203の近傍の位置に決定してもよい。例えば、CPU101は、仮想メニュー601の描画位置を、ユーザの手201の人差し指の先端の位置よりも少し向かい側の位置に決定する。なお、CPU101は、操作情報に含まれる、ユーザの手201の位置およびサイズを示す領域202の情報にも基づいて、仮想メニュー601の描画位置を決定してもよい。このようにして、仮想メニュー601の仮想空間上の描画位置が決定されることで、ユーザは、表示部105で仮想メニュー601を認識しやすくなり、また、手201を大きく動かすことなく、仮想メニュー601をハンドジェスチャで操作することができる。 Specifically, the CPU 101 determines the drawing position of the virtual menu 601 to be near the user's hand 201 and fingers 203 based on information on the tips of the fingers 203 of the user's hand 201 and the positions 204 of each joint point, which are included in the operation information. At this time, the CPU 101 may determine the drawing position of the virtual menu 601 to be near the user's hand 201, or may determine the drawing position of the virtual menu 601 to be near one of the fingers 203 of the user's hand 201. For example, the CPU 101 determines the drawing position of the virtual menu 601 to be a position slightly opposite the tip of the index finger of the user's hand 201. The CPU 101 may also determine the drawing position of the virtual menu 601 based on information on the area 202 indicating the position and size of the user's hand 201, which is included in the operation information. In this way, the drawing position of the virtual menu 601 in the virtual space is determined, making it easier for the user to recognize the virtual menu 601 on the display unit 105, and allowing the user to operate the virtual menu 601 with hand gestures without having to move the hand 201 significantly.

また、CPU101は、操作情報に含まれる、ユーザの手201の位置およびサイズを示す領域202の情報に基づいて、仮想メニュー601の描画サイズを、汎用の描画態様と比べて、ハンドジェスチャで操作しやすいサイズに決定する。例えば、CPU101は、仮想メニュー601の描画サイズを、汎用の描画態様と比べて、コンパクトなサイズに決定する。なお、仮想メニュー601のボタン602がユーザの手201の平で操作される場合、CPU101は、仮想メニュー601の描画サイズを、汎用の描画態様と比べて、大きなサイズに決定してもよい。一方、仮想メニュー601のボタン602がユーザの手201の指203の先端で操作される場合、CPU101は、仮想メニュー601の描画サイズを、汎用の描画態様と比べて、小さなサイズに決定してもよい。また、CPU101は、操作情報に含まれる、ユーザの手201の指203の先端および各関節ポイントの位置204の情報にも基づいて、仮想メニュー601の描画サイズを決定してもよい。 Furthermore, based on the information of the area 202 indicating the position and size of the user's hand 201 included in the operation information, the CPU 101 determines the drawing size of the virtual menu 601 to a size that is easier to operate with a hand gesture compared to a general-purpose drawing mode. For example, the CPU 101 determines the drawing size of the virtual menu 601 to be a compact size compared to a general-purpose drawing mode. Note that, when the button 602 of the virtual menu 601 is operated with the palm of the user's hand 201, the CPU 101 may determine the drawing size of the virtual menu 601 to be larger compared to the general-purpose drawing mode. On the other hand, when the button 602 of the virtual menu 601 is operated with the tip of the finger 203 of the user's hand 201, the CPU 101 may determine the drawing size of the virtual menu 601 to be smaller compared to the general-purpose drawing mode. The CPU 101 may also determine the drawing size of the virtual menu 601 based on information about the tips of the fingers 203 of the user's hand 201 and the positions 204 of each joint point, which is included in the operation information.

さらに、CPU101は、仮想メニュー601のボタン602の描画形状を、ハンドジェスチャでボタン602が操作されたことがユーザに認識されやすい立体的な形状に決定する。なお、そのようなボタン602の立体的な形状には、例えば、押下式ボタンの立体的な形状や、スライド式ボタンの立体的な形状などがある。 Furthermore, the CPU 101 determines the drawing shape of the button 602 in the virtual menu 601 to be a three-dimensional shape that allows the user to easily recognize that the button 602 has been operated by a hand gesture. Examples of such a three-dimensional shape of the button 602 include the three-dimensional shape of a push button and the three-dimensional shape of a slide button.

図7は、使用中のUIの種類がレイである場合の仮想メニューの描画態様の一例を説明するための図である。使用中のUIの種類がレイである場合に、仮想メニューの表示操作が実行されると、CPU101は、GPU102を制御して、仮想メニュー601をレイ用の描画態様で仮想空間に描画する。これにより、CPU101は、仮想メニュー601をレイ用の描画態様で表示部105に表示する。具体的には、CPU101は、操作情報に含まれる、レイ402の照射位置403の情報に基づいて、仮想メニュー701の描画位置を、レイ402の照射位置403の近傍の位置に決定する。このようにして、仮想メニュー701の仮想空間上の描画位置が決定されることで、ユーザは、表示部105で仮想メニュー701を認識しやすく、また、仮想メニュー701をレイ402の先端で指し示しやすくなる。 FIG. 7 is a diagram for explaining an example of the drawing mode of a virtual menu when the type of UI being used is a ray. When the type of UI being used is a ray, and an operation to display the virtual menu is executed, the CPU 101 controls the GPU 102 to draw the virtual menu 601 in the virtual space in the drawing mode for the ray. As a result, the CPU 101 displays the virtual menu 601 on the display unit 105 in the drawing mode for the ray. Specifically, the CPU 101 determines the drawing position of the virtual menu 701 to be a position near the irradiation position 403 of the ray 402 based on the information on the irradiation position 403 of the ray 402 included in the operation information. In this way, by determining the drawing position of the virtual menu 701 in the virtual space, the user can easily recognize the virtual menu 701 on the display unit 105 and can easily point to the virtual menu 701 with the tip of the ray 402.

また、CPU101は、仮想メニュー701のボタン702の間隔を、汎用の描画態様と比べて、広い間隔に決定する。なお、CPU101は、仮想メニュー701の描画サイズを、汎用の描画態様と比べて、大きなサイズに決定することによって、ボタン702の間隔を広くしてもよい。また、CPU101は、例えば、レイ402の長さに比例させて、仮想メニュー701のボタン702の間隔、または、仮想メニュー701の描画サイズを決定してもよい。つまり、レイ402の長さが長くなるほど、仮想メニュー701のボタン702の間隔が広くなり、または、仮想メニュー701の描画サイズが大きくなる。レイ402の長さは、レイ402がユーザの手201の一つの指203の先端から伸びる場合、その指203の先端の位置204と、レイ402の照射位置403とから算出される。また、レイ402の長さは、レイ402がユーザの手201の平から伸びる場合、その手201の位置と、レイ402の照射位置403とから算出される。なお、レイ402が伸びる指203の先端の位置204の情報や、レイ402の照射位置403の情報、手201の位置などを示す領域202の情報は、上述したように、操作情報に含まれる。このようにして、仮想メニュー701のボタン702の間隔が決定されることで、レイ402の誤操作が軽減される。 The CPU 101 also determines the spacing between the buttons 702 of the virtual menu 701 to be wider than the general-purpose drawing mode. The CPU 101 may also widen the spacing between the buttons 702 by determining the drawing size of the virtual menu 701 to be larger than the general-purpose drawing mode. The CPU 101 may also determine the spacing between the buttons 702 of the virtual menu 701 or the drawing size of the virtual menu 701 in proportion to the length of the ray 402, for example. That is, the longer the length of the ray 402, the wider the spacing between the buttons 702 of the virtual menu 701, or the larger the drawing size of the virtual menu 701. When the ray 402 extends from the tip of one finger 203 of the user's hand 201, the length of the ray 402 is calculated from the position 204 of the tip of the finger 203 and the irradiation position 403 of the ray 402. Furthermore, when the ray 402 extends from the palm of the user's hand 201, the length of the ray 402 is calculated from the position of the hand 201 and the irradiation position 403 of the ray 402. Note that, as described above, information on the position 204 of the tip of the finger 203 from which the ray 402 extends, information on the irradiation position 403 of the ray 402, and information on the area 202 indicating the position of the hand 201 are included in the operation information. In this manner, the spacing between the buttons 702 of the virtual menu 701 is determined, thereby reducing erroneous operation of the ray 402.

さらに、CPU101は、仮想メニュー701のボタン702の描画色を、ユーザがレイ402で選択した際に変化する色に決定する。このようにして、仮想メニュー701のボタン702の仮想空間での描画色が決定されることで、ユーザは、表示部105において、仮想メニュー701のボタン702をレイ402で選択したことを認識しやすくなる。 Furthermore, the CPU 101 determines the drawing color of the button 702 of the virtual menu 701 to be the color that changes when the user selects it with the ray 402. In this way, by determining the drawing color of the button 702 of the virtual menu 701 in the virtual space, it becomes easier for the user to recognize on the display unit 105 that the button 702 of the virtual menu 701 has been selected with the ray 402.

以上より、HMD100は、RAM104に記憶された操作情報に基づいて、仮想メニュー601、701の仮想空間における描画態様を、ユーザが使用中のUIの種類に適した描画態様に決定する。これにより、HMD100は、仮想メニュー601、701の操作性を向上させることができる。 As described above, the HMD 100 determines the drawing style of the virtual menus 601 and 701 in the virtual space based on the operation information stored in the RAM 104 to be a drawing style suitable for the type of UI being used by the user. This enables the HMD 100 to improve the operability of the virtual menus 601 and 701.

以上、本発明の好ましい実施形態について説明したが、本発明は上記の実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。例えば、HMD100が光学透過型の場合、HMD100に代えて、スマートグラスが用いられてもよい。また、図5のフローチャートで示すHMD100の動作の流れ500は、HMD100に有線または無線で接続されたスマートフォン、タブレット端末、パーソナルコンピュータ、またはデジタルカメラなどで行われてもよい。ただし、この場合、スマートフォン、タブレット端末、パーソナルコンピュータ、またはデジタルカメラなどが、本発明の情報処理装置を構成する。 Although the preferred embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and various modifications and changes are possible within the scope of the gist. For example, if the HMD 100 is an optically transmissive type, smart glasses may be used instead of the HMD 100. In addition, the operation flow 500 of the HMD 100 shown in the flowchart of FIG. 5 may be performed by a smartphone, tablet terminal, personal computer, digital camera, or the like connected to the HMD 100 by wire or wirelessly. However, in this case, the smartphone, tablet terminal, personal computer, digital camera, or the like constitutes the information processing device of the present invention.

本発明は、上記の実施形態の1以上の機能を実現するプログラムを、ネットワークや記憶媒体を介してシステムや装置に供給し、そのシステムまたは装置のコンピュータの1つ以上のプロセッサがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention can also be realized by supplying a program that realizes one or more of the functions of the above embodiments to a system or device via a network or storage medium, and having one or more processors of the computer in the system or device read and execute the program. The present invention can also be realized by a circuit (e.g., an ASIC) that realizes one or more of the functions.

本実施形態の開示は、以下の構成、方法およびプログラムを含む。
(構成1) 使用中のUIの種類の情報を操作情報として記憶する記憶手段と、
仮想メニューの表示操作が実行されたかどうかを判定する判定手段と、
前記判定手段が仮想メニューの表示操作が実行されたと判定した場合、前記操作情報に基づいて、仮想メニューの仮想空間における描画態様を、使用中のUIの種類に適した描画態様に決定する決定手段と、を備えることを特徴とする情報処理装置。
(構成2) 使用中のUIの種類がハンドジェスチャであることを特徴とする構成1に記載の情報処理装置。
(構成3) 前記操作情報は、ユーザの手または指の位置の情報を含み、
前記決定手段は、使用中のUIの種類に適した描画態様として、仮想メニューの描画位置をユーザの手または指の近傍の位置に決定することを特徴とする構成2に記載の情報処理装置。
(構成4) 前記操作情報は、ユーザの手の位置およびサイズの情報を含み、
前記決定手段は、使用中のUIの種類に適した描画態様として、仮想メニューの描画サイズを、汎用の描画態様と比べ、大きなサイズまたは小さなサイズに決定することを特徴とする構成2又は3に記載の情報処理装置。
(構成5) 前記決定手段は、使用中のUIの種類に適した描画態様として、仮想メニューのボタンの描画形状を立体的な形状に決定することを特徴とする構成2乃至4のいずれか一つに記載の情報処理装置。
(構成6) 使用中のUIの種類がレイであることを特徴とする構成1に記載の情報処理装置。
(構成7) 前記操作情報は、レイの照射位置の情報を含み、
前記決定手段は、使用中のUIの種類に適した描画態様として、仮想メニューの描画位置をレイの照射位置の近傍の位置に決定することを特徴とする構成6に記載の情報処理装置。
(構成8) 前記決定手段は、使用中のUIの種類に適した描画態様として、仮想メニューのボタンの間隔を、汎用の描画態様と比べ、広い間隔に決定することを特徴とする構成6又は7に記載の情報処理装置。
(構成9) 前記決定手段は、使用中のUIの種類に適した描画態様として、仮想メニューのボタンの間隔を、レイの長さに比例させて決定することを特徴とする構成6又は7に記載の情報処理装置。
(構成10) 前記決定手段は、使用中のUIの種類に適した描画態様として、仮想メニューのボタンの描画色を、レイで選択された際に変化する色に決定することを特徴とする構成6乃至9のいずれか一つに記載の情報処理装置。
(構成11) 前記決定手段は、使用中のUIの種類がハンドジェスチャおよびレイとは異なる場合、または使用中のUIの種類の情報が前記操作情報に含まれていない場合、汎用の描画態様を、使用中のUIの種類に適した描画態様として決定することを特徴とする構成1乃至10のいずれか一つに記載の情報処理装置。
(構成12) 前記情報処理装置で使用できるUIの種類には、視線入力またはコントローラが含まれることを特徴とする構成1乃至11のいずれか一つに記載の情報処理装置。
(方法1) 使用中のUIの種類の情報を操作情報として記憶する記憶工程と、
仮想メニューの表示操作が実行されたかどうかを判定する判定工程と、
前記判定工程が仮想メニューの表示操作が実行されたと判定した場合、前記操作情報に基づいて、仮想メニューの仮想空間における描画態様を、使用中のUIの種類に適した描画態様に決定する決定工程と、を備えることを特徴とする情報処理装置の制御方法。
(プログラム1) 構成1乃至12のいずれか一つに記載の情報処理装置の各手段をコンピュータに実行させるためのプログラム。
The disclosure of this embodiment includes the following configuration, method, and program.
(Configuration 1) A storage means for storing information on a type of a UI being used as operation information;
A determination means for determining whether a display operation of a virtual menu has been performed;
an information processing device characterized in that it comprises a determination means for, when the determination means determines that a display operation of a virtual menu has been performed, determining, based on the operation information, the drawing manner of the virtual menu in the virtual space to a drawing manner suitable for the type of UI being used.
(Configuration 2) The information processing device according to configuration 1, wherein the type of UI being used is a hand gesture.
(Configuration 3) The operation information includes information on a position of a user's hand or finger,
3. The information processing apparatus according to claim 2, wherein the determining means determines the drawing position of the virtual menu to be a position near the user's hand or finger as a drawing mode suitable for the type of UI being used.
(Configuration 4) The operation information includes information on a position and a size of a user's hand,
The information processing device according to configuration 2 or 3, wherein the determining means determines the drawing size of the virtual menu to be larger or smaller than a general-purpose drawing mode as a drawing mode suitable for the type of UI being used.
(Configuration 5) The information processing apparatus according to any one of configurations 2 to 4, wherein the determining means determines the drawing shape of the virtual menu button to be a three-dimensional shape as a drawing style suited to the type of UI being used.
(Configuration 6) The information processing device according to configuration 1, wherein the type of UI being used is Ray.
(Configuration 7) The operation information includes information on a ray irradiation position,
7. The information processing apparatus according to configuration 6, wherein the determining means determines the drawing position of the virtual menu to be a position near the irradiation position of the ray as a drawing mode suitable for the type of UI being used.
(Configuration 8) The information processing device according to configuration 6 or 7, wherein the determining means determines the spacing between buttons of the virtual menu to be wider than a general-purpose drawing style, as a drawing style suitable for the type of UI being used.
(Configuration 9) The information processing device according to configuration 6 or 7, wherein the determining means determines an interval between buttons of a virtual menu in proportion to a length of a ray as a drawing mode suitable for a type of UI being used.
(Configuration 10) The information processing device according to any one of configurations 6 to 9, wherein the determining means determines a drawing color of a button of a virtual menu to be a color that changes when selected by a ray, as a drawing style suitable for a type of UI in use.
(Configuration 11) The information processing device according to any one of configurations 1 to 10, wherein the determination means determines a general-purpose drawing mode as the drawing mode suitable for the type of UI in use when the type of UI in use is different from hand gestures and rays, or when information on the type of UI in use is not included in the operation information.
(Configuration 12) The information processing device according to any one of configurations 1 to 11, characterized in that the types of UI that can be used in the information processing device include eye-gaze input or a controller.
(Method 1) A storage step of storing information on the type of a UI being used as operation information;
a determination step of determining whether a display operation of the virtual menu has been performed;
A control method for an information processing device, comprising: a determination step of, when the determination step determines that a display operation of a virtual menu has been executed, determining, based on the operation information, a drawing mode of the virtual menu in the virtual space to a drawing mode suitable for the type of UI being used.
(Program 1) A program for causing a computer to execute each of the means of the information processing device according to any one of configurations 1 to 12.

100 HMD(情報処理装置)
101 CPU(記憶手段)(判定手段)(決定手段)
201 ユーザの手
203 ユーザの指
402 レイ
403 レイの照射位置
601、701 仮想メニュー
602、702 仮想メニューのボタン
100 HMD (information processing device)
101 CPU (storage means) (determination means) (determination means)
201 User's hand 203 User's finger 402 Ray 403 Ray irradiation position 601, 701 Virtual menu 602, 702 Button of virtual menu

Claims (14)

使用中のUIの種類の情報を操作情報として記憶する記憶手段と、
仮想メニューの表示操作が実行されたかどうかを判定する判定手段と、
前記判定手段が仮想メニューの表示操作が実行されたと判定した場合、前記操作情報に基づいて、仮想メニューの仮想空間における描画態様を、使用中のUIの種類に適した描画態様に決定する決定手段と、を備えることを特徴とする情報処理装置。
A storage means for storing information on the type of UI being used as operation information;
A determination means for determining whether a display operation of a virtual menu has been performed;
an information processing device characterized in that it comprises a determination means for, when the determination means determines that a display operation of a virtual menu has been performed, determining, based on the operation information, the drawing manner of the virtual menu in the virtual space to a drawing manner suitable for the type of UI being used.
使用中のUIの種類がハンドジェスチャであることを特徴とする請求項1に記載の情報処理装置。 The information processing device according to claim 1, characterized in that the type of UI being used is a hand gesture. 前記操作情報は、ユーザの手または指の位置の情報を含み、
前記決定手段は、使用中のUIの種類に適した描画態様として、仮想メニューの描画位置をユーザの手または指の近傍の位置に決定することを特徴とする請求項2に記載の情報処理装置。
The operation information includes information on the position of a user's hand or finger,
3. The information processing apparatus according to claim 2, wherein the determining means determines the drawing position of the virtual menu to be a position near a user's hand or finger as a drawing mode suitable for the type of UI being used.
前記操作情報は、ユーザの手の位置およびサイズの情報を含み、
前記決定手段は、使用中のUIの種類に適した描画態様として、仮想メニューの描画サイズを、汎用の描画態様と比べ、大きなサイズまたは小さなサイズに決定することを特徴とする請求項2に記載の情報処理装置。
The operation information includes information on the position and size of a user's hand,
3. The information processing apparatus according to claim 2, wherein the determining means determines the drawing size of the virtual menu to be larger or smaller than a general-purpose drawing size as the drawing mode suitable for the type of UI being used.
前記決定手段は、使用中のUIの種類に適した描画態様として、仮想メニューのボタンの描画形状を立体的な形状に決定することを特徴とする請求項2に記載の情報処理装置。 The information processing device according to claim 2, characterized in that the determining means determines the drawing shape of the virtual menu button to be a three-dimensional shape as a drawing style suitable for the type of UI being used. 使用中のUIの種類がレイであることを特徴とする請求項1に記載の情報処理装置。 The information processing device according to claim 1, characterized in that the type of UI being used is Ray. 前記操作情報は、レイの照射位置の情報を含み、
前記決定手段は、使用中のUIの種類に適した描画態様として、仮想メニューの描画位置をレイの照射位置の近傍の位置に決定することを特徴とする請求項6に記載の情報処理装置。
The operation information includes information on a ray irradiation position,
7. The information processing apparatus according to claim 6, wherein the determining means determines the drawing position of the virtual menu to be a position near the irradiation position of the ray as a drawing mode suitable for the type of UI being used.
前記決定手段は、使用中のUIの種類に適した描画態様として、仮想メニューのボタンの間隔を、汎用の描画態様と比べ、広い間隔に決定することを特徴とする請求項6に記載の情報処理装置。 The information processing device according to claim 6, characterized in that the determining means determines the spacing between buttons in the virtual menu to be wider than the spacing in a general-purpose drawing mode, as a drawing mode suitable for the type of UI being used. 前記決定手段は、使用中のUIの種類に適した描画態様として、仮想メニューのボタンの間隔を、レイの長さに比例させて決定することを特徴とする請求項6に記載の情報処理装置。 The information processing device according to claim 6, characterized in that the determining means determines the spacing between buttons in the virtual menu in proportion to the length of the ray as a drawing style suitable for the type of UI being used. 前記決定手段は、使用中のUIの種類に適した描画態様として、仮想メニューのボタンの描画色を、レイで選択された際に変化する色に決定することを特徴とする請求項6に記載の情報処理装置。 The information processing device according to claim 6, characterized in that the determining means determines the drawing color of the virtual menu button to be the color that changes when selected with a ray, as a drawing style suitable for the type of UI being used. 前記決定手段は、使用中のUIの種類がハンドジェスチャおよびレイとは異なる場合、または使用中のUIの種類の情報が前記操作情報に含まれていない場合、汎用の描画態様を、使用中のUIの種類に適した描画態様として決定することを特徴とする請求項1に記載の情報処理装置。 The information processing device according to claim 1, characterized in that the determination means determines a general-purpose drawing mode as the drawing mode suitable for the type of UI being used when the type of UI being used is different from hand gestures and rays, or when information on the type of UI being used is not included in the operation information. 前記情報処理装置で使用できるUIの種類には、視線入力またはコントローラが含まれることを特徴とする請求項1に記載の情報処理装置。 The information processing device according to claim 1, characterized in that the types of UI that can be used on the information processing device include gaze input or a controller. 使用中のUIの種類の情報を操作情報として記憶する記憶工程と、
仮想メニューの表示操作が実行されたかどうかを判定する判定工程と、
前記判定工程が仮想メニューの表示操作が実行されたと判定した場合、前記操作情報に基づいて、仮想メニューの仮想空間における描画態様を、使用中のUIの種類に適した描画態様に決定する決定工程と、を備えることを特徴とする情報処理装置の制御方法。
a storage step of storing information on the type of UI being used as operation information;
a determination step of determining whether a display operation of the virtual menu has been performed;
A control method for an information processing device, comprising: a determination step of, when the determination step determines that a display operation of a virtual menu has been executed, determining, based on the operation information, a drawing mode of the virtual menu in the virtual space to a drawing mode suitable for the type of UI being used.
請求項1に記載の情報処理装置の各手段をコンピュータに実行させるためのプログラム。
2. A program for causing a computer to execute each of the means of the information processing apparatus according to claim 1.
JP2023215770A 2023-12-21 2023-12-21 Information processing device, control method for information processing device, and program Pending JP2025099255A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023215770A JP2025099255A (en) 2023-12-21 2023-12-21 Information processing device, control method for information processing device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023215770A JP2025099255A (en) 2023-12-21 2023-12-21 Information processing device, control method for information processing device, and program

Publications (1)

Publication Number Publication Date
JP2025099255A true JP2025099255A (en) 2025-07-03

Family

ID=96229878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023215770A Pending JP2025099255A (en) 2023-12-21 2023-12-21 Information processing device, control method for information processing device, and program

Country Status (1)

Country Link
JP (1) JP2025099255A (en)

Similar Documents

Publication Publication Date Title
JP6702489B2 (en) Head mounted display, information processing method, and program
US20210263593A1 (en) Hand gesture input for wearable system
JP2022540315A (en) Virtual User Interface Using Peripheral Devices in Artificial Reality Environment
CN105190477B (en) Head-mounted display device for user interaction in an augmented reality environment
KR101844390B1 (en) Systems and techniques for user interface control
JP4533087B2 (en) Image processing method and image processing apparatus
US7834893B2 (en) Mixed-reality presentation system and control method therefor
JP5808712B2 (en) Video display device
US11009949B1 (en) Segmented force sensors for wearable devices
JP6270495B2 (en) Information processing apparatus, information processing method, computer program, and storage medium
US12197652B2 (en) Control device and control method with set priorities for input operations in competitive relationship
JP2009251702A (en) Information processing unit, information processing method, and information processing program
Lang et al. A multimodal smartwatch-based interaction concept for immersive environments
US12314470B2 (en) Information processing system used in cross reality
JP7633452B2 (en) Wearable terminal device, program, and display method
US12032754B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JP2025099255A (en) Information processing device, control method for information processing device, and program
JP2023079161A (en) Display control device, display control method, and program
KR20240036582A (en) Method and device for managing interactions with a user interface with a physical object
TWI878816B (en) Work support system and work support method
EP4439241A1 (en) Improved touchless pointer operation during typing activities using a computer device
US20250298469A1 (en) Extended reality system and method for operating the same
JP2024154673A (en) Processing device, control method, and program
WO2023181549A1 (en) Control device, control method, and program
JP2025133592A (en) Information processing device, information processing system, information processing method, and program