[go: up one dir, main page]

JP7589795B2 - Analysis device, analysis method, and program - Google Patents

Analysis device, analysis method, and program Download PDF

Info

Publication number
JP7589795B2
JP7589795B2 JP2023505176A JP2023505176A JP7589795B2 JP 7589795 B2 JP7589795 B2 JP 7589795B2 JP 2023505176 A JP2023505176 A JP 2023505176A JP 2023505176 A JP2023505176 A JP 2023505176A JP 7589795 B2 JP7589795 B2 JP 7589795B2
Authority
JP
Japan
Prior art keywords
user
information
analysis
analysis information
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023505176A
Other languages
Japanese (ja)
Other versions
JPWO2022190658A5 (en
JPWO2022190658A1 (en
Inventor
昭成 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2022190658A1 publication Critical patent/JPWO2022190658A1/ja
Publication of JPWO2022190658A5 publication Critical patent/JPWO2022190658A5/en
Application granted granted Critical
Publication of JP7589795B2 publication Critical patent/JP7589795B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は解析装置、解析方法、及びプログラムに関する。 The present invention relates to an analysis device, an analysis method, and a program.

交通事故の発生について検証するための様々な技術が提案されている。例えば、特許文献1は、車道の横断を擬似体験することができるシミュレータについて開示している。このシミュレータは、被験者に対してコンピュータ・グラフィックスにより作成した仮想交通環境を見せた状態で、被験者の歩行距離などを測定し、その測定結果を利用して被験者の車道横断状況を判定する。Various technologies have been proposed to verify the occurrence of traffic accidents. For example, Patent Document 1 discloses a simulator that allows a subject to experience a simulated crossing of a roadway. This simulator measures the walking distance of a subject while showing the subject a virtual traffic environment created using computer graphics, and uses the measurement results to determine the subject's road crossing status.

特開2012-2950号公報JP 2012-2950 A

上述した文献に記載されたシミュレータにおいて、被験者は、トレッドミルの前方に置かれたスクリーンに写された映像を見ながら、当該トレッドミルの上で歩行を行う。このため、この被験者の横断状況の判定に用いられる歩行距離は、トレッドミル上の歩行についての測定結果である。しかしながら、トレッドミルの上での歩行は、自由な歩行が可能な地面の上での歩行ではないため、当該シミュレータで測定される歩行は、被験者が実際の交通環境を歩行する際の歩行を適切に再現できていない可能性がある。例えば、トレッドミルの利用に慣れていない被験者は、実際の交通環境を歩行する際の歩行速度よりも遅い速度で、トレッドミル上を歩行する可能性がある。実際の交通環境を歩行する際の歩行速度による歩行を再現できない場合、適切なシミュレーション結果が得られない。In the simulator described in the above-mentioned document, the subject walks on the treadmill while watching an image projected on a screen placed in front of the treadmill. Therefore, the walking distance used to determine the subject's crossing situation is a measurement result of walking on the treadmill. However, since walking on a treadmill is not walking on a ground where free walking is possible, the walking measured by the simulator may not adequately reproduce the walking of the subject when walking in an actual traffic environment. For example, a subject who is not accustomed to using a treadmill may walk on the treadmill at a speed slower than the walking speed when walking in an actual traffic environment. If walking at the walking speed when walking in an actual traffic environment cannot be reproduced, appropriate simulation results cannot be obtained.

そこで、本明細書に開示される実施形態が達成しようとする目的の1つは、ユーザによる道路の横断を適切にシミュレーションして解析することができる解析装置、解析方法、及びプログラムを提供することにある。Therefore, one of the objectives that the embodiments disclosed in this specification aim to achieve is to provide an analysis device, an analysis method, and a program that can appropriately simulate and analyze a user crossing a road.

第1の態様にかかる解析装置は、
実空間におけるユーザの位置情報を取得する位置情報取得部と、
道路を車両が走行する仮想現実空間の映像を表示するよう制御する表示制御部と、
前記仮想現実空間で前記ユーザが前記道路を横断する際の、前記位置情報に基づいて特定される前記仮想現実空間内の前記ユーザの位置の時系列データに基づいて、前記ユーザの横断に関する解析情報を生成する解析情報生成部と
を有する。
The analysis device according to the first aspect comprises:
a position information acquisition unit that acquires position information of a user in a real space;
a display control unit that controls to display an image of a virtual reality space in which a vehicle is traveling on a road;
and an analysis information generation unit that generates analysis information regarding the user's crossing of the road based on time series data of the user's position in the virtual reality space identified based on the position information when the user crosses the road in the virtual reality space.

第2の態様にかかる解析方法では、
実空間におけるユーザの位置情報を取得し、
道路を車両が走行する仮想現実空間の映像を表示するよう制御し、
前記仮想現実空間で前記ユーザが前記道路を横断する際の、前記位置情報に基づいて特定される前記仮想現実空間内の前記ユーザの位置の時系列データに基づいて、前記ユーザの横断に関する解析情報を生成する。
In the analysis method according to the second aspect,
Acquire the user's location information in the real space;
It controls the display of images of a virtual reality space in which a vehicle is traveling on a road,
Analysis information regarding the user's crossing of the road is generated based on time series data of the user's position in the virtual reality space identified based on the position information when the user crosses the road in the virtual reality space.

第3の態様にかかるプログラムは、
実空間におけるユーザの位置情報を取得する位置情報取得ステップと、
道路を車両が走行する仮想現実空間の映像を表示するよう制御する表示制御ステップと、
前記仮想現実空間で前記ユーザが前記道路を横断する際の、前記位置情報に基づいて特定される前記仮想現実空間内の前記ユーザの位置の時系列データに基づいて、前記ユーザの横断に関する解析情報を生成する解析情報生成ステップと
をコンピュータに実行させる。
A program according to a third aspect includes:
A position information acquisition step of acquiring position information of a user in a real space;
a display control step of controlling to display an image of a virtual reality space in which a vehicle is traveling on a road;
and an analytical information generating step of generating analytical information regarding the user's crossing of the road based on time series data of the user's position in the virtual reality space identified based on the position information when the user crosses the road in the virtual reality space.

上述の態様によれば、ユーザによる道路の横断を適切にシミュレーションして解析することができる解析装置、解析方法、及びプログラムを提供することができる。 According to the above-mentioned aspects, it is possible to provide an analysis device, an analysis method, and a program that can appropriately simulate and analyze a user crossing a road.

実施の形態の概要にかかる解析装置の構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of a configuration of an analysis device according to an outline of an embodiment. 実施の形態にかかる解析システムの構成の一例を示すブロック図である。1 is a block diagram showing an example of a configuration of an analysis system according to an embodiment; 実環境の様子の一例を示す模式図である。FIG. 1 is a schematic diagram showing an example of a real environment. 実施の形態にかかる解析装置の機能構成の一例を示すブロック図である。1 is a block diagram illustrating an example of a functional configuration of an analysis device according to an embodiment. 表示制御部が生成する映像の一例を示す模式図である。4 is a schematic diagram showing an example of an image generated by a display control unit. FIG. 解析情報生成部が生成する解析情報についてのビジュアルデータの例を示す模式図である。11 is a schematic diagram showing an example of visual data regarding the analysis information generated by the analysis information generation unit; FIG. 解析情報生成部が生成する解析情報についてのビジュアルデータの別の例を示す模式図である。13 is a schematic diagram showing another example of visual data regarding the analysis information generated by the analysis information generation unit. FIG. 解析情報生成部が生成する解析情報についてのビジュアルデータのさらに別の例を示す模式図である。13 is a schematic diagram showing yet another example of visual data regarding the analysis information generated by the analysis information generation unit. FIG. 解析情報生成部が生成する解析情報についてのビジュアルデータのさらに別の例を示す模式図である。13 is a schematic diagram showing yet another example of visual data regarding the analysis information generated by the analysis information generation unit. FIG. 実施の形態にかかる解析装置のハードウェア構成の一例を示す模式図である。FIG. 2 is a schematic diagram illustrating an example of a hardware configuration of an analysis apparatus according to an embodiment; 実施の形態にかかる解析装置の動作の流れの一例を示すフローチャートである。1 is a flowchart illustrating an example of an operation flow of the analysis device according to the embodiment.

<実施形態の概要>
実施形態の詳細な説明に先立って、実施形態の概要を説明する。図1は、実施の形態の概要にかかる解析装置1の構成の一例を示すブロック図である。図1に示すように、解析装置1は、位置情報取得部2と、表示制御部3と、解析情報生成部4とを有する。
<Overview of the embodiment>
Prior to detailed description of the embodiment, an overview of the embodiment will be described. Fig. 1 is a block diagram showing an example of a configuration of an analysis device 1 according to the overview of the embodiment. As shown in Fig. 1, the analysis device 1 includes a position information acquisition unit 2, a display control unit 3, and an analysis information generation unit 4.

位置情報取得部2は、実空間におけるユーザの位置情報を取得する。より詳細には、位置情報取得部2は、位置情報の時系列データを取得する。解析装置1を用いた横断のシミュレーションでは、被験者であるユーザは、地面又は床面を実際に移動する。このため、位置情報取得部2は、地面又は床面をユーザが実際に移動する際の位置情報を取得する。The position information acquisition unit 2 acquires position information of the user in real space. More specifically, the position information acquisition unit 2 acquires time series data of position information. In a simulation of crossing using the analysis device 1, the user, who is the subject, actually moves on the ground or floor. For this reason, the position information acquisition unit 2 acquires position information when the user actually moves on the ground or floor.

表示制御部3は、道路を車両が走行する仮想現実空間の映像を表示するよう制御する。例えば、表示制御部3は、そのような仮想現実空間の映像を、被験者であるユーザが装着したヘッドマウントディスプレイ(HMD:head mounted display)に表示するよう制御する。なお、ユーザが没入感を得るために、仮想現実空間の映像はヘッドマウントディスプレイに表示されることが好ましいが、フラットパネルディスプレイなどの他のディスプレイに表示されてもよい。なお、表示制御部3の制御により表示される映像は、位置情報取得部2が取得した位置情報に基づいて特定される、仮想現実空間内のユーザの位置を視点とする映像であることが好ましい。また、ユーザの視線の方向(頭部の方向)を検出することが可能な場合には、表示制御部3の制御により表示される映像は、ユーザの視線の方向(頭部の方向)に応じた映像であることが好ましい。The display control unit 3 controls to display an image of a virtual reality space in which a vehicle runs on a road. For example, the display control unit 3 controls to display such an image of the virtual reality space on a head mounted display (HMD) worn by the subject user. In order for the user to have a sense of immersion, it is preferable that the image of the virtual reality space is displayed on a head mounted display, but it may be displayed on another display such as a flat panel display. In addition, it is preferable that the image displayed under the control of the display control unit 3 is an image with the user's position in the virtual reality space as the viewpoint, which is specified based on the position information acquired by the position information acquisition unit 2. In addition, when it is possible to detect the direction of the user's line of sight (direction of the head), it is preferable that the image displayed under the control of the display control unit 3 is an image according to the direction of the user's line of sight (direction of the head).

解析情報生成部4は、仮想現実空間でユーザが道路を横断する際の、位置情報取得部2が取得した位置情報に基づいて特定される仮想現実空間内のユーザの位置の時系列データに基づいて、ユーザの横断に関する解析情報を生成する。解析情報は、横断に関する任意のデータであればよく、例えば車両との衝突の有無を示す情報であってもよいし、横断時の移動軌跡を示す情報であってもよいし、横断に要した時間を表す情報であってもよい。なお、これらは例に過ぎず、生成される解析情報は、これらに限定されない。The analysis information generating unit 4 generates analysis information regarding the user's crossing based on time series data of the user's position in the virtual reality space identified based on the position information acquired by the position information acquiring unit 2 when the user crosses a road in the virtual reality space. The analysis information may be any data regarding crossing, and may be, for example, information indicating whether or not there was a collision with a vehicle, information indicating the movement trajectory when crossing, or information indicating the time required to cross. Note that these are merely examples, and the generated analysis information is not limited to these.

解析装置1によれば、実空間におけるユーザの位置情報を用いて、ユーザによる道路の横断についての解析情報が生成される。このため、解析装置1によれば、実際の交通環境で行われる歩行に近い歩行のデータを用いて、横断についての解析情報を生成することができる。このため、ユーザによる道路の横断を適切にシミュレーションして解析することができる。 Analysis device 1 uses the user's position information in real space to generate analysis information about the user's crossing of a road. Therefore, analysis device 1 can generate analysis information about crossing using walking data that is similar to walking in an actual traffic environment. Therefore, it is possible to appropriately simulate and analyze the user's crossing of a road.

<実施の形態の詳細>
図2は、実施の形態にかかる解析システム10の構成の一例を示すブロック図である。図2に示すように、解析システム10は、解析装置100とヘッドマウントディスプレイ200とを備えている。解析装置100とヘッドマウントディスプレイ200とは、例えば無線により、通信が可能に接続されている。なお、両者は有線により通信可能に接続されていてもよい。
<Details of the embodiment>
Fig. 2 is a block diagram showing an example of a configuration of an analysis system 10 according to an embodiment. As shown in Fig. 2, the analysis system 10 includes an analysis device 100 and a head mounted display 200. The analysis device 100 and the head mounted display 200 are connected to each other so as to be able to communicate with each other, for example, wirelessly. Note that the two may also be connected to each other so as to be able to communicate with each other via a wire.

解析システム10は、ユーザに対して、仮想現実(VR:virtual reality)を提示し、ユーザによる車道の横断をシミュレーションし、横断についての解析情報を生成する。解析システム10を用いたシミュレーションでは、図3に示すように被験者であるユーザ90は、ヘッドマウントディスプレイ200を装着する。そして、ユーザ90が所定の領域91内を実際に移動することにより、ヘッドマウントディスプレイ200により映し出された仮想現実空間においても移動する。すなわち、解析システム10では、実際の移動が、ヘッドマウントディスプレイ200に表示される仮想現実空間内でのユーザの移動に反映される。例えば、仮想現実空間におけるユーザ90の実際の移動速度、移動方向、及び移動距離が、領域91におけるユーザの実際の移動のそれらと同じになっている。領域91は、地面又は床面上の所定の広さの領域である。したがって、ユーザ90は、シミュレーションの際、この地面又は床面を移動する。すなわち、ユーザ90は、シミュレーションの実施の際、トレッドミル上での擬似的な歩行ではなく、実際の交通環境における歩行と同様の歩行を行うことができる。The analysis system 10 presents a virtual reality (VR) to a user, simulates the user's crossing of a roadway, and generates analysis information about the crossing. In a simulation using the analysis system 10, a subject, a user 90, wears a head-mounted display 200 as shown in FIG. 3. The user 90 actually moves within a predetermined area 91, and thus moves in the virtual reality space displayed by the head-mounted display 200. That is, in the analysis system 10, the actual movement is reflected in the movement of the user in the virtual reality space displayed on the head-mounted display 200. For example, the actual movement speed, movement direction, and movement distance of the user 90 in the virtual reality space are the same as those of the user's actual movement in the area 91. The area 91 is an area of a predetermined size on the ground or floor. Therefore, the user 90 moves on this ground or floor during the simulation. That is, when carrying out the simulation, the user 90 can walk in a manner similar to walking in an actual traffic environment, rather than walking pseudo-on a treadmill.

ヘッドマウントディスプレイ200は、ユーザ90の頭部に装着される表示装置であり、ユーザ90に仮想現実空間を体験させる。ヘッドマウントディスプレイ200としては、仮想現実空間を表示することが可能な任意のヘッドマウントディスプレイを用いることができる。例えば、ヘッドマウントディスプレイ200は、ユーザ90の眼前に配置されるディスプレイと、ヘッドマウントディスプレイ200の実空間における3次元位置及び傾き(ユーザ90の頭部の傾き)を検出するセンサとを備えている。なお、このセンサは、例えば、速度センサ、ジャイロスコープなどといった慣性計測装置(IMU:Inertial Measurement Unit)であってもよいし、カメラ及び画像処理装置とを含むセンサであってもよい。また、このセンサは、いわゆる6軸センサでもよく、3軸の加速度と、x軸、y軸、z軸周りの角速度のうち任意の情報を取得するものであってもよい。また、このセンサは、これらの組み合わせなどであってもよい。これにより、ヘッドマウントディスプレイ200の位置及び向きが検出される。このように、センサにより、ユーザ90の頭部の位置及び傾きを取得可能である。また、ヘッドマウントディスプレイ200は、解析装置100などと通信するための通信回路を備えており、センサにより検出されたヘッドマウントディスプレイ200の位置及び向きを解析装置100に送信する。なお、ヘッドマウントディスプレイ200の位置及び向きは、必ずしもヘッドマウントディスプレイ200自身により検出されなくてもよい。例えば、カメラにより領域91の一部または全体を撮影した画像を解析することにより、ヘッドマウントディスプレイ200の位置及び向きが検出されてもよい。すなわち、外部のセンサにより、これらが検出されてもよい。なお、ヘッドマウントディスプレイ200の位置及び向きの検出に代えて、または、ヘッドマウントディスプレイ200の位置及び向きの検出とともに、ユーザ90の頭部そのものの位置及び向きが検出されてもよい。ヘッドマウントディスプレイ200は、解析装置100が生成した映像を受信する。これにより、ヘッドマウントディスプレイ200のディスプレイには、解析装置100が生成した映像が表示される。The head mounted display 200 is a display device that is attached to the head of the user 90, and allows the user 90 to experience a virtual reality space. Any head mounted display capable of displaying a virtual reality space can be used as the head mounted display 200. For example, the head mounted display 200 includes a display disposed in front of the user 90's eyes and a sensor that detects the three-dimensional position and tilt of the head mounted display 200 in real space (tilt of the user 90's head). The sensor may be, for example, an inertial measurement unit (IMU) such as a speed sensor or a gyroscope, or a sensor including a camera and an image processing device. The sensor may also be a so-called six-axis sensor that acquires any information among three-axis acceleration and angular velocity around the x-axis, y-axis, and z-axis. The sensor may also be a combination of these. This detects the position and orientation of the head mounted display 200. In this way, the position and tilt of the user 90's head can be acquired by the sensor. The head mounted display 200 is also provided with a communication circuit for communicating with the analysis device 100 and the like, and transmits the position and orientation of the head mounted display 200 detected by a sensor to the analysis device 100. The position and orientation of the head mounted display 200 do not necessarily need to be detected by the head mounted display 200 itself. For example, the position and orientation of the head mounted display 200 may be detected by analyzing an image obtained by capturing a part or the whole of the area 91 with a camera. That is, these may be detected by an external sensor. Instead of detecting the position and orientation of the head mounted display 200, or together with detecting the position and orientation of the head mounted display 200, the position and orientation of the head of the user 90 itself may be detected. The head mounted display 200 receives the image generated by the analysis device 100. As a result, the image generated by the analysis device 100 is displayed on the display of the head mounted display 200.

また、ヘッドマウントディスプレイ200は、ユーザ90の操作入力を受け付ける入力装置を備えていてもよい。この入力装置は、ヘッドマウントディスプレイ200に内蔵されていてもよいし、ヘッドマウントディスプレイ200に接続されていてもよい。この入力装置は、ボタンであってもよい。この入力装置は、シミュレーションの開始を指示する操作をユーザ90から受付けてもよい。この場合、ヘッドマウントディスプレイ200は、解析装置100に、そのような指示を受付けたことを通知する。なお、シミュレーションの開始を指示する操作は、解析装置100が備える入力インタフェースが受付けてもよい。 The head mounted display 200 may also include an input device that accepts operational input from the user 90. This input device may be built into the head mounted display 200, or may be connected to the head mounted display 200. This input device may be a button. This input device may accept an operation from the user 90 to instruct the start of a simulation. In this case, the head mounted display 200 notifies the analysis device 100 that such an instruction has been received. Note that the operation to instruct the start of a simulation may be accepted by an input interface provided in the analysis device 100.

次に、解析装置100について説明する。解析装置100は、ヘッドマウントディスプレイ200における仮想現実空間の表示を制御するとともに、ユーザの横断についての解析情報を出力する装置であり、図1の解析装置1に相当する。図4は、解析装置100の機能構成の一例を示すブロック図である。図4に示すように、解析装置100は、ユーザ情報取得部101と、位置情報取得部102と、視線方向取得部103と、表示制御部104と、解析情報生成部105と、解析情報出力部106と、グループ化部107とを有する。Next, the analysis device 100 will be described. The analysis device 100 is a device that controls the display of the virtual reality space in the head mounted display 200 and outputs analysis information about the user's crossing, and corresponds to the analysis device 1 in FIG. 1. FIG. 4 is a block diagram showing an example of the functional configuration of the analysis device 100. As shown in FIG. 4, the analysis device 100 has a user information acquisition unit 101, a position information acquisition unit 102, a gaze direction acquisition unit 103, a display control unit 104, an analysis information generation unit 105, an analysis information output unit 106, and a grouping unit 107.

ユーザ情報取得部101は、被験者であるユーザ90についての情報(以下、ユーザ情報と称す)を取得する。例えば、ユーザ情報取得部101は、ユーザ情報として、ユーザ90の識別情報、年齢、及び性別といった個人情報を取得する。なお、識別情報は、IDであってもよいし、ユーザ90の名前であってもよい。ユーザ情報取得部101が取得するユーザ情報は、例として挙げた上記情報に限られない。ユーザ情報取得部101は、解析装置100の入力インタフェースを介して入力されたユーザ情報を取得してもよいし、他の装置から受信したユーザ情報を取得してもよいし、記憶装置から読み出すことによりユーザ情報を取得してもよい。The user information acquisition unit 101 acquires information about the subject user 90 (hereinafter referred to as user information). For example, the user information acquisition unit 101 acquires personal information such as the identification information, age, and gender of the user 90 as the user information. The identification information may be an ID or the name of the user 90. The user information acquired by the user information acquisition unit 101 is not limited to the above information given as examples. The user information acquisition unit 101 may acquire user information input via an input interface of the analysis device 100, may acquire user information received from another device, or may acquire user information by reading it from a storage device.

位置情報取得部102は、図1の位置情報取得部2に相当しており、実空間におけるユーザ90の位置情報を取得する。本実施の形態では、位置情報取得部102は、ユーザ90の位置情報として、ユーザ90が装着しているヘッドマウントディスプレイ200の位置情報を取得する。なお、本実施の形態では、位置情報取得部102は、ヘッドマウントディスプレイ200により検出された位置情報を、ヘッドマウントディスプレイ200から受信することにより取得する。しかしながら、外部のセンサにより、ヘッドマウントディスプレイ200の位置が検出される場合には、位置情報取得部102は、この外部のセンサからヘッドマウントディスプレイ200の位置情報を取得してもよい。The position information acquisition unit 102 corresponds to the position information acquisition unit 2 in FIG. 1, and acquires position information of the user 90 in real space. In this embodiment, the position information acquisition unit 102 acquires position information of the head mounted display 200 worn by the user 90 as the position information of the user 90. Note that in this embodiment, the position information acquisition unit 102 acquires position information detected by the head mounted display 200 by receiving it from the head mounted display 200. However, when the position of the head mounted display 200 is detected by an external sensor, the position information acquisition unit 102 may acquire the position information of the head mounted display 200 from this external sensor.

視線方向取得部103は、実空間におけるユーザ90の視線の方向を表す視線方向情報を取得する。本実施の形態では、視線方向取得部103は、ユーザ90の視線の方向を表す視線方向情報として、ユーザ90が装着しているヘッドマウントディスプレイ200の向きを表す情報を取得する。本実施の形態では、視線方向取得部103は、ヘッドマウントディスプレイ200により検出されたヘッドマウントディスプレイ200の向きを表す情報を、ヘッドマウントディスプレイ200から受信することにより取得する。しかしながら、外部のセンサにより、ヘッドマウントディスプレイ200の向きが検出される場合には、視線方向取得部103は、この外部のセンサから情報を取得してもよい。また、本実施の形態では、視線方向取得部103は、ヘッドマウントディスプレイ200の向き、すなわち頭部の向きを、視線方向情報として取得するが、視線の検出が可能な場合には、検出された視線を視線方向情報として取得してもよい。例えば、ヘッドマウントディスプレイ200がアイトラッキングセンサを備える場合には、視線方向取得部103は、このセンサから得られる視線方向情報を取得してもよい。The gaze direction acquisition unit 103 acquires gaze direction information representing the direction of the gaze of the user 90 in real space. In this embodiment, the gaze direction acquisition unit 103 acquires information representing the orientation of the head mounted display 200 worn by the user 90 as gaze direction information representing the direction of the gaze of the user 90. In this embodiment, the gaze direction acquisition unit 103 acquires information representing the orientation of the head mounted display 200 detected by the head mounted display 200 by receiving it from the head mounted display 200. However, if the orientation of the head mounted display 200 is detected by an external sensor, the gaze direction acquisition unit 103 may acquire information from this external sensor. Also, in this embodiment, the gaze direction acquisition unit 103 acquires the orientation of the head mounted display 200, that is, the orientation of the head, as gaze direction information, but if gaze detection is possible, the detected gaze may be acquired as gaze direction information. For example, if the head mounted display 200 is equipped with an eye tracking sensor, the gaze direction acquisition unit 103 may acquire gaze direction information obtained from this sensor.

表示制御部104は、図1の表示制御部3に相当し、道路を車両が走行する仮想現実空間の映像をヘッドマウントディスプレイ200に表示するよう制御する。表示制御部104は、位置情報取得部102が取得したヘッドマウントディスプレイ200の位置及び視線方向取得部103が取得したヘッドマウントディスプレイ200の向きに応じて、仮想現実空間の表示を変化させる。換言すると、表示制御部104は、位置情報取得部102が取得したユーザ90の位置及び視線方向取得部103が取得したユーザ90の視線方向に応じて、仮想現実空間の表示を変化させる。つまり、表示制御部104は、位置情報取得部102が取得した位置情報に基づいて特定される、仮想現実空間内のユーザの位置を視点する映像であって、視線方向取得部103が取得した視線方向情報により示される方向の映像を表示するよう制御する。表示制御部104は、映像を、ヘッドマウントディスプレイ200に出力する。解析装置100から送信された映像データは、ヘッドマウントディスプレイ200において受信され、ヘッドマウントディスプレイ200は受信した映像をユーザ90に対して表示する。The display control unit 104 corresponds to the display control unit 3 in FIG. 1, and controls the display of an image of a virtual reality space in which a vehicle runs on a road on the head mounted display 200. The display control unit 104 changes the display of the virtual reality space according to the position of the head mounted display 200 acquired by the position information acquisition unit 102 and the orientation of the head mounted display 200 acquired by the line of sight direction acquisition unit 103. In other words, the display control unit 104 changes the display of the virtual reality space according to the position of the user 90 acquired by the position information acquisition unit 102 and the line of sight direction of the user 90 acquired by the line of sight direction acquisition unit 103. In other words, the display control unit 104 controls the display of an image that is a viewpoint of the position of the user in the virtual reality space, which is specified based on the position information acquired by the position information acquisition unit 102, and is in the direction indicated by the line of sight direction information acquired by the line of sight direction acquisition unit 103. The display control unit 104 outputs the image to the head mounted display 200. The video data transmitted from analysis device 100 is received by head mounted display 200 , and head mounted display 200 displays the received video to user 90 .

図5は、表示制御部104が生成する映像の一例を示す模式図である。図5に示すように、表示制御部104は、道路92と、この道路92を走行する車両93とを含む交通環境を模した仮想現実空間の映像を表示する。表示制御部104は、シミュレーションの開始の指示を受付けると、道路92上の所定の位置から所定の速度で走行する車両93を表示する。車両93の走行速度は、任意の速度に設定可能である。例えば、本実施の形態では、車両93は、時速40キロメートル、時速60キロメートル、及び時速80キロメートルのうちのいずれかの速度が設定される。なお、これらの速度は例に過ぎず、他の速度が設定されてもよい。道路92上を走行する車両93は、一台でなくてもよく、複数台であってもよい。また、図5に示した例では、道路92上の車両93の通行は一方向であるが、双方向から車両93が道路92を通行してもよい。 FIG. 5 is a schematic diagram showing an example of an image generated by the display control unit 104. As shown in FIG. 5, the display control unit 104 displays an image of a virtual reality space simulating a traffic environment including a road 92 and a vehicle 93 traveling on the road 92. When the display control unit 104 receives an instruction to start a simulation, it displays a vehicle 93 traveling at a predetermined speed from a predetermined position on the road 92. The traveling speed of the vehicle 93 can be set to any speed. For example, in this embodiment, the vehicle 93 is set to one of a speed of 40 kilometers per hour, a speed of 60 kilometers per hour, and a speed of 80 kilometers per hour. Note that these speeds are merely examples, and other speeds may be set. The vehicle 93 traveling on the road 92 does not have to be one vehicle, and may be multiple vehicles. In the example shown in FIG. 5, the vehicle 93 travels on the road 92 in one direction, but the vehicle 93 may travel on the road 92 from both directions.

シミュレーションでは、ユーザ90は、仮想現実空間において、車両93に衝突しないように気をつけつつ道路92を横断する。具体的には、ユーザ90は、仮想現実空間におけるスタート位置94からゴール位置95まで移動するよう実環境の領域91内を移動する。ここで、スタート位置94は、道路92の横断開始位置であり、ゴール位置95は、道路92の横断終了位置である。In the simulation, a user 90 crosses a road 92 in a virtual reality space while being careful not to collide with a vehicle 93. Specifically, the user 90 moves within an area 91 of a real environment to move from a start position 94 in the virtual reality space to a goal position 95. Here, the start position 94 is the position where crossing of the road 92 begins, and the goal position 95 is the position where crossing of the road 92 ends.

解析情報生成部105は、図1の解析情報生成部4に相当する。解析情報生成部105は、仮想現実空間でユーザ90が道路92を横断する際の仮想現実空間内のユーザ90の位置の時系列データに基づいて、ユーザ90による横断についての解析情報を生成する。解析情報生成部105は、予め定められた任意の解析情報を生成する。解析情報生成部105は、ユーザ情報取得部101が取得したユーザ情報と関連付けた解析情報を生成する。The analysis information generating unit 105 corresponds to the analysis information generating unit 4 in FIG. 1. The analysis information generating unit 105 generates analysis information about the user 90's crossing of a road 92 based on time series data of the position of the user 90 in the virtual reality space when the user 90 crosses the road 92 in the virtual reality space. The analysis information generating unit 105 generates any predetermined analysis information. The analysis information generating unit 105 generates analysis information associated with the user information acquired by the user information acquiring unit 101.

グループ化部107は、解析情報生成部105が生成した複数のユーザ90についての解析情報をユーザ90の年齢又は性別に応じてグループ化する。なお、このようなグループ化を行うグループ化部107について、同種ユーザグループ化部と称されてもよい。このようなグループ化が行われることにより、年齢又は性別の観点に基づいてユーザの横断を理解することが可能となる。また、グループ化部107は、解析情報生成部105が生成した同一のユーザ90についての解析情報をグループ化してもよい。なお、このようなグループ化を行うグループ化部107について、同一ユーザグループ化部と称されてもよい。このようなグループ化が行われることにより、例えば、解析情報についての年齢による変化を理解することが可能となる。The grouping unit 107 groups the analysis information for multiple users 90 generated by the analysis information generation unit 105 according to the age or gender of the users 90. The grouping unit 107 that performs such grouping may be referred to as a homogeneous user grouping unit. By performing such grouping, it becomes possible to understand the cross-section of users based on the viewpoint of age or gender. The grouping unit 107 may also group the analysis information for the same user 90 generated by the analysis information generation unit 105. The grouping unit 107 that performs such grouping may be referred to as a homogeneous user grouping unit. By performing such grouping, it becomes possible to understand, for example, changes in the analysis information due to age.

解析情報出力部106は、解析情報生成部105が生成した解析情報を出力する。例えば、解析情報出力部106は、解析情報を表示するためにディスプレイに解析情報を出力する。このディスプレイは、解析装置100が備えるディスプレイであってもよいし、解析装置100に接続されたディスプレイであってもよいし、ヘッドマウントディスプレイ200のディスプレイであってもよい。また、解析情報出力部106は、解析情報を保存するためにメモリなどの記憶装置に解析情報を出力してもよい。また、解析情報出力部106は、解析装置100と通信可能に接続された他の装置に送信するために、この他の装置に向けて解析情報を出力してもよい。なお、解析情報出力部106は、グループ化部107によってグループ化された解析情報を出力してもよい。例えば、所定の年齢層のユーザ90についての解析情報をまとめて出力してもよいし、所定の性別のユーザ90についての解析情報をまとめて出力してもよいし、同一のユーザ90についての解析情報だけをまとめて出力してもよい。The analysis information output unit 106 outputs the analysis information generated by the analysis information generation unit 105. For example, the analysis information output unit 106 outputs the analysis information to a display to display the analysis information. This display may be a display provided in the analysis device 100, may be a display connected to the analysis device 100, or may be a display of the head-mounted display 200. The analysis information output unit 106 may also output the analysis information to a storage device such as a memory to store the analysis information. The analysis information output unit 106 may also output the analysis information to another device communicably connected to the analysis device 100 in order to transmit the analysis information to the other device. The analysis information output unit 106 may output the analysis information grouped by the grouping unit 107. For example, the analysis information for users 90 of a certain age group may be output together, the analysis information for users 90 of a certain gender may be output together, or only the analysis information for the same user 90 may be output together.

ここで、解析情報生成部105が生成する解析情報の例について説明する。
例えば、解析情報生成部105は、仮想現実空間において道路92を横断するユーザ90が道路92を走行する車両93と衝突したか否かをユーザ90の位置の時系列データに基づいて判定してもよい。そして、解析情報生成部105は、解析情報として、ユーザ90による車両93との衝突の有無を示す情報を生成してもよい。例えば、解析情報生成部105は、シミュレーション中のユーザ90の位置の時系列データと車両93の位置の時系列データとを用いて、両者の距離が所定値以下となったか否かを判定することにより、両者が衝突したか否かを判定する。このように、解析情報として衝突の有無を示す情報が生成されることにより、適切な横断が行われたか否かを容易に判断することが可能となる。なお、衝突の判定方法は上述した方法に限られない。例えば、解析情報生成部105は、仮想現実空間において道路92を横断するユーザ90が道路92を走行する車両93と衝突したか否かを、スタート位置94を基準としたユーザ90の相対位置と経過時刻に基づいて判定してもよい。
Here, an example of the analysis information generated by the analysis information generating unit 105 will be described.
For example, the analysis information generating unit 105 may determine whether or not the user 90 crossing the road 92 in the virtual reality space has collided with the vehicle 93 traveling on the road 92 based on time series data of the position of the user 90. The analysis information generating unit 105 may generate, as the analysis information, information indicating whether or not the user 90 has collided with the vehicle 93. For example, the analysis information generating unit 105 determines whether or not the two have collided by using time series data of the position of the user 90 during the simulation and time series data of the position of the vehicle 93 to determine whether or not the distance between the two has become equal to or less than a predetermined value. In this way, by generating information indicating the presence or absence of a collision as the analysis information, it becomes possible to easily determine whether or not the road has been crossed appropriately. Note that the method of determining the collision is not limited to the above-mentioned method. For example, the analysis information generating unit 105 may determine whether or not the user 90 crossing the road 92 in the virtual reality space has collided with the vehicle 93 traveling on the road 92 based on the relative position of the user 90 based on the start position 94 and the elapsed time.

また、解析情報生成部105は、ユーザ90が車両93と衝突したと判定された場合、所定の時点から衝突の発生時点までの時間を示す情報を解析情報として生成してもよい。例えば、この所定の時点は、シミュレーションの開始時点であってもよいし、スタート位置94からの移動が開始された時点(道路92にユーザ90が進入した時点)であってもよい。このように、解析情報として、所定の時点から衝突の発生時点までの時間を示す情報が生成されることにより、衝突の発生原因などを理解する上で有益な情報を得ることができる。
また、解析情報生成部105は、ユーザ90が車両93と衝突したと判定された場合、所定の時点から衝突の発生時点までのユーザ90の位置又は視線などの時系列データを解析情報として生成してもよい。このような情報も、衝突の発生原因などを理解する上で有益な情報となる。
Furthermore, when it is determined that the user 90 has collided with the vehicle 93, the analysis information generating unit 105 may generate, as the analysis information, information indicating the time from a predetermined time point to the time point at which the collision occurs. For example, this predetermined time point may be the start time of the simulation, or may be the time point at which the movement from the start position 94 is started (the time point at which the user 90 enters the road 92). In this way, by generating, as the analysis information, information indicating the time from the predetermined time point to the time point at which the collision occurs, it is possible to obtain information that is useful for understanding the cause of the collision.
Furthermore, when it is determined that the user 90 has collided with the vehicle 93, the analysis information generating unit 105 may generate, as analysis information, time-series data of the position or line of sight of the user 90 from a predetermined time point to the time point of the collision. Such information is also useful for understanding the cause of the collision.

また、解析情報生成部105は、ユーザ90が車両93と衝突したと判定された場合、衝突が発生した地点を示す情報を解析情報として生成してもよい。例えば、解析情報生成部105は、道路92のどの位置において、衝突が発生したかを特定し、特定した位置を示す情報を生成する。このように、解析情報として、衝突が発生した地点を示す情報が生成されることにより、衝突の発生について詳細に理解する上で有益な情報を得ることができる。Furthermore, when it is determined that the user 90 has collided with the vehicle 93, the analysis information generating unit 105 may generate, as the analysis information, information indicating the location where the collision occurred. For example, the analysis information generating unit 105 identifies the location on the road 92 where the collision occurred, and generates information indicating the identified location. In this way, by generating, as the analysis information, information indicating the location where the collision occurred, it is possible to obtain information that is useful for understanding the occurrence of the collision in detail.

また、解析情報生成部105は、ユーザ90の位置の時系列データに基づいて、ユーザ90が道路92を横断する際の移動の軌跡を表す情報を解析情報として生成してもよい。このように、解析情報として、移動の軌跡を表す情報が生成されることにより、どのように横断が行われたかを理解する上で有益な情報を得ることができる。また、解析情報生成部105は、移動の軌跡に代えて、又は、移動の軌跡とともに、解析情報として、横断距離(すなわち、道路92を横断する方向にユーザ90が横断開始位置から進んだ距離)の推移を示す情報を生成してもよい。このような情報が生成された場合も、どのように横断が行われたかを理解する上で有益な情報を得ることができる。The analysis information generating unit 105 may also generate, as the analysis information, information representing the trajectory of the user 90's movement when crossing the road 92, based on the time series data of the user 90's position. In this way, by generating information representing the trajectory of the movement as the analysis information, it is possible to obtain information that is useful for understanding how the crossing was performed. The analysis information generating unit 105 may also generate, as the analysis information, information indicating the progress of the crossing distance (i.e., the distance traveled by the user 90 from the crossing start position in the direction crossing the road 92) instead of or together with the trajectory of the movement. When such information is generated, it is also possible to obtain information that is useful for understanding how the crossing was performed.

また、解析情報生成部105は、ユーザ90が道路92の横断に要した時間を解析情報として生成してもよい。例えば、解析情報生成部105は、シミュレーションの開始時点又はスタート位置94からの移動が開始された時点(道路92にユーザ90が進入した時点)から、ゴール位置95に到達するまでの時間を示す情報を解析情報として生成する。このように、解析情報としてユーザ90が道路92の横断に要した時間を示す情報が生成されることにより、どのように横断が行われたかを理解する上で有益な情報を得ることができる。 Furthermore, the analysis information generating unit 105 may generate, as the analysis information, the time taken by the user 90 to cross the road 92. For example, the analysis information generating unit 105 generates, as the analysis information, information indicating the time from the start of the simulation or the start of movement from the start position 94 (the point at which the user 90 enters the road 92) to reaching the goal position 95. In this way, by generating, as the analysis information, information indicating the time taken by the user 90 to cross the road 92, it is possible to obtain information that is useful for understanding how the crossing was performed.

解析情報生成部105は、さらに、視線方向取得部103が取得した視線方向情報の時系列データに基づいて、ユーザ90が道路92を横断する際の視線の方向についての解析情報を生成してもよい。例えば、解析情報生成部105は、視線の推移を表す情報を生成してもよいし、所定の方向(例えば、車両93が向かってくる方向)に視線が向いている時間を示す情報を生成してもよい。このように、視線の方向についての解析情報が生成されることにより、ユーザ90がどこを見ながら横断を行ったかを理解する上で有益な情報を得ることができる。The analysis information generating unit 105 may further generate analysis information about the direction of the gaze when the user 90 crosses the road 92, based on the time series data of the gaze direction information acquired by the gaze direction acquiring unit 103. For example, the analysis information generating unit 105 may generate information representing the shift in the gaze, or may generate information indicating the time during which the gaze is directed in a specified direction (e.g., the direction in which the vehicle 93 is approaching). In this way, by generating analysis information about the gaze direction, it is possible to obtain information that is useful for understanding where the user 90 was looking while crossing the road 92.

なお、解析情報の具体例についていくつか述べたが、解析情報生成部105が生成する解析情報はこれらに限られない。また、解析情報生成部105が生成する解析情報は、グラフ又は交通環境のマップなどを用いたビジュアルデータあってもよい。ビジュアルデータが生成されることにより、解析情報の内容を視覚的に理解することが可能となる。Although some specific examples of analytical information have been described above, the analytical information generated by the analytical information generating unit 105 is not limited to these. In addition, the analytical information generated by the analytical information generating unit 105 may be visual data using graphs or maps of the traffic environment. By generating visual data, it becomes possible to visually understand the contents of the analytical information.

図6は、解析情報生成部105が生成する解析情報についてのビジュアルデータの例を示す模式図である。図6に示した例では、ユーザ90が道路92を横断する際の移動の軌跡96aがマップ97上に示されている。なお、図6に示した例では、白丸の点として表されたユーザ90の移動の軌跡96aの他に、黒丸の点として表された車両93の移動の軌跡96bがマップ97上に示されている。 Figure 6 is a schematic diagram showing an example of visual data regarding the analysis information generated by the analysis information generating unit 105. In the example shown in Figure 6, a movement trajectory 96a of a user 90 crossing a road 92 is shown on a map 97. Note that in the example shown in Figure 6, in addition to the movement trajectory 96a of the user 90 shown as a white circle, a movement trajectory 96b of a vehicle 93 shown as a black circle is also shown on the map 97.

図7は、解析情報生成部105が生成する解析情報についてのビジュアルデータの別の例を示す模式図である。図7は、横断距離の推移を示すグラフの例を示している。図7に示したグラフにおいて、横軸は、シミュレーションの開始からの経過時間を示し、縦軸は、道路92を横断する方向にユーザ90がスタート位置94から進んだ距離を示している。 Figure 7 is a schematic diagram showing another example of visual data regarding the analysis information generated by the analysis information generating unit 105. Figure 7 shows an example of a graph showing the progress of the crossing distance. In the graph shown in Figure 7, the horizontal axis indicates the elapsed time from the start of the simulation, and the vertical axis indicates the distance traveled by the user 90 from the starting position 94 in the direction crossing the road 92.

図8は、解析情報生成部105が生成する解析情報についてのビジュアルデータのさらに別の例を示す模式図である。図8は、横断時の視線の推移を示すグラフの例を示している。図8に示したグラフにおいて、横軸は、視線の水平方向の角度を示し、縦軸は、シミュレーションの開始からの経過時間を示している。なお、ここでは、横軸は、視線の水平方向の角度であるが、視線の鉛直方向の角度であってもよい。 Figure 8 is a schematic diagram showing yet another example of visual data for the analysis information generated by the analysis information generation unit 105. Figure 8 shows an example of a graph showing the change in gaze when crossing. In the graph shown in Figure 8, the horizontal axis indicates the horizontal angle of the gaze, and the vertical axis indicates the elapsed time from the start of the simulation. Note that here, the horizontal axis is the horizontal angle of the gaze, but it may also be the vertical angle of the gaze.

図9は、解析情報生成部105が生成する解析情報についてのビジュアルデータのさらに別の例を示す模式図である。図9は、ユーザ90が道路92の横断に要した時間を年齢層別にプロットしたグラフの例を示している。つまり、図9に示した例では、グループ化部107によって年齢に応じてグループ化された解析情報が示されている。図9に示したグラフにおいて、横軸は、ユーザ90が道路92の横断に要した時間(横断時間)を示し、縦軸は、年齢層を示している。図9に示したグラフにおいて、各丸印が各ユーザに対応している。ただし、ハッチングされた丸印は、同一年齢層に分類されたユーザ90の横断時間の平均点を示している。このように解析情報生成部105は、複数のユーザについての解析情報に対して統計処理を行い、統計処理の結果を新たな解析情報として生成してもよい。なお、解析情報生成部105は、同一のユーザについての過去の自身の結果と、最新の結果とを表示するビジュアルデータを生成してもよい。すなわち、同一のユーザ90についてのグループ化された解析情報のグラフを生成してもよい。9 is a schematic diagram showing yet another example of visual data on the analysis information generated by the analysis information generating unit 105. FIG. 9 shows an example of a graph in which the time taken by the user 90 to cross the road 92 is plotted by age group. That is, in the example shown in FIG. 9, the analysis information grouped according to age by the grouping unit 107 is shown. In the graph shown in FIG. 9, the horizontal axis indicates the time taken by the user 90 to cross the road 92 (crossing time), and the vertical axis indicates the age group. In the graph shown in FIG. 9, each circle corresponds to each user. However, the hatched circle indicates the average crossing time of the users 90 classified into the same age group. In this way, the analysis information generating unit 105 may perform statistical processing on the analysis information for multiple users and generate the results of the statistical processing as new analysis information. In addition, the analysis information generating unit 105 may generate visual data that displays the past results and the latest results for the same user. That is, a graph of the grouped analysis information for the same user 90 may be generated.

なお、解析情報出力部106は、様々なビジュアルデータを同時に表示するよう出力を制御してもよい。また、その際、解析情報出力部106は、いずれかのビジュアルデータにおいて、ある時点のデータが選択されると、データの対応関係を理解しやすくすべく、他のビジュアルデータにおける同じ時点のデータを強調して表示してもよい。The analysis information output unit 106 may control the output so as to simultaneously display various visual data. In addition, in this case, when data at a certain point in time is selected in any of the visual data, the analysis information output unit 106 may highlight and display data at the same point in time in other visual data so as to make it easier to understand the correspondence between the data.

次に、解析装置100のハードウェア構成について説明する。図10は、解析装置100のハードウェア構成の一例を示す模式図である。図10に示すように、解析装置100は、入出力インタフェース150、ネットワークインタフェース151、メモリ152、及びプロセッサ153を含む。Next, the hardware configuration of the analysis device 100 will be described. FIG. 10 is a schematic diagram showing an example of the hardware configuration of the analysis device 100. As shown in FIG. 10, the analysis device 100 includes an input/output interface 150, a network interface 151, a memory 152, and a processor 153.

入出力インタフェース150は、解析装置100と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース150には、キーボードなどの入力装置や、ディスプレイなどの出力装置が接続される。The input/output interface 150 is an interface for connecting the analysis device 100 to an input/output device. For example, an input device such as a keyboard and an output device such as a display are connected to the input/output interface 150.

ネットワークインタフェース151は、ヘッドマウントディスプレイ200などの他の任意の装置と通信するために使用される。ネットワークインタフェース151は、例えば、ネットワークインタフェースカード(NIC)を含んでもよい。The network interface 151 is used to communicate with any other device, such as the head mounted display 200. The network interface 151 may include, for example, a network interface card (NIC).

メモリ152は、例えば、揮発性メモリ及び不揮発性メモリの組み合わせによって構成される。メモリ152は、プロセッサ153により実行される、1以上の命令を含むソフトウェア(コンピュータプログラム)、及び解析装置100の各種処理に用いるデータなどを格納するために使用される。The memory 152 is configured, for example, by a combination of volatile memory and non-volatile memory. The memory 152 is used to store software (computer programs) including one or more instructions executed by the processor 153, and data used for various processes of the analysis device 100.

プロセッサ153は、メモリ152からソフトウェア(コンピュータプログラム)を読み出して実行することで、図4に示した各構成要素の処理を行う。プロセッサ153は、例えば、マイクロプロセッサ、MPU(Micro Processor Unit)、又はCPU(Central Processing Unit)などであってもよい。プロセッサ153は、複数のプロセッサを含んでもよい。The processor 153 reads and executes software (computer programs) from the memory 152 to process each component shown in FIG. 4. The processor 153 may be, for example, a microprocessor, a microprocessor unit (MPU), or a central processing unit (CPU). The processor 153 may include multiple processors.

このように、解析装置100は、コンピュータとしての機能を備えている。なお、ヘッドマウントディスプレイ200も同様に、プロセッサ及びメモリを備え、コンピュータとしての機能を備えていてもよい。したがって、ヘッドマウントディスプレイ200の機能がプロセッサによるプログラムの実行により実現されてもよい。In this way, the analysis device 100 has the functionality of a computer. The head mounted display 200 may also have a processor and memory, and have the functionality of a computer. Therefore, the functionality of the head mounted display 200 may be realized by the execution of a program by the processor.

また、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。In addition, the above-mentioned program can be stored and supplied to a computer using various types of non-transitory computer readable media. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer readable media include magnetic recording media (e.g., flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (e.g., magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R/Ws, and semiconductor memories (e.g., mask ROMs, PROMs (Programmable ROMs), EPROMs (Erasable PROMs), flash ROMs, and RAMs (Random Access Memory)). The program may be provided to the computer by various types of transitory computer readable media. Examples of the transitory computer readable medium include an electric signal, an optical signal, and an electromagnetic wave. The transitory computer readable medium may provide the program to the computer via a wired communication path such as an electric wire or an optical fiber, or via a wireless communication path.

次に、解析装置100の動作について説明する。図11は、解析装置100の動作の流れの一例を示すフローチャートである。以下、図11を参照しつつ、動作の流れの一例について説明する。Next, the operation of the analysis device 100 will be described. FIG. 11 is a flowchart showing an example of the flow of the operation of the analysis device 100. Hereinafter, an example of the flow of the operation will be described with reference to FIG. 11.

ステップS100において、ユーザ情報取得部101が、被験者であるユーザ90のユーザ情報を取得する。In step S100, the user information acquisition unit 101 acquires user information of the subject, user 90.

次に、ステップS101において、シミュレーションの開始が指示されたかが判定される。シミュレーションの開始が指示されると(ステップS101でYes)、処理はステップS102へ移行する。Next, in step S101, it is determined whether a command to start a simulation has been issued. If a command to start a simulation has been issued (Yes in step S101), the process proceeds to step S102.

ステップS102において、解析装置100は、ユーザ90の位置情報及び視線方向情報を取得しつつ、仮想の交通環境をヘッドマウントディスプレイ200に表示させるよう制御する。すなわち、ステップS102では、位置情報取得部102による位置情報の取得処理と、視線方向取得部103による視線方向情報の取得処理と、こられの情報を用いた表示制御部104による仮想現実空間の表示処理とが並行して行われる。この間、ユーザ90は、仮想現実空間の道路を横断するよう移動する。In step S102, the analysis device 100 acquires position information and gaze direction information of the user 90 and controls the head mounted display 200 to display a virtual traffic environment. That is, in step S102, the position information acquisition unit 102 acquires position information, the gaze direction acquisition unit 103 acquires gaze direction information, and the display control unit 104 uses this information to display the virtual reality space, all in parallel. During this time, the user 90 moves to cross the road in the virtual reality space.

次に、ステップS103において、シミュレーションの終了条件が満たされたか否かの判定が行われる。例えば、仮想現実空間において、ユーザ90が、ゴール位置95に到達した場合、又は、車両93と衝突した場合、シミュレーションの終了条件が満たされたと判定される。シミュレーションの終了条件が満たされると(ステップS103でYes)、処理はステップS104へ移行する。Next, in step S103, it is determined whether or not a simulation end condition has been satisfied. For example, when the user 90 reaches the goal position 95 in the virtual reality space or collides with the vehicle 93, it is determined that the simulation end condition has been satisfied. When the simulation end condition has been satisfied (Yes in step S103), the process proceeds to step S104.

ステップS104において、解析情報生成部105は、ユーザ90による横断についての解析情報を生成する。解析情報生成部105は、例えば、上述した解析情報のいずれか一つ又は複数を生成する。In step S104, the analysis information generating unit 105 generates analysis information about the crossing by the user 90. The analysis information generating unit 105 generates, for example, one or more of the analysis information described above.

次に、ステップS105において、解析情報出力部106は、解析情報生成部105が生成した解析情報をディスプレイなどに出力する。なお、ステップS105に先だって、ステップS104で生成された解析情報に対して、グループ化部107によるグループ化が行われてもよい。この場合、ステップS105で、解析情報出力部106は、グループ化部107によってグループ化された解析情報を出力してもよい。Next, in step S105, the analysis information output unit 106 outputs the analysis information generated by the analysis information generation unit 105 to a display or the like. Note that prior to step S105, the analysis information generated in step S104 may be grouped by the grouping unit 107. In this case, in step S105, the analysis information output unit 106 may output the analysis information grouped by the grouping unit 107.

以上、実施の形態について説明した。解析装置100によれば、実空間におけるユーザの位置情報を用いて、ユーザによる道路の横断についての解析情報が生成される。このため、解析装置100によれば、実際の交通環境で行われる歩行に近い歩行のデータを用いて、横断についての解析情報を生成することができる。このため、ユーザによる道路の横断を適切にシミュレーションして解析することができる。 The above describes the embodiment. According to the analysis device 100, analysis information about a user's crossing of a road is generated using the user's position information in real space. Therefore, according to the analysis device 100, analysis information about crossing can be generated using walking data that is similar to walking performed in an actual traffic environment. Therefore, it is possible to appropriately simulate and analyze the user's crossing of a road.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。The present invention is not limited to the above-described embodiments and can be modified as appropriate without departing from the spirit and scope of the invention.

また、上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。In addition, some or all of the above embodiments may be described as follows, but are not limited to:

(付記1)
実空間におけるユーザの位置情報を取得する位置情報取得手段と、
道路を車両が走行する仮想現実空間の映像を表示するよう制御する表示制御手段と、
前記仮想現実空間で前記ユーザが前記道路を横断する際の、前記位置情報に基づいて特定される前記仮想現実空間内の前記ユーザの位置の時系列データに基づいて、前記ユーザの横断に関する解析情報を生成する解析情報生成手段と
を有する解析装置。
(付記2)
前記解析情報生成手段は、前記仮想現実空間において前記ユーザが前記道路を走行する前記車両と衝突したか否かを前記時系列データに基づいて判定し、前記解析情報として、前記ユーザによる前記車両との衝突の有無を示す情報を生成する
付記1に記載の解析装置。
(付記3)
前記解析情報生成手段は、前記ユーザが前記車両と衝突したと判定された場合、所定の時点から衝突の発生時点までの時間を示す情報を前記解析情報として生成する
付記2に記載の解析装置。
(付記4)
前記解析情報生成手段は、前記ユーザが前記車両と衝突したと判定された場合、衝突が発生した地点を示す情報を前記解析情報として生成する
付記2又は3に記載の解析装置。
(付記5)
前記解析情報生成手段は、前記時系列データに基づいて、前記ユーザが前記道路を横断する際の移動の軌跡を表す情報を前記解析情報として生成する
付記1乃至4のいずれか一項に記載の解析装置。
(付記6)
前記解析情報生成手段は、前記ユーザが前記道路の横断に要した時間を前記解析情報として生成する
付記1乃至5のいずれか一項に記載の解析装置。
(付記7)
実空間における前記ユーザの視線の方向を表す視線方向情報を取得する視線方向取得手段をさらに有し、
前記解析情報生成手段は、さらに、前記視線方向情報の時系列データに基づいて、前記ユーザが前記道路を横断する際の視線の方向についての解析情報を生成する
付記1乃至6のいずれか一項に記載の解析装置。
(付記8)
前記解析情報生成手段が生成した複数のユーザについての前記解析情報を前記ユーザの年齢又は性別に応じてグループ化する同種ユーザグループ化手段をさらに有する
付記1乃至7のいずれか一項に記載の解析装置。
(付記9)
前記解析情報生成手段が生成した同一のユーザについての前記解析情報をグループ化する同一ユーザグループ化手段をさらに有する
付記1乃至8のいずれか一項に記載の解析装置。
(付記10)
実空間におけるユーザの位置情報を取得し、
道路を車両が走行する仮想現実空間の映像を表示するよう制御し、
前記仮想現実空間で前記ユーザが前記道路を横断する際の、前記位置情報に基づいて特定される前記仮想現実空間内の前記ユーザの位置の時系列データに基づいて、前記ユーザの横断に関する解析情報を生成する
解析方法。
(付記11)
実空間におけるユーザの位置情報を取得する位置情報取得ステップと、
道路を車両が走行する仮想現実空間の映像を表示するよう制御する表示制御ステップと、
前記仮想現実空間で前記ユーザが前記道路を横断する際の、前記位置情報に基づいて特定される前記仮想現実空間内の前記ユーザの位置の時系列データに基づいて、前記ユーザの横断に関する解析情報を生成する解析情報生成ステップと
をコンピュータに実行させるプログラムが格納された非一時的なコンピュータ可読媒体。
(Appendix 1)
A position information acquisition means for acquiring position information of a user in a real space;
a display control means for controlling the display of an image of a virtual reality space in which a vehicle is traveling on a road;
and an analysis information generation means for generating analysis information regarding the user's crossing of the road based on time-series data of the user's position in the virtual reality space identified based on the position information when the user crosses the road in the virtual reality space.
(Appendix 2)
The analysis device described in Appendix 1, wherein the analysis information generation means determines whether or not the user has collided with the vehicle traveling on the road in the virtual reality space based on the time series data, and generates, as the analysis information, information indicating whether or not the user has collided with the vehicle.
(Appendix 3)
The analysis device according to claim 2, wherein the analysis information generating means generates, when it is determined that the user has collided with the vehicle, information indicating a time from a predetermined point in time to a point in time when the collision occurred as the analysis information.
(Appendix 4)
The analysis device according to claim 2 or 3, wherein the analysis information generating means generates, when it is determined that the user has collided with the vehicle, information indicating a point at which the collision occurred as the analysis information.
(Appendix 5)
The analysis device according to any one of claims 1 to 4, wherein the analysis information generating means generates, as the analysis information, information representing a trajectory of movement of the user when crossing the road, based on the time-series data.
(Appendix 6)
The analysis device according to any one of claims 1 to 5, wherein the analysis information generating means generates, as the analysis information, a time taken by the user to cross the road.
(Appendix 7)
The present invention further includes a gaze direction acquisition means for acquiring gaze direction information representing a gaze direction of the user in a real space,
The analysis device according to any one of claims 1 to 6, wherein the analysis information generating means further generates analysis information about a gaze direction when the user crosses the road, based on time series data of the gaze direction information.
(Appendix 8)
The analysis device according to any one of appendices 1 to 7, further comprising a homogeneous user grouping means for grouping the analysis information for a plurality of users generated by the analysis information generation means according to the age or gender of the users.
(Appendix 9)
The analysis device according to any one of claims 1 to 8, further comprising: same-user grouping means for grouping the analysis information generated by the analysis information generating means for the same user.
(Appendix 10)
Acquire the user's location information in the real space;
It controls the display of images of a virtual reality space in which a vehicle is traveling on a road,
generating analytical information regarding the user's crossing based on time-series data of the user's position in the virtual reality space identified based on the position information when the user crosses the road in the virtual reality space.
(Appendix 11)
A position information acquisition step of acquiring position information of a user in a real space;
a display control step of controlling to display an image of a virtual reality space in which a vehicle is traveling on a road;
and an analytical information generating step of generating analytical information regarding the user's crossing based on time series data of the user's position in the virtual reality space identified based on the position information when the user crosses the road in the virtual reality space.

以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。The present invention has been described above with reference to the embodiment, but the present invention is not limited to the above. Various modifications that can be understood by a person skilled in the art can be made to the configuration and details of the present invention within the scope of the invention.

この出願は、2021年3月11日に出願された日本出願特願2021-039149を基礎とする優先権を主張し、その開示の全てをここに取り込む。 This application claims priority based on Japanese Patent Application No. 2021-039149, filed on March 11, 2021, the disclosure of which is incorporated herein in its entirety.

1 解析装置
2 位置情報取得部
3 表示制御部
4 解析情報生成部
10 解析システム
90 ユーザ
91 領域
92 道路
93 車両
94 スタート位置
95 ゴール位置
96a 軌跡
96b 軌跡
97 マップ
100 解析装置
101 ユーザ情報取得部
102 位置情報取得部
103 視線方向取得部
104 表示制御部
105 解析情報生成部
106 解析情報出力部
107 グループ化部
150 入出力インタフェース
151 ネットワークインタフェース
152 メモリ
153 プロセッサ
200 ヘッドマウントディスプレイ
1 Analysis device 2 Position information acquisition unit 3 Display control unit 4 Analysis information generation unit 10 Analysis system 90 User 91 Area 92 Road 93 Vehicle 94 Start position 95 Goal position 96a Trajectory 96b Trajectory 97 Map 100 Analysis device 101 User information acquisition unit 102 Position information acquisition unit 103 Line of sight direction acquisition unit 104 Display control unit 105 Analysis information generation unit 106 Analysis information output unit 107 Grouping unit 150 Input/output interface 151 Network interface 152 Memory 153 Processor 200 Head mounted display

Claims (9)

実空間におけるユーザの位置情報を取得する位置情報取得手段と、
道路を車両が走行する仮想現実空間の映像を表示するよう制御する表示制御手段と、
前記仮想現実空間で前記ユーザが前記道路を横断する際の、前記位置情報に基づいて特定される前記仮想現実空間内の前記ユーザの位置の時系列データに基づいて、前記ユーザの横断に関する解析情報を生成する解析情報生成手段と
を有し、
前記解析情報生成手段は、前記時系列データに基づいて、前記ユーザが前記道路を横断する際の2次元の移動の軌跡を交通環境のマップ上に示すビジュアルデータを前記解析情報として生成する
解析装置。
A position information acquisition means for acquiring position information of a user in a real space;
a display control means for controlling the display of an image of a virtual reality space in which a vehicle is traveling on a road;
and an analysis information generating means for generating analysis information regarding the user's crossing of the road based on time-series data of the user's position in the virtual reality space specified based on the position information when the user crosses the road in the virtual reality space ,
The analysis information generating means generates, as the analysis information, visual data showing a two-dimensional movement trajectory of the user when crossing the road on a map of a traffic environment based on the time series data.
Analysis equipment.
前記解析情報生成手段は、前記仮想現実空間において前記ユーザが前記道路を走行する前記車両と衝突したか否かを前記時系列データに基づいて判定し、前記解析情報として、前記ユーザによる前記車両との衝突の有無を示す情報を生成する
請求項1に記載の解析装置。
The analysis device according to claim 1 , wherein the analysis information generating means determines whether or not the user has collided with the vehicle traveling on the road in the virtual reality space based on the time series data, and generates, as the analysis information, information indicating whether or not the user has collided with the vehicle.
前記解析情報生成手段は、前記ユーザが前記車両と衝突したと判定された場合、所定の時点から衝突の発生時点までの時間を示す情報を前記解析情報として生成する
請求項2に記載の解析装置。
The analysis device according to claim 2 , wherein the analysis information generating means generates, when it is determined that the user has collided with the vehicle, information indicating a time from a predetermined point in time to a point in time when the collision occurred as the analysis information.
前記解析情報生成手段は、前記ユーザが前記車両と衝突したと判定された場合、衝突が発生した地点を示す情報を前記解析情報として生成する
請求項2又は3に記載の解析装置。
The analysis device according to claim 2 , wherein the analysis information generating means generates, when it is determined that the user has collided with the vehicle, information indicating a point at which the collision occurred as the analysis information.
前記解析情報生成手段は、前記ユーザが前記道路の横断に要した時間を前記解析情報として生成する
請求項1乃至のいずれか一項に記載の解析装置。
The analysis device according to claim 1 , wherein the analysis information generating means generates, as the analysis information, a time taken by the user to cross the road.
実空間における前記ユーザの視線の方向を表す視線方向情報を取得する視線方向取得手段をさらに有し、
前記解析情報生成手段は、さらに、前記視線方向情報の時系列データに基づいて、前記ユーザが前記道路を横断する際の視線の方向についての解析情報を生成する
請求項1乃至のいずれか一項に記載の解析装置。
The present invention further includes a gaze direction acquisition means for acquiring gaze direction information representing a gaze direction of the user in a real space,
The analysis device according to claim 1 , wherein the analysis information generating means further generates analysis information about a direction of gaze of the user when crossing the road, based on time-series data of the gaze direction information.
前記解析情報生成手段が生成した複数のユーザについての前記解析情報を前記ユーザの年齢又は性別に応じてグループ化する同種ユーザグループ化手段をさらに有する
請求項1乃至のいずれか一項に記載の解析装置。
The analysis device according to claim 1 , further comprising a homogeneous user grouping means for grouping the analysis information for a plurality of users generated by the analysis information generating means according to an age or a sex of the users.
実空間におけるユーザの位置情報を取得し、
道路を車両が走行する仮想現実空間の映像を表示するよう制御し、
前記仮想現実空間で前記ユーザが前記道路を横断する際の、前記位置情報に基づいて特定される前記仮想現実空間内の前記ユーザの位置の時系列データに基づいて、前記ユーザの横断に関する解析情報を生成し、
前記解析情報の生成では、前記時系列データに基づいて、前記ユーザが前記道路を横断する際の2次元の移動の軌跡を交通環境のマップ上に示すビジュアルデータを前記解析情報として生成する
解析方法。
Acquire the user's location information in the real space;
It controls the display of images of a virtual reality space in which a vehicle is traveling on a road,
generating analysis information regarding the user's crossing of the road based on time-series data of the user's position in the virtual reality space identified based on the position information when the user crosses the road in the virtual reality space ;
In generating the analysis information, visual data showing a two-dimensional movement trajectory of the user when crossing the road on a map of a traffic environment is generated as the analysis information based on the time series data.
Analysis method.
実空間におけるユーザの位置情報を取得する位置情報取得ステップと、
道路を車両が走行する仮想現実空間の映像を表示するよう制御する表示制御ステップと、
前記仮想現実空間で前記ユーザが前記道路を横断する際の、前記位置情報に基づいて特定される前記仮想現実空間内の前記ユーザの位置の時系列データに基づいて、前記ユーザの横断に関する解析情報を生成する解析情報生成ステップと
をコンピュータに実行させ
前記解析情報生成ステップでは、前記時系列データに基づいて、前記ユーザが前記道路を横断する際の2次元の移動の軌跡を交通環境のマップ上に示すビジュアルデータを前記解析情報として生成する
プログラム。
A position information acquisition step of acquiring position information of a user in a real space;
a display control step of controlling to display an image of a virtual reality space in which a vehicle is traveling on a road;
an analysis information generating step of generating analysis information regarding the user's crossing based on time-series data of the user's position in the virtual reality space specified based on the position information when the user crosses the road in the virtual reality space ;
In the analysis information generating step, visual data showing a two-dimensional movement trajectory of the user when crossing the road on a map of a traffic environment is generated as the analysis information based on the time series data.
program.
JP2023505176A 2021-03-11 2022-01-19 Analysis device, analysis method, and program Active JP7589795B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021039149 2021-03-11
JP2021039149 2021-03-11
PCT/JP2022/001863 WO2022190658A1 (en) 2021-03-11 2022-01-19 Analysis device, analysis method, and non-temporary computer-readable medium storing program

Publications (3)

Publication Number Publication Date
JPWO2022190658A1 JPWO2022190658A1 (en) 2022-09-15
JPWO2022190658A5 JPWO2022190658A5 (en) 2023-11-07
JP7589795B2 true JP7589795B2 (en) 2024-11-26

Family

ID=83226619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023505176A Active JP7589795B2 (en) 2021-03-11 2022-01-19 Analysis device, analysis method, and program

Country Status (2)

Country Link
JP (1) JP7589795B2 (en)
WO (1) WO2022190658A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002132241A (en) 2000-10-27 2002-05-09 Nippon Telegr & Teleph Corp <Ntt> Virtual space display system based on real space
JP2007323009A (en) 2006-06-05 2007-12-13 Toyota Motor Corp Driving aptitude inspection system and vehicle driving aptitude inspection execution device
JP2008148952A (en) 2006-12-18 2008-07-03 Isuzu Motors Ltd Driving aptitude diagnostic device, driving aptitude diagnostic program, and storage medium storing driving aptitude diagnostic program
JP2012002950A (en) 2010-06-15 2012-01-05 Akita Univ Walking environment simulator
US20200390380A1 (en) 2019-06-05 2020-12-17 Tsinghua University Testing method and testing system for human stress reaction, and computer-readable storage medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101821592B1 (en) * 2016-11-16 2018-01-25 그리드스페이스(주) Walking simulator system using virtual reality and method for calculating pedestrian position thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002132241A (en) 2000-10-27 2002-05-09 Nippon Telegr & Teleph Corp <Ntt> Virtual space display system based on real space
JP2007323009A (en) 2006-06-05 2007-12-13 Toyota Motor Corp Driving aptitude inspection system and vehicle driving aptitude inspection execution device
JP2008148952A (en) 2006-12-18 2008-07-03 Isuzu Motors Ltd Driving aptitude diagnostic device, driving aptitude diagnostic program, and storage medium storing driving aptitude diagnostic program
JP2012002950A (en) 2010-06-15 2012-01-05 Akita Univ Walking environment simulator
US20200390380A1 (en) 2019-06-05 2020-12-17 Tsinghua University Testing method and testing system for human stress reaction, and computer-readable storage medium

Also Published As

Publication number Publication date
WO2022190658A1 (en) 2022-09-15
JPWO2022190658A1 (en) 2022-09-15

Similar Documents

Publication Publication Date Title
US10568502B2 (en) Visual disability detection system using virtual reality
JP4642538B2 (en) Image processing method and image processing apparatus
JP2020513957A5 (en)
KR20160046495A (en) Method and device to display screen in response to event related to external obejct
CN108303698B (en) Tracking system, tracking device and tracking method
US20170249822A1 (en) Apparatus configured to issue warning to wearer of display, and method therefor
JP6738641B2 (en) Simulation control device and simulation control program
CN112449708A (en) Virtual reality system, program, and computer-readable storage medium
Matviienko et al. QuantiBike: quantifying perceived cyclists' safety via head movements in virtual reality and outdoors
US11859981B2 (en) Physical event triggering of virtual events
JP7589795B2 (en) Analysis device, analysis method, and program
US20190155024A1 (en) Image display device and image display method
JP2007004713A (en) Image processing method and image processing apparatus
JP7261370B2 (en) Information processing device, information processing system, information processing method, and computer program
KR102586470B1 (en) Apparatus for preventing player collision accident
KR20230133623A (en) A system for sharing a location between users in a VR space and a method for preventing collisions between users in a VR space using the same
KR20220109920A (en) Experience system of online multi-players
JP6496391B1 (en) Display system and display method
KR102030606B1 (en) Apparatus and method of realtime gait examination using infrared camera
CN116249573A (en) Movement improvement guidance device, movement improvement guidance method, and movement improvement guidance program
JP6481596B2 (en) Evaluation support device for vehicle head-up display
CN118537761B (en) Obstacle detection method, device, equipment and readable storage medium
US12141344B2 (en) Improving accuracy of interactions for gaze-enabled AR objects when in motion
US20250180360A1 (en) Information processing apparatus, method, and storage medium
US20250329119A1 (en) Virtual object display device and virtual object display method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230809

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241028

R150 Certificate of patent or registration of utility model

Ref document number: 7589795

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150