JP7589795B2 - Analysis device, analysis method, and program - Google Patents
Analysis device, analysis method, and program Download PDFInfo
- Publication number
- JP7589795B2 JP7589795B2 JP2023505176A JP2023505176A JP7589795B2 JP 7589795 B2 JP7589795 B2 JP 7589795B2 JP 2023505176 A JP2023505176 A JP 2023505176A JP 2023505176 A JP2023505176 A JP 2023505176A JP 7589795 B2 JP7589795 B2 JP 7589795B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- analysis
- analysis information
- road
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Entrepreneurship & Innovation (AREA)
- Processing Or Creating Images (AREA)
Description
本発明は解析装置、解析方法、及びプログラムに関する。 The present invention relates to an analysis device, an analysis method, and a program.
交通事故の発生について検証するための様々な技術が提案されている。例えば、特許文献1は、車道の横断を擬似体験することができるシミュレータについて開示している。このシミュレータは、被験者に対してコンピュータ・グラフィックスにより作成した仮想交通環境を見せた状態で、被験者の歩行距離などを測定し、その測定結果を利用して被験者の車道横断状況を判定する。Various technologies have been proposed to verify the occurrence of traffic accidents. For example,
上述した文献に記載されたシミュレータにおいて、被験者は、トレッドミルの前方に置かれたスクリーンに写された映像を見ながら、当該トレッドミルの上で歩行を行う。このため、この被験者の横断状況の判定に用いられる歩行距離は、トレッドミル上の歩行についての測定結果である。しかしながら、トレッドミルの上での歩行は、自由な歩行が可能な地面の上での歩行ではないため、当該シミュレータで測定される歩行は、被験者が実際の交通環境を歩行する際の歩行を適切に再現できていない可能性がある。例えば、トレッドミルの利用に慣れていない被験者は、実際の交通環境を歩行する際の歩行速度よりも遅い速度で、トレッドミル上を歩行する可能性がある。実際の交通環境を歩行する際の歩行速度による歩行を再現できない場合、適切なシミュレーション結果が得られない。In the simulator described in the above-mentioned document, the subject walks on the treadmill while watching an image projected on a screen placed in front of the treadmill. Therefore, the walking distance used to determine the subject's crossing situation is a measurement result of walking on the treadmill. However, since walking on a treadmill is not walking on a ground where free walking is possible, the walking measured by the simulator may not adequately reproduce the walking of the subject when walking in an actual traffic environment. For example, a subject who is not accustomed to using a treadmill may walk on the treadmill at a speed slower than the walking speed when walking in an actual traffic environment. If walking at the walking speed when walking in an actual traffic environment cannot be reproduced, appropriate simulation results cannot be obtained.
そこで、本明細書に開示される実施形態が達成しようとする目的の1つは、ユーザによる道路の横断を適切にシミュレーションして解析することができる解析装置、解析方法、及びプログラムを提供することにある。Therefore, one of the objectives that the embodiments disclosed in this specification aim to achieve is to provide an analysis device, an analysis method, and a program that can appropriately simulate and analyze a user crossing a road.
第1の態様にかかる解析装置は、
実空間におけるユーザの位置情報を取得する位置情報取得部と、
道路を車両が走行する仮想現実空間の映像を表示するよう制御する表示制御部と、
前記仮想現実空間で前記ユーザが前記道路を横断する際の、前記位置情報に基づいて特定される前記仮想現実空間内の前記ユーザの位置の時系列データに基づいて、前記ユーザの横断に関する解析情報を生成する解析情報生成部と
を有する。
The analysis device according to the first aspect comprises:
a position information acquisition unit that acquires position information of a user in a real space;
a display control unit that controls to display an image of a virtual reality space in which a vehicle is traveling on a road;
and an analysis information generation unit that generates analysis information regarding the user's crossing of the road based on time series data of the user's position in the virtual reality space identified based on the position information when the user crosses the road in the virtual reality space.
第2の態様にかかる解析方法では、
実空間におけるユーザの位置情報を取得し、
道路を車両が走行する仮想現実空間の映像を表示するよう制御し、
前記仮想現実空間で前記ユーザが前記道路を横断する際の、前記位置情報に基づいて特定される前記仮想現実空間内の前記ユーザの位置の時系列データに基づいて、前記ユーザの横断に関する解析情報を生成する。
In the analysis method according to the second aspect,
Acquire the user's location information in the real space;
It controls the display of images of a virtual reality space in which a vehicle is traveling on a road,
Analysis information regarding the user's crossing of the road is generated based on time series data of the user's position in the virtual reality space identified based on the position information when the user crosses the road in the virtual reality space.
第3の態様にかかるプログラムは、
実空間におけるユーザの位置情報を取得する位置情報取得ステップと、
道路を車両が走行する仮想現実空間の映像を表示するよう制御する表示制御ステップと、
前記仮想現実空間で前記ユーザが前記道路を横断する際の、前記位置情報に基づいて特定される前記仮想現実空間内の前記ユーザの位置の時系列データに基づいて、前記ユーザの横断に関する解析情報を生成する解析情報生成ステップと
をコンピュータに実行させる。
A program according to a third aspect includes:
A position information acquisition step of acquiring position information of a user in a real space;
a display control step of controlling to display an image of a virtual reality space in which a vehicle is traveling on a road;
and an analytical information generating step of generating analytical information regarding the user's crossing of the road based on time series data of the user's position in the virtual reality space identified based on the position information when the user crosses the road in the virtual reality space.
上述の態様によれば、ユーザによる道路の横断を適切にシミュレーションして解析することができる解析装置、解析方法、及びプログラムを提供することができる。 According to the above-mentioned aspects, it is possible to provide an analysis device, an analysis method, and a program that can appropriately simulate and analyze a user crossing a road.
<実施形態の概要>
実施形態の詳細な説明に先立って、実施形態の概要を説明する。図1は、実施の形態の概要にかかる解析装置1の構成の一例を示すブロック図である。図1に示すように、解析装置1は、位置情報取得部2と、表示制御部3と、解析情報生成部4とを有する。
<Overview of the embodiment>
Prior to detailed description of the embodiment, an overview of the embodiment will be described. Fig. 1 is a block diagram showing an example of a configuration of an
位置情報取得部2は、実空間におけるユーザの位置情報を取得する。より詳細には、位置情報取得部2は、位置情報の時系列データを取得する。解析装置1を用いた横断のシミュレーションでは、被験者であるユーザは、地面又は床面を実際に移動する。このため、位置情報取得部2は、地面又は床面をユーザが実際に移動する際の位置情報を取得する。The position information acquisition unit 2 acquires position information of the user in real space. More specifically, the position information acquisition unit 2 acquires time series data of position information. In a simulation of crossing using the
表示制御部3は、道路を車両が走行する仮想現実空間の映像を表示するよう制御する。例えば、表示制御部3は、そのような仮想現実空間の映像を、被験者であるユーザが装着したヘッドマウントディスプレイ(HMD:head mounted display)に表示するよう制御する。なお、ユーザが没入感を得るために、仮想現実空間の映像はヘッドマウントディスプレイに表示されることが好ましいが、フラットパネルディスプレイなどの他のディスプレイに表示されてもよい。なお、表示制御部3の制御により表示される映像は、位置情報取得部2が取得した位置情報に基づいて特定される、仮想現実空間内のユーザの位置を視点とする映像であることが好ましい。また、ユーザの視線の方向(頭部の方向)を検出することが可能な場合には、表示制御部3の制御により表示される映像は、ユーザの視線の方向(頭部の方向)に応じた映像であることが好ましい。The
解析情報生成部4は、仮想現実空間でユーザが道路を横断する際の、位置情報取得部2が取得した位置情報に基づいて特定される仮想現実空間内のユーザの位置の時系列データに基づいて、ユーザの横断に関する解析情報を生成する。解析情報は、横断に関する任意のデータであればよく、例えば車両との衝突の有無を示す情報であってもよいし、横断時の移動軌跡を示す情報であってもよいし、横断に要した時間を表す情報であってもよい。なお、これらは例に過ぎず、生成される解析情報は、これらに限定されない。The analysis information generating unit 4 generates analysis information regarding the user's crossing based on time series data of the user's position in the virtual reality space identified based on the position information acquired by the position information acquiring unit 2 when the user crosses a road in the virtual reality space. The analysis information may be any data regarding crossing, and may be, for example, information indicating whether or not there was a collision with a vehicle, information indicating the movement trajectory when crossing, or information indicating the time required to cross. Note that these are merely examples, and the generated analysis information is not limited to these.
解析装置1によれば、実空間におけるユーザの位置情報を用いて、ユーザによる道路の横断についての解析情報が生成される。このため、解析装置1によれば、実際の交通環境で行われる歩行に近い歩行のデータを用いて、横断についての解析情報を生成することができる。このため、ユーザによる道路の横断を適切にシミュレーションして解析することができる。
<実施の形態の詳細>
図2は、実施の形態にかかる解析システム10の構成の一例を示すブロック図である。図2に示すように、解析システム10は、解析装置100とヘッドマウントディスプレイ200とを備えている。解析装置100とヘッドマウントディスプレイ200とは、例えば無線により、通信が可能に接続されている。なお、両者は有線により通信可能に接続されていてもよい。
<Details of the embodiment>
Fig. 2 is a block diagram showing an example of a configuration of an
解析システム10は、ユーザに対して、仮想現実(VR:virtual reality)を提示し、ユーザによる車道の横断をシミュレーションし、横断についての解析情報を生成する。解析システム10を用いたシミュレーションでは、図3に示すように被験者であるユーザ90は、ヘッドマウントディスプレイ200を装着する。そして、ユーザ90が所定の領域91内を実際に移動することにより、ヘッドマウントディスプレイ200により映し出された仮想現実空間においても移動する。すなわち、解析システム10では、実際の移動が、ヘッドマウントディスプレイ200に表示される仮想現実空間内でのユーザの移動に反映される。例えば、仮想現実空間におけるユーザ90の実際の移動速度、移動方向、及び移動距離が、領域91におけるユーザの実際の移動のそれらと同じになっている。領域91は、地面又は床面上の所定の広さの領域である。したがって、ユーザ90は、シミュレーションの際、この地面又は床面を移動する。すなわち、ユーザ90は、シミュレーションの実施の際、トレッドミル上での擬似的な歩行ではなく、実際の交通環境における歩行と同様の歩行を行うことができる。The
ヘッドマウントディスプレイ200は、ユーザ90の頭部に装着される表示装置であり、ユーザ90に仮想現実空間を体験させる。ヘッドマウントディスプレイ200としては、仮想現実空間を表示することが可能な任意のヘッドマウントディスプレイを用いることができる。例えば、ヘッドマウントディスプレイ200は、ユーザ90の眼前に配置されるディスプレイと、ヘッドマウントディスプレイ200の実空間における3次元位置及び傾き(ユーザ90の頭部の傾き)を検出するセンサとを備えている。なお、このセンサは、例えば、速度センサ、ジャイロスコープなどといった慣性計測装置(IMU:Inertial Measurement Unit)であってもよいし、カメラ及び画像処理装置とを含むセンサであってもよい。また、このセンサは、いわゆる6軸センサでもよく、3軸の加速度と、x軸、y軸、z軸周りの角速度のうち任意の情報を取得するものであってもよい。また、このセンサは、これらの組み合わせなどであってもよい。これにより、ヘッドマウントディスプレイ200の位置及び向きが検出される。このように、センサにより、ユーザ90の頭部の位置及び傾きを取得可能である。また、ヘッドマウントディスプレイ200は、解析装置100などと通信するための通信回路を備えており、センサにより検出されたヘッドマウントディスプレイ200の位置及び向きを解析装置100に送信する。なお、ヘッドマウントディスプレイ200の位置及び向きは、必ずしもヘッドマウントディスプレイ200自身により検出されなくてもよい。例えば、カメラにより領域91の一部または全体を撮影した画像を解析することにより、ヘッドマウントディスプレイ200の位置及び向きが検出されてもよい。すなわち、外部のセンサにより、これらが検出されてもよい。なお、ヘッドマウントディスプレイ200の位置及び向きの検出に代えて、または、ヘッドマウントディスプレイ200の位置及び向きの検出とともに、ユーザ90の頭部そのものの位置及び向きが検出されてもよい。ヘッドマウントディスプレイ200は、解析装置100が生成した映像を受信する。これにより、ヘッドマウントディスプレイ200のディスプレイには、解析装置100が生成した映像が表示される。The head mounted
また、ヘッドマウントディスプレイ200は、ユーザ90の操作入力を受け付ける入力装置を備えていてもよい。この入力装置は、ヘッドマウントディスプレイ200に内蔵されていてもよいし、ヘッドマウントディスプレイ200に接続されていてもよい。この入力装置は、ボタンであってもよい。この入力装置は、シミュレーションの開始を指示する操作をユーザ90から受付けてもよい。この場合、ヘッドマウントディスプレイ200は、解析装置100に、そのような指示を受付けたことを通知する。なお、シミュレーションの開始を指示する操作は、解析装置100が備える入力インタフェースが受付けてもよい。
The head mounted
次に、解析装置100について説明する。解析装置100は、ヘッドマウントディスプレイ200における仮想現実空間の表示を制御するとともに、ユーザの横断についての解析情報を出力する装置であり、図1の解析装置1に相当する。図4は、解析装置100の機能構成の一例を示すブロック図である。図4に示すように、解析装置100は、ユーザ情報取得部101と、位置情報取得部102と、視線方向取得部103と、表示制御部104と、解析情報生成部105と、解析情報出力部106と、グループ化部107とを有する。Next, the
ユーザ情報取得部101は、被験者であるユーザ90についての情報(以下、ユーザ情報と称す)を取得する。例えば、ユーザ情報取得部101は、ユーザ情報として、ユーザ90の識別情報、年齢、及び性別といった個人情報を取得する。なお、識別情報は、IDであってもよいし、ユーザ90の名前であってもよい。ユーザ情報取得部101が取得するユーザ情報は、例として挙げた上記情報に限られない。ユーザ情報取得部101は、解析装置100の入力インタフェースを介して入力されたユーザ情報を取得してもよいし、他の装置から受信したユーザ情報を取得してもよいし、記憶装置から読み出すことによりユーザ情報を取得してもよい。The user
位置情報取得部102は、図1の位置情報取得部2に相当しており、実空間におけるユーザ90の位置情報を取得する。本実施の形態では、位置情報取得部102は、ユーザ90の位置情報として、ユーザ90が装着しているヘッドマウントディスプレイ200の位置情報を取得する。なお、本実施の形態では、位置情報取得部102は、ヘッドマウントディスプレイ200により検出された位置情報を、ヘッドマウントディスプレイ200から受信することにより取得する。しかしながら、外部のセンサにより、ヘッドマウントディスプレイ200の位置が検出される場合には、位置情報取得部102は、この外部のセンサからヘッドマウントディスプレイ200の位置情報を取得してもよい。The position information acquisition unit 102 corresponds to the position information acquisition unit 2 in FIG. 1, and acquires position information of the
視線方向取得部103は、実空間におけるユーザ90の視線の方向を表す視線方向情報を取得する。本実施の形態では、視線方向取得部103は、ユーザ90の視線の方向を表す視線方向情報として、ユーザ90が装着しているヘッドマウントディスプレイ200の向きを表す情報を取得する。本実施の形態では、視線方向取得部103は、ヘッドマウントディスプレイ200により検出されたヘッドマウントディスプレイ200の向きを表す情報を、ヘッドマウントディスプレイ200から受信することにより取得する。しかしながら、外部のセンサにより、ヘッドマウントディスプレイ200の向きが検出される場合には、視線方向取得部103は、この外部のセンサから情報を取得してもよい。また、本実施の形態では、視線方向取得部103は、ヘッドマウントディスプレイ200の向き、すなわち頭部の向きを、視線方向情報として取得するが、視線の検出が可能な場合には、検出された視線を視線方向情報として取得してもよい。例えば、ヘッドマウントディスプレイ200がアイトラッキングセンサを備える場合には、視線方向取得部103は、このセンサから得られる視線方向情報を取得してもよい。The gaze
表示制御部104は、図1の表示制御部3に相当し、道路を車両が走行する仮想現実空間の映像をヘッドマウントディスプレイ200に表示するよう制御する。表示制御部104は、位置情報取得部102が取得したヘッドマウントディスプレイ200の位置及び視線方向取得部103が取得したヘッドマウントディスプレイ200の向きに応じて、仮想現実空間の表示を変化させる。換言すると、表示制御部104は、位置情報取得部102が取得したユーザ90の位置及び視線方向取得部103が取得したユーザ90の視線方向に応じて、仮想現実空間の表示を変化させる。つまり、表示制御部104は、位置情報取得部102が取得した位置情報に基づいて特定される、仮想現実空間内のユーザの位置を視点する映像であって、視線方向取得部103が取得した視線方向情報により示される方向の映像を表示するよう制御する。表示制御部104は、映像を、ヘッドマウントディスプレイ200に出力する。解析装置100から送信された映像データは、ヘッドマウントディスプレイ200において受信され、ヘッドマウントディスプレイ200は受信した映像をユーザ90に対して表示する。The
図5は、表示制御部104が生成する映像の一例を示す模式図である。図5に示すように、表示制御部104は、道路92と、この道路92を走行する車両93とを含む交通環境を模した仮想現実空間の映像を表示する。表示制御部104は、シミュレーションの開始の指示を受付けると、道路92上の所定の位置から所定の速度で走行する車両93を表示する。車両93の走行速度は、任意の速度に設定可能である。例えば、本実施の形態では、車両93は、時速40キロメートル、時速60キロメートル、及び時速80キロメートルのうちのいずれかの速度が設定される。なお、これらの速度は例に過ぎず、他の速度が設定されてもよい。道路92上を走行する車両93は、一台でなくてもよく、複数台であってもよい。また、図5に示した例では、道路92上の車両93の通行は一方向であるが、双方向から車両93が道路92を通行してもよい。
FIG. 5 is a schematic diagram showing an example of an image generated by the
シミュレーションでは、ユーザ90は、仮想現実空間において、車両93に衝突しないように気をつけつつ道路92を横断する。具体的には、ユーザ90は、仮想現実空間におけるスタート位置94からゴール位置95まで移動するよう実環境の領域91内を移動する。ここで、スタート位置94は、道路92の横断開始位置であり、ゴール位置95は、道路92の横断終了位置である。In the simulation, a
解析情報生成部105は、図1の解析情報生成部4に相当する。解析情報生成部105は、仮想現実空間でユーザ90が道路92を横断する際の仮想現実空間内のユーザ90の位置の時系列データに基づいて、ユーザ90による横断についての解析情報を生成する。解析情報生成部105は、予め定められた任意の解析情報を生成する。解析情報生成部105は、ユーザ情報取得部101が取得したユーザ情報と関連付けた解析情報を生成する。The analysis
グループ化部107は、解析情報生成部105が生成した複数のユーザ90についての解析情報をユーザ90の年齢又は性別に応じてグループ化する。なお、このようなグループ化を行うグループ化部107について、同種ユーザグループ化部と称されてもよい。このようなグループ化が行われることにより、年齢又は性別の観点に基づいてユーザの横断を理解することが可能となる。また、グループ化部107は、解析情報生成部105が生成した同一のユーザ90についての解析情報をグループ化してもよい。なお、このようなグループ化を行うグループ化部107について、同一ユーザグループ化部と称されてもよい。このようなグループ化が行われることにより、例えば、解析情報についての年齢による変化を理解することが可能となる。The
解析情報出力部106は、解析情報生成部105が生成した解析情報を出力する。例えば、解析情報出力部106は、解析情報を表示するためにディスプレイに解析情報を出力する。このディスプレイは、解析装置100が備えるディスプレイであってもよいし、解析装置100に接続されたディスプレイであってもよいし、ヘッドマウントディスプレイ200のディスプレイであってもよい。また、解析情報出力部106は、解析情報を保存するためにメモリなどの記憶装置に解析情報を出力してもよい。また、解析情報出力部106は、解析装置100と通信可能に接続された他の装置に送信するために、この他の装置に向けて解析情報を出力してもよい。なお、解析情報出力部106は、グループ化部107によってグループ化された解析情報を出力してもよい。例えば、所定の年齢層のユーザ90についての解析情報をまとめて出力してもよいし、所定の性別のユーザ90についての解析情報をまとめて出力してもよいし、同一のユーザ90についての解析情報だけをまとめて出力してもよい。The analysis
ここで、解析情報生成部105が生成する解析情報の例について説明する。
例えば、解析情報生成部105は、仮想現実空間において道路92を横断するユーザ90が道路92を走行する車両93と衝突したか否かをユーザ90の位置の時系列データに基づいて判定してもよい。そして、解析情報生成部105は、解析情報として、ユーザ90による車両93との衝突の有無を示す情報を生成してもよい。例えば、解析情報生成部105は、シミュレーション中のユーザ90の位置の時系列データと車両93の位置の時系列データとを用いて、両者の距離が所定値以下となったか否かを判定することにより、両者が衝突したか否かを判定する。このように、解析情報として衝突の有無を示す情報が生成されることにより、適切な横断が行われたか否かを容易に判断することが可能となる。なお、衝突の判定方法は上述した方法に限られない。例えば、解析情報生成部105は、仮想現実空間において道路92を横断するユーザ90が道路92を走行する車両93と衝突したか否かを、スタート位置94を基準としたユーザ90の相対位置と経過時刻に基づいて判定してもよい。
Here, an example of the analysis information generated by the analysis
For example, the analysis
また、解析情報生成部105は、ユーザ90が車両93と衝突したと判定された場合、所定の時点から衝突の発生時点までの時間を示す情報を解析情報として生成してもよい。例えば、この所定の時点は、シミュレーションの開始時点であってもよいし、スタート位置94からの移動が開始された時点(道路92にユーザ90が進入した時点)であってもよい。このように、解析情報として、所定の時点から衝突の発生時点までの時間を示す情報が生成されることにより、衝突の発生原因などを理解する上で有益な情報を得ることができる。
また、解析情報生成部105は、ユーザ90が車両93と衝突したと判定された場合、所定の時点から衝突の発生時点までのユーザ90の位置又は視線などの時系列データを解析情報として生成してもよい。このような情報も、衝突の発生原因などを理解する上で有益な情報となる。
Furthermore, when it is determined that the
Furthermore, when it is determined that the
また、解析情報生成部105は、ユーザ90が車両93と衝突したと判定された場合、衝突が発生した地点を示す情報を解析情報として生成してもよい。例えば、解析情報生成部105は、道路92のどの位置において、衝突が発生したかを特定し、特定した位置を示す情報を生成する。このように、解析情報として、衝突が発生した地点を示す情報が生成されることにより、衝突の発生について詳細に理解する上で有益な情報を得ることができる。Furthermore, when it is determined that the
また、解析情報生成部105は、ユーザ90の位置の時系列データに基づいて、ユーザ90が道路92を横断する際の移動の軌跡を表す情報を解析情報として生成してもよい。このように、解析情報として、移動の軌跡を表す情報が生成されることにより、どのように横断が行われたかを理解する上で有益な情報を得ることができる。また、解析情報生成部105は、移動の軌跡に代えて、又は、移動の軌跡とともに、解析情報として、横断距離(すなわち、道路92を横断する方向にユーザ90が横断開始位置から進んだ距離)の推移を示す情報を生成してもよい。このような情報が生成された場合も、どのように横断が行われたかを理解する上で有益な情報を得ることができる。The analysis
また、解析情報生成部105は、ユーザ90が道路92の横断に要した時間を解析情報として生成してもよい。例えば、解析情報生成部105は、シミュレーションの開始時点又はスタート位置94からの移動が開始された時点(道路92にユーザ90が進入した時点)から、ゴール位置95に到達するまでの時間を示す情報を解析情報として生成する。このように、解析情報としてユーザ90が道路92の横断に要した時間を示す情報が生成されることにより、どのように横断が行われたかを理解する上で有益な情報を得ることができる。
Furthermore, the analysis
解析情報生成部105は、さらに、視線方向取得部103が取得した視線方向情報の時系列データに基づいて、ユーザ90が道路92を横断する際の視線の方向についての解析情報を生成してもよい。例えば、解析情報生成部105は、視線の推移を表す情報を生成してもよいし、所定の方向(例えば、車両93が向かってくる方向)に視線が向いている時間を示す情報を生成してもよい。このように、視線の方向についての解析情報が生成されることにより、ユーザ90がどこを見ながら横断を行ったかを理解する上で有益な情報を得ることができる。The analysis
なお、解析情報の具体例についていくつか述べたが、解析情報生成部105が生成する解析情報はこれらに限られない。また、解析情報生成部105が生成する解析情報は、グラフ又は交通環境のマップなどを用いたビジュアルデータあってもよい。ビジュアルデータが生成されることにより、解析情報の内容を視覚的に理解することが可能となる。Although some specific examples of analytical information have been described above, the analytical information generated by the analytical
図6は、解析情報生成部105が生成する解析情報についてのビジュアルデータの例を示す模式図である。図6に示した例では、ユーザ90が道路92を横断する際の移動の軌跡96aがマップ97上に示されている。なお、図6に示した例では、白丸の点として表されたユーザ90の移動の軌跡96aの他に、黒丸の点として表された車両93の移動の軌跡96bがマップ97上に示されている。
Figure 6 is a schematic diagram showing an example of visual data regarding the analysis information generated by the analysis
図7は、解析情報生成部105が生成する解析情報についてのビジュアルデータの別の例を示す模式図である。図7は、横断距離の推移を示すグラフの例を示している。図7に示したグラフにおいて、横軸は、シミュレーションの開始からの経過時間を示し、縦軸は、道路92を横断する方向にユーザ90がスタート位置94から進んだ距離を示している。
Figure 7 is a schematic diagram showing another example of visual data regarding the analysis information generated by the analysis
図8は、解析情報生成部105が生成する解析情報についてのビジュアルデータのさらに別の例を示す模式図である。図8は、横断時の視線の推移を示すグラフの例を示している。図8に示したグラフにおいて、横軸は、視線の水平方向の角度を示し、縦軸は、シミュレーションの開始からの経過時間を示している。なお、ここでは、横軸は、視線の水平方向の角度であるが、視線の鉛直方向の角度であってもよい。
Figure 8 is a schematic diagram showing yet another example of visual data for the analysis information generated by the analysis
図9は、解析情報生成部105が生成する解析情報についてのビジュアルデータのさらに別の例を示す模式図である。図9は、ユーザ90が道路92の横断に要した時間を年齢層別にプロットしたグラフの例を示している。つまり、図9に示した例では、グループ化部107によって年齢に応じてグループ化された解析情報が示されている。図9に示したグラフにおいて、横軸は、ユーザ90が道路92の横断に要した時間(横断時間)を示し、縦軸は、年齢層を示している。図9に示したグラフにおいて、各丸印が各ユーザに対応している。ただし、ハッチングされた丸印は、同一年齢層に分類されたユーザ90の横断時間の平均点を示している。このように解析情報生成部105は、複数のユーザについての解析情報に対して統計処理を行い、統計処理の結果を新たな解析情報として生成してもよい。なお、解析情報生成部105は、同一のユーザについての過去の自身の結果と、最新の結果とを表示するビジュアルデータを生成してもよい。すなわち、同一のユーザ90についてのグループ化された解析情報のグラフを生成してもよい。9 is a schematic diagram showing yet another example of visual data on the analysis information generated by the analysis
なお、解析情報出力部106は、様々なビジュアルデータを同時に表示するよう出力を制御してもよい。また、その際、解析情報出力部106は、いずれかのビジュアルデータにおいて、ある時点のデータが選択されると、データの対応関係を理解しやすくすべく、他のビジュアルデータにおける同じ時点のデータを強調して表示してもよい。The analysis
次に、解析装置100のハードウェア構成について説明する。図10は、解析装置100のハードウェア構成の一例を示す模式図である。図10に示すように、解析装置100は、入出力インタフェース150、ネットワークインタフェース151、メモリ152、及びプロセッサ153を含む。Next, the hardware configuration of the
入出力インタフェース150は、解析装置100と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース150には、キーボードなどの入力装置や、ディスプレイなどの出力装置が接続される。The input/
ネットワークインタフェース151は、ヘッドマウントディスプレイ200などの他の任意の装置と通信するために使用される。ネットワークインタフェース151は、例えば、ネットワークインタフェースカード(NIC)を含んでもよい。The
メモリ152は、例えば、揮発性メモリ及び不揮発性メモリの組み合わせによって構成される。メモリ152は、プロセッサ153により実行される、1以上の命令を含むソフトウェア(コンピュータプログラム)、及び解析装置100の各種処理に用いるデータなどを格納するために使用される。The
プロセッサ153は、メモリ152からソフトウェア(コンピュータプログラム)を読み出して実行することで、図4に示した各構成要素の処理を行う。プロセッサ153は、例えば、マイクロプロセッサ、MPU(Micro Processor Unit)、又はCPU(Central Processing Unit)などであってもよい。プロセッサ153は、複数のプロセッサを含んでもよい。The
このように、解析装置100は、コンピュータとしての機能を備えている。なお、ヘッドマウントディスプレイ200も同様に、プロセッサ及びメモリを備え、コンピュータとしての機能を備えていてもよい。したがって、ヘッドマウントディスプレイ200の機能がプロセッサによるプログラムの実行により実現されてもよい。In this way, the
また、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。In addition, the above-mentioned program can be stored and supplied to a computer using various types of non-transitory computer readable media. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer readable media include magnetic recording media (e.g., flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (e.g., magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R/Ws, and semiconductor memories (e.g., mask ROMs, PROMs (Programmable ROMs), EPROMs (Erasable PROMs), flash ROMs, and RAMs (Random Access Memory)). The program may be provided to the computer by various types of transitory computer readable media. Examples of the transitory computer readable medium include an electric signal, an optical signal, and an electromagnetic wave. The transitory computer readable medium may provide the program to the computer via a wired communication path such as an electric wire or an optical fiber, or via a wireless communication path.
次に、解析装置100の動作について説明する。図11は、解析装置100の動作の流れの一例を示すフローチャートである。以下、図11を参照しつつ、動作の流れの一例について説明する。Next, the operation of the
ステップS100において、ユーザ情報取得部101が、被験者であるユーザ90のユーザ情報を取得する。In step S100, the user
次に、ステップS101において、シミュレーションの開始が指示されたかが判定される。シミュレーションの開始が指示されると(ステップS101でYes)、処理はステップS102へ移行する。Next, in step S101, it is determined whether a command to start a simulation has been issued. If a command to start a simulation has been issued (Yes in step S101), the process proceeds to step S102.
ステップS102において、解析装置100は、ユーザ90の位置情報及び視線方向情報を取得しつつ、仮想の交通環境をヘッドマウントディスプレイ200に表示させるよう制御する。すなわち、ステップS102では、位置情報取得部102による位置情報の取得処理と、視線方向取得部103による視線方向情報の取得処理と、こられの情報を用いた表示制御部104による仮想現実空間の表示処理とが並行して行われる。この間、ユーザ90は、仮想現実空間の道路を横断するよう移動する。In step S102, the
次に、ステップS103において、シミュレーションの終了条件が満たされたか否かの判定が行われる。例えば、仮想現実空間において、ユーザ90が、ゴール位置95に到達した場合、又は、車両93と衝突した場合、シミュレーションの終了条件が満たされたと判定される。シミュレーションの終了条件が満たされると(ステップS103でYes)、処理はステップS104へ移行する。Next, in step S103, it is determined whether or not a simulation end condition has been satisfied. For example, when the
ステップS104において、解析情報生成部105は、ユーザ90による横断についての解析情報を生成する。解析情報生成部105は、例えば、上述した解析情報のいずれか一つ又は複数を生成する。In step S104, the analysis
次に、ステップS105において、解析情報出力部106は、解析情報生成部105が生成した解析情報をディスプレイなどに出力する。なお、ステップS105に先だって、ステップS104で生成された解析情報に対して、グループ化部107によるグループ化が行われてもよい。この場合、ステップS105で、解析情報出力部106は、グループ化部107によってグループ化された解析情報を出力してもよい。Next, in step S105, the analysis
以上、実施の形態について説明した。解析装置100によれば、実空間におけるユーザの位置情報を用いて、ユーザによる道路の横断についての解析情報が生成される。このため、解析装置100によれば、実際の交通環境で行われる歩行に近い歩行のデータを用いて、横断についての解析情報を生成することができる。このため、ユーザによる道路の横断を適切にシミュレーションして解析することができる。
The above describes the embodiment. According to the
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。The present invention is not limited to the above-described embodiments and can be modified as appropriate without departing from the spirit and scope of the invention.
また、上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。In addition, some or all of the above embodiments may be described as follows, but are not limited to:
(付記1)
実空間におけるユーザの位置情報を取得する位置情報取得手段と、
道路を車両が走行する仮想現実空間の映像を表示するよう制御する表示制御手段と、
前記仮想現実空間で前記ユーザが前記道路を横断する際の、前記位置情報に基づいて特定される前記仮想現実空間内の前記ユーザの位置の時系列データに基づいて、前記ユーザの横断に関する解析情報を生成する解析情報生成手段と
を有する解析装置。
(付記2)
前記解析情報生成手段は、前記仮想現実空間において前記ユーザが前記道路を走行する前記車両と衝突したか否かを前記時系列データに基づいて判定し、前記解析情報として、前記ユーザによる前記車両との衝突の有無を示す情報を生成する
付記1に記載の解析装置。
(付記3)
前記解析情報生成手段は、前記ユーザが前記車両と衝突したと判定された場合、所定の時点から衝突の発生時点までの時間を示す情報を前記解析情報として生成する
付記2に記載の解析装置。
(付記4)
前記解析情報生成手段は、前記ユーザが前記車両と衝突したと判定された場合、衝突が発生した地点を示す情報を前記解析情報として生成する
付記2又は3に記載の解析装置。
(付記5)
前記解析情報生成手段は、前記時系列データに基づいて、前記ユーザが前記道路を横断する際の移動の軌跡を表す情報を前記解析情報として生成する
付記1乃至4のいずれか一項に記載の解析装置。
(付記6)
前記解析情報生成手段は、前記ユーザが前記道路の横断に要した時間を前記解析情報として生成する
付記1乃至5のいずれか一項に記載の解析装置。
(付記7)
実空間における前記ユーザの視線の方向を表す視線方向情報を取得する視線方向取得手段をさらに有し、
前記解析情報生成手段は、さらに、前記視線方向情報の時系列データに基づいて、前記ユーザが前記道路を横断する際の視線の方向についての解析情報を生成する
付記1乃至6のいずれか一項に記載の解析装置。
(付記8)
前記解析情報生成手段が生成した複数のユーザについての前記解析情報を前記ユーザの年齢又は性別に応じてグループ化する同種ユーザグループ化手段をさらに有する
付記1乃至7のいずれか一項に記載の解析装置。
(付記9)
前記解析情報生成手段が生成した同一のユーザについての前記解析情報をグループ化する同一ユーザグループ化手段をさらに有する
付記1乃至8のいずれか一項に記載の解析装置。
(付記10)
実空間におけるユーザの位置情報を取得し、
道路を車両が走行する仮想現実空間の映像を表示するよう制御し、
前記仮想現実空間で前記ユーザが前記道路を横断する際の、前記位置情報に基づいて特定される前記仮想現実空間内の前記ユーザの位置の時系列データに基づいて、前記ユーザの横断に関する解析情報を生成する
解析方法。
(付記11)
実空間におけるユーザの位置情報を取得する位置情報取得ステップと、
道路を車両が走行する仮想現実空間の映像を表示するよう制御する表示制御ステップと、
前記仮想現実空間で前記ユーザが前記道路を横断する際の、前記位置情報に基づいて特定される前記仮想現実空間内の前記ユーザの位置の時系列データに基づいて、前記ユーザの横断に関する解析情報を生成する解析情報生成ステップと
をコンピュータに実行させるプログラムが格納された非一時的なコンピュータ可読媒体。
(Appendix 1)
A position information acquisition means for acquiring position information of a user in a real space;
a display control means for controlling the display of an image of a virtual reality space in which a vehicle is traveling on a road;
and an analysis information generation means for generating analysis information regarding the user's crossing of the road based on time-series data of the user's position in the virtual reality space identified based on the position information when the user crosses the road in the virtual reality space.
(Appendix 2)
The analysis device described in
(Appendix 3)
The analysis device according to claim 2, wherein the analysis information generating means generates, when it is determined that the user has collided with the vehicle, information indicating a time from a predetermined point in time to a point in time when the collision occurred as the analysis information.
(Appendix 4)
The analysis device according to
(Appendix 5)
The analysis device according to any one of
(Appendix 6)
The analysis device according to any one of
(Appendix 7)
The present invention further includes a gaze direction acquisition means for acquiring gaze direction information representing a gaze direction of the user in a real space,
The analysis device according to any one of
(Appendix 8)
The analysis device according to any one of
(Appendix 9)
The analysis device according to any one of
(Appendix 10)
Acquire the user's location information in the real space;
It controls the display of images of a virtual reality space in which a vehicle is traveling on a road,
generating analytical information regarding the user's crossing based on time-series data of the user's position in the virtual reality space identified based on the position information when the user crosses the road in the virtual reality space.
(Appendix 11)
A position information acquisition step of acquiring position information of a user in a real space;
a display control step of controlling to display an image of a virtual reality space in which a vehicle is traveling on a road;
and an analytical information generating step of generating analytical information regarding the user's crossing based on time series data of the user's position in the virtual reality space identified based on the position information when the user crosses the road in the virtual reality space.
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。The present invention has been described above with reference to the embodiment, but the present invention is not limited to the above. Various modifications that can be understood by a person skilled in the art can be made to the configuration and details of the present invention within the scope of the invention.
この出願は、2021年3月11日に出願された日本出願特願2021-039149を基礎とする優先権を主張し、その開示の全てをここに取り込む。 This application claims priority based on Japanese Patent Application No. 2021-039149, filed on March 11, 2021, the disclosure of which is incorporated herein in its entirety.
1 解析装置
2 位置情報取得部
3 表示制御部
4 解析情報生成部
10 解析システム
90 ユーザ
91 領域
92 道路
93 車両
94 スタート位置
95 ゴール位置
96a 軌跡
96b 軌跡
97 マップ
100 解析装置
101 ユーザ情報取得部
102 位置情報取得部
103 視線方向取得部
104 表示制御部
105 解析情報生成部
106 解析情報出力部
107 グループ化部
150 入出力インタフェース
151 ネットワークインタフェース
152 メモリ
153 プロセッサ
200 ヘッドマウントディスプレイ
1 Analysis device 2 Position
Claims (9)
道路を車両が走行する仮想現実空間の映像を表示するよう制御する表示制御手段と、
前記仮想現実空間で前記ユーザが前記道路を横断する際の、前記位置情報に基づいて特定される前記仮想現実空間内の前記ユーザの位置の時系列データに基づいて、前記ユーザの横断に関する解析情報を生成する解析情報生成手段と
を有し、
前記解析情報生成手段は、前記時系列データに基づいて、前記ユーザが前記道路を横断する際の2次元の移動の軌跡を交通環境のマップ上に示すビジュアルデータを前記解析情報として生成する
解析装置。 A position information acquisition means for acquiring position information of a user in a real space;
a display control means for controlling the display of an image of a virtual reality space in which a vehicle is traveling on a road;
and an analysis information generating means for generating analysis information regarding the user's crossing of the road based on time-series data of the user's position in the virtual reality space specified based on the position information when the user crosses the road in the virtual reality space ,
The analysis information generating means generates, as the analysis information, visual data showing a two-dimensional movement trajectory of the user when crossing the road on a map of a traffic environment based on the time series data.
Analysis equipment.
請求項1に記載の解析装置。 The analysis device according to claim 1 , wherein the analysis information generating means determines whether or not the user has collided with the vehicle traveling on the road in the virtual reality space based on the time series data, and generates, as the analysis information, information indicating whether or not the user has collided with the vehicle.
請求項2に記載の解析装置。 The analysis device according to claim 2 , wherein the analysis information generating means generates, when it is determined that the user has collided with the vehicle, information indicating a time from a predetermined point in time to a point in time when the collision occurred as the analysis information.
請求項2又は3に記載の解析装置。 The analysis device according to claim 2 , wherein the analysis information generating means generates, when it is determined that the user has collided with the vehicle, information indicating a point at which the collision occurred as the analysis information.
請求項1乃至4のいずれか一項に記載の解析装置。 The analysis device according to claim 1 , wherein the analysis information generating means generates, as the analysis information, a time taken by the user to cross the road.
前記解析情報生成手段は、さらに、前記視線方向情報の時系列データに基づいて、前記ユーザが前記道路を横断する際の視線の方向についての解析情報を生成する
請求項1乃至5のいずれか一項に記載の解析装置。 The present invention further includes a gaze direction acquisition means for acquiring gaze direction information representing a gaze direction of the user in a real space,
The analysis device according to claim 1 , wherein the analysis information generating means further generates analysis information about a direction of gaze of the user when crossing the road, based on time-series data of the gaze direction information.
請求項1乃至6のいずれか一項に記載の解析装置。 The analysis device according to claim 1 , further comprising a homogeneous user grouping means for grouping the analysis information for a plurality of users generated by the analysis information generating means according to an age or a sex of the users.
道路を車両が走行する仮想現実空間の映像を表示するよう制御し、
前記仮想現実空間で前記ユーザが前記道路を横断する際の、前記位置情報に基づいて特定される前記仮想現実空間内の前記ユーザの位置の時系列データに基づいて、前記ユーザの横断に関する解析情報を生成し、
前記解析情報の生成では、前記時系列データに基づいて、前記ユーザが前記道路を横断する際の2次元の移動の軌跡を交通環境のマップ上に示すビジュアルデータを前記解析情報として生成する
解析方法。 Acquire the user's location information in the real space;
It controls the display of images of a virtual reality space in which a vehicle is traveling on a road,
generating analysis information regarding the user's crossing of the road based on time-series data of the user's position in the virtual reality space identified based on the position information when the user crosses the road in the virtual reality space ;
In generating the analysis information, visual data showing a two-dimensional movement trajectory of the user when crossing the road on a map of a traffic environment is generated as the analysis information based on the time series data.
Analysis method.
道路を車両が走行する仮想現実空間の映像を表示するよう制御する表示制御ステップと、
前記仮想現実空間で前記ユーザが前記道路を横断する際の、前記位置情報に基づいて特定される前記仮想現実空間内の前記ユーザの位置の時系列データに基づいて、前記ユーザの横断に関する解析情報を生成する解析情報生成ステップと
をコンピュータに実行させ、
前記解析情報生成ステップでは、前記時系列データに基づいて、前記ユーザが前記道路を横断する際の2次元の移動の軌跡を交通環境のマップ上に示すビジュアルデータを前記解析情報として生成する
プログラム。 A position information acquisition step of acquiring position information of a user in a real space;
a display control step of controlling to display an image of a virtual reality space in which a vehicle is traveling on a road;
an analysis information generating step of generating analysis information regarding the user's crossing based on time-series data of the user's position in the virtual reality space specified based on the position information when the user crosses the road in the virtual reality space ;
In the analysis information generating step, visual data showing a two-dimensional movement trajectory of the user when crossing the road on a map of a traffic environment is generated as the analysis information based on the time series data.
program.
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021039149 | 2021-03-11 | ||
| JP2021039149 | 2021-03-11 | ||
| PCT/JP2022/001863 WO2022190658A1 (en) | 2021-03-11 | 2022-01-19 | Analysis device, analysis method, and non-temporary computer-readable medium storing program |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JPWO2022190658A1 JPWO2022190658A1 (en) | 2022-09-15 |
| JPWO2022190658A5 JPWO2022190658A5 (en) | 2023-11-07 |
| JP7589795B2 true JP7589795B2 (en) | 2024-11-26 |
Family
ID=83226619
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2023505176A Active JP7589795B2 (en) | 2021-03-11 | 2022-01-19 | Analysis device, analysis method, and program |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP7589795B2 (en) |
| WO (1) | WO2022190658A1 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002132241A (en) | 2000-10-27 | 2002-05-09 | Nippon Telegr & Teleph Corp <Ntt> | Virtual space display system based on real space |
| JP2007323009A (en) | 2006-06-05 | 2007-12-13 | Toyota Motor Corp | Driving aptitude inspection system and vehicle driving aptitude inspection execution device |
| JP2008148952A (en) | 2006-12-18 | 2008-07-03 | Isuzu Motors Ltd | Driving aptitude diagnostic device, driving aptitude diagnostic program, and storage medium storing driving aptitude diagnostic program |
| JP2012002950A (en) | 2010-06-15 | 2012-01-05 | Akita Univ | Walking environment simulator |
| US20200390380A1 (en) | 2019-06-05 | 2020-12-17 | Tsinghua University | Testing method and testing system for human stress reaction, and computer-readable storage medium |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101821592B1 (en) * | 2016-11-16 | 2018-01-25 | 그리드스페이스(주) | Walking simulator system using virtual reality and method for calculating pedestrian position thereof |
-
2022
- 2022-01-19 JP JP2023505176A patent/JP7589795B2/en active Active
- 2022-01-19 WO PCT/JP2022/001863 patent/WO2022190658A1/en not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002132241A (en) | 2000-10-27 | 2002-05-09 | Nippon Telegr & Teleph Corp <Ntt> | Virtual space display system based on real space |
| JP2007323009A (en) | 2006-06-05 | 2007-12-13 | Toyota Motor Corp | Driving aptitude inspection system and vehicle driving aptitude inspection execution device |
| JP2008148952A (en) | 2006-12-18 | 2008-07-03 | Isuzu Motors Ltd | Driving aptitude diagnostic device, driving aptitude diagnostic program, and storage medium storing driving aptitude diagnostic program |
| JP2012002950A (en) | 2010-06-15 | 2012-01-05 | Akita Univ | Walking environment simulator |
| US20200390380A1 (en) | 2019-06-05 | 2020-12-17 | Tsinghua University | Testing method and testing system for human stress reaction, and computer-readable storage medium |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2022190658A1 (en) | 2022-09-15 |
| JPWO2022190658A1 (en) | 2022-09-15 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10568502B2 (en) | Visual disability detection system using virtual reality | |
| JP4642538B2 (en) | Image processing method and image processing apparatus | |
| JP2020513957A5 (en) | ||
| KR20160046495A (en) | Method and device to display screen in response to event related to external obejct | |
| CN108303698B (en) | Tracking system, tracking device and tracking method | |
| US20170249822A1 (en) | Apparatus configured to issue warning to wearer of display, and method therefor | |
| JP6738641B2 (en) | Simulation control device and simulation control program | |
| CN112449708A (en) | Virtual reality system, program, and computer-readable storage medium | |
| Matviienko et al. | QuantiBike: quantifying perceived cyclists' safety via head movements in virtual reality and outdoors | |
| US11859981B2 (en) | Physical event triggering of virtual events | |
| JP7589795B2 (en) | Analysis device, analysis method, and program | |
| US20190155024A1 (en) | Image display device and image display method | |
| JP2007004713A (en) | Image processing method and image processing apparatus | |
| JP7261370B2 (en) | Information processing device, information processing system, information processing method, and computer program | |
| KR102586470B1 (en) | Apparatus for preventing player collision accident | |
| KR20230133623A (en) | A system for sharing a location between users in a VR space and a method for preventing collisions between users in a VR space using the same | |
| KR20220109920A (en) | Experience system of online multi-players | |
| JP6496391B1 (en) | Display system and display method | |
| KR102030606B1 (en) | Apparatus and method of realtime gait examination using infrared camera | |
| CN116249573A (en) | Movement improvement guidance device, movement improvement guidance method, and movement improvement guidance program | |
| JP6481596B2 (en) | Evaluation support device for vehicle head-up display | |
| CN118537761B (en) | Obstacle detection method, device, equipment and readable storage medium | |
| US12141344B2 (en) | Improving accuracy of interactions for gaze-enabled AR objects when in motion | |
| US20250180360A1 (en) | Information processing apparatus, method, and storage medium | |
| US20250329119A1 (en) | Virtual object display device and virtual object display method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230809 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230809 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240702 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240830 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20241015 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20241028 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7589795 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |