[go: up one dir, main page]

JP6760613B2 - バーチャルリアリティ画像表示システムおよびバーチャルリアリティ画像表示方法 - Google Patents

バーチャルリアリティ画像表示システムおよびバーチャルリアリティ画像表示方法 Download PDF

Info

Publication number
JP6760613B2
JP6760613B2 JP2018523287A JP2018523287A JP6760613B2 JP 6760613 B2 JP6760613 B2 JP 6760613B2 JP 2018523287 A JP2018523287 A JP 2018523287A JP 2018523287 A JP2018523287 A JP 2018523287A JP 6760613 B2 JP6760613 B2 JP 6760613B2
Authority
JP
Japan
Prior art keywords
information
image
virtual reality
user
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018523287A
Other languages
English (en)
Other versions
JPWO2017216992A1 (ja
Inventor
昌和 森口
昌和 森口
勇介 中尾
勇介 中尾
圭栄 櫻澤
圭栄 櫻澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Original Assignee
NEC Solution Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solution Innovators Ltd filed Critical NEC Solution Innovators Ltd
Publication of JPWO2017216992A1 publication Critical patent/JPWO2017216992A1/ja
Application granted granted Critical
Publication of JP6760613B2 publication Critical patent/JP6760613B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、バーチャルリアリティ画像表示システムおよびバーチャルリアリティ画像表示方法に関する。
近年、可視化した仮想空間において、ユーザの動作に連動させた画像を表示することによって、ユーザに仮想空間を疑似体験させるバーチャルリアリティ(以下、VRともいう)システムの開発が盛んに行われている。前記VRシステムは、通常、ユーザがセンサ付きゴーグルを装着すると、前記ゴーグルのモニターに仮想空間が表示され、前記ユーザの動作を前記センサが感知して、前記仮想空間に前記ユーザの動きに応じた画像が表示される。
しかしながら、従来のVRシステムによると、仮想空間内に表示される画像は、同じデザインの画像であり、また、前記画像の動きは、前記ユーザ自身の動作に直接的に連動するものである。このため、ユーザは、ユーザ自身の元来の感覚に基づく仮想空間の疑似体験しかできなかった。
そこで、本発明は、ユーザが、ユーザ自身とは異なる属性の感覚に基づいて仮想空間を疑似体験することを可能とするVR画像表示システムの提供を目的とする。
前記目的を達成するために、本発明の第1のVR画像表示システムは、
属性と、属性ごとの身体画像情報とを記憶する記憶手段と、
前記属性を選択する選択手段と、
ユーザの動作を感知する感知手段と、
前記選択された属性の身体画像情報から、バーチャルリアリティ画像を生成する生成手段と、
前記感知したユーザの動作情報に基づいて、前記生成されたバーチャルリアリティ画像の動きを制御する制御手段と、
前記制御されたバーチャルリアリティ画像を表示する表示手段とを含むことを特徴とする。
本発明の第2のVR画像表示システムは、
属性と、身体画像情報と、属性ごとの身体機能情報とを記憶する記憶手段と、
前記属性を選択する選択手段と、
ユーザの動作を感知する感知手段と、
前記感知したユーザの動作情報を、前記選択された属性の身体機能情報に基づいて補正する補正手段と、
前記身体画像情報から、バーチャルリアリティ画像を生成する生成手段と、
前記補正された動作情報に基づいて、前記生成されたバーチャルリアリティ画像の動きを制御する制御手段と、
前記制御されたバーチャルリアリティ画像を表示する表示手段とを含むことを特徴とする。
本発明の第3のVR画像表示システムは、
属性と、属性ごとの身体画像情報と、前記身体画像に関連付けた身体機能情報とを記憶する記憶手段と、
前記属性を選択する選択手段と、
ユーザの動作を感知する感知手段と、
前記感知したユーザの動作情報を、前記選択された属性の身体機能情報に基づいて補正する補正手段と、
前記補正された動作情報に基づいて、前記選択された属性の身体画像情報から、バーチャルリアリティ画像を生成する生成手段と、
前記補正された動作情報に基づいて、前記生成されたバーチャルリアリティ画像の動きを制御する制御手段と、
前記制御されたVR画像を表示する表示手段とを含むことを特徴とする。
本発明の第1のVR画像表示方法は、
属性を選択する選択工程と、
ユーザの動作を感知する感知工程と、
選択された属性の身体画像情報から、バーチャルリアリティ画像を生成する生成工程と、
前記感知したユーザの動作情報に基づいて、前記生成されたバーチャルリアリティ画像の動きを制御する制御工程と、
前記制御されたバーチャルリアリティ画像を表示する表示工程とを含むことを特徴とする。
本発明の第2のVR画像表示方法は、
属性を選択する選択工程と、
ユーザの動作を感知する感知工程と、
前記感知したユーザの動作情報を、選択された属性の身体機能情報に基づいて補正する補正工程と、
身体画像情報から、バーチャルリアリティ画像を生成する生成工程と、
前記補正された動作情報に基づいて、前記生成されたバーチャルリアリティ画像の動きを制御する制御工程と、
前記制御されたバーチャルリアリティ画像を表示する表示工程とを含むことを特徴とする。
本発明の第3のVR画像表示方法は、
属性を選択する選択工程と、
ユーザの動作を感知する感知工程と、
前記感知したユーザの動作情報を、選択された属性の身体機能情報に基づいて補正する補正工程と、
前記補正された動作情報に基づいて、選択された属性の身体画像情報から、バーチャルリアリティ画像を生成する生成工程と、
前記補正された動作情報に基づいて、前記生成されたバーチャルリアリティ画像の動きを制御する制御工程と、
前記制御されたVR画像を表示する表示工程とを含むことを特徴とする。
本発明のプログラムは、前記本発明のVR画像表示方法をコンピュータ上で実行可能なことを特徴とする。
本発明のコンピュータ読み取り可能な記録媒体は、前記本発明のプログラムを記録していることを特徴とする。
本発明によれば、ユーザが、ユーザ自身とは異なる属性の感覚に基づいて仮想空間を疑似体験することが可能である。
図1は、実施形態2および3のVR画像表示システムの一例を示すブロック図である。 図2は、実施形態2および3のVR画像表示方法のフローチャートである。
本発明のVR画像表示システムは、例えば、前記属性が、年齢、性別、身長、障害の有無、および障害の種類からなる群から選択された少なくとも1つの属性である。
本発明のVR画像表示システムは、例えば、前記身体機能情報が、動作の早さ、可動域の範囲、力の強さ、聴力、および視力からなる群から選択された少なくとも1つの情報である。
本発明のVR画像表示システムは、例えば、さらに、音声出力手段を含み、前記音声出力手段は、前記選択された属性の聴力情報に基づいて、音声を出力する。
本発明のVR画像表示方法は、例えば、前記属性が、年齢、性別、身長、障害の有無、および障害の種類からなる群から選択された少なくとも1つの属性である。
本発明のVR画像表示方法は、例えば、前記身体機能情報が、動作の早さ、可動域の範囲、および力の強さからなる群から選択された少なくとも1つの情報である。
本発明のVR画像表示方法は、例えば、さらに、音声出力工程を含み、
前記音声出力工程は、前記選択された属性の聴力情報に基づいて、音声を出力する。
つぎに、本発明の実施形態について説明する。なお、本発明は、下記の実施形態によって何ら限定および制限されない。なお、以下の図1および図2において、同一部分には、同一符号を付している。また、各実施形態の説明は、特に言及がない限り、互いの説明を援用できる。さらに、各実施形態の構成は、特に言及がない限り、組合せ可能である。以下、選択した属性の身体画像情報に基づくVR画像の生成、選択した属性の身体機能情報に基づくVR画像の動きの制御は、ユーザとは異なる属性に基づくことから、「ペルソナ化」ともいう。
[実施形態1]
実施形態1は、本発明の第1のVR画像表示システムおよびVR画像表示方法に関する。
本実施形態のVR画像表示システムは、記憶手段、選択手段、生成手段、制御手段、感知手段、および表示手段を含む。
VR画像表示システムは、例えば、全ての手段が一体化して装置(例えば、VR画像表示装置ともいう)に搭載されてもよいし、いずれかの手段が分離してもよい。具体例として、記憶手段、選択手段、生成手段、および制御手段を備える本体と、端末とを備え、両者が電気的に接続された形態があげられる。VR画像表示システムは、例えば、前記端末と前記本体とが、通信回線網を介して連結されてもよい。
前記感知手段および前記表示手段は、例えば、前記端末に組み込まれてもよい。前記端末は、例えば、ユーザが装着できる端末であり、ヘッドマウントディスプレイ、VRゴーグル等があげられる。前記端末において、前記感知手段は、例えば、モーションセンサである。前記端末は、さらに、スピーカー等の音声出力手段を含んでもよい。
前記記憶手段およびデータ処理手段は、例えば、前記本体に組み込まれてもよい。前記選択手段、前記生成手段、および前記制御手段は、例えば、ハードウェアである前記データ処理手段に組み込まれてもよく、ソフトウェアまたは前記ソフトウェアが組み込まれたハードウェアでもよい。前記データ処理手段は、中央演算装置(CPU)等を備えてもよい。
前記VR画像表示システムにおいて、前記記憶手段は、前記選択手段に電気的に接続され、前記選択手段は、前記生成手段に電気的に接続され、前記制御手段は、前記生成手段および前記感知手段に電気的に接続され、前記表示手段は、前記制御手段に電気的に接続されている。
前記VR画像表示システムにより表示されるVR画像は、例えば、仮想空間に表示される身体のVR画像であり、具体的には、ユーザの眼から見えると想定される身体のVR画像である。
前記記憶手段は、属性と、属性ごとの身体画像情報とを記憶する。記憶手段は、例えば、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、フラッシュメモリー、ハードディスク(HD)、光ディスク、フロッピー(登録商標)ディスク(FD)等があげられる。記憶手段は、例えば、装置内蔵型でもよいし、外部記憶装置のような外付け型であってもよい。
前記属性の対象は、例えば、人である。前記属性は、例えば、年齢、性別、身長、障害の有無、障害の種類等があげられる。年齢は、例えば、具体的な年齢層の分類でもよいし、幼児、子供、大人、老人等のカテゴリーの分類でもよい。性別は、例えば、男性、女性である。身長は、例えば、具体的な数値による分類でもよいし、数値範囲による分類でもよい。障害は、特に制限されず、例えば、下半身の障害、上半身の障害等があげられる。
前記属性ごとの身体画像情報とは、前記属性に該当する身体画像情報である。前記身体画像情報とは、例えば、身体画像そのものでもよいし、身体画像を生成するための情報であってもよい。対象となる身体は、特に制限されず、例えば、人間が自分の視界において視認できる自分自身の身体部位があげられ、具体例としては、手、腕、肩、胸、腹等の上半身、足等の下半身等があげられる。
前記感知手段は、ユーザの動作を感知する。前記感知手段は、例えば、モーションセンサ等のセンサがあげられる。ヘッドマウントディスプレイ等の前記端末をユーザが装着することで、前記端末のセンサにより、前記端末を装着したユーザの動作が感知される。
前記記憶手段に記憶される属性の数は、特に制限されず、1つでもよいが、2つ以上の複数であることが好ましい。前記VR画像表示システムでは、後述するように、ユーザが選択した属性に応じたVR画像が表示できることから、複数の属性を記憶させることで、例えば、多種多様なVR画像の設定が可能になる。
前記選択手段は、生成するVR画像の属性を選択する。具体的には、前記記憶手段に記憶された属性から、生成するVR画像の属性を選択する。前記選択手段は、例えば、CPU等があげられる。前記VR画像表示システムにおいて、例えば、前記本体は、さらに、表示手段および入力手段を有してもよい。この場合、前記表示手段に、前記記憶手段に記憶された属性が表示され、前記入力手段により、選択する属性が入力されてもよい。前記表示手段は、例えば、タッチパネル等のモニターがあげられ、前記入力手段は、例えば、キーボード、マウス、タッチパネル等があげられる。
前記生成手段は、前記選択された属性の身体画像情報からVR画像を生成する。前記生成手段は、例えば、CPU等があげられる。
前記制御手段は、前記感知したユーザの動作情報に基づいて、前記生成されたVR画像の動きを制御する。前記制御手段は、例えば、CPU等があげられる。
前記表示手段は、前記制御されたVR画像を表示する。前記表示手段は、例えば、ヘッドマウントディスプレイ等のディスプレイがあげられる。
つぎに、本実施形態におけるVR画像表示方法のフローチャートを示す。本実施形態のVR画像表示方法は、例えば、前記本実施形態の表示システムを用いて、つぎのように実施する。本実施形態の表示方法は、A1ステップ(属性選択)、A2ステップ(ユーザの動作の感知)、A3ステップ(VR画像の生成)、A4ステップ(VR画像の制御)、およびA5ステップ(VR画像の表示)を含む。本実施形態のVR画像表示方法は、前記A1ステップ、前記A2ステップ、前記A3ステップ、前記A4ステップ、および前記A5ステップをこの順序で実施しているが、本発明の第1のVR画像表示方法は、この順序に制限されず、例えば、前記A2ステップ〜前記A5ステップを、例えば、並行して実施してもよい。
(A1)属性の選択
前記A1ステップでは、前記記憶手段に記憶された属性を選択する。前記属性の選択により、選択した前記属性の身体画像情報を取得する。
(A2)ユーザの動作の感知
前記A2ステップでは、ユーザの動作を感知する。前記A2ステップでは、例えば、ユーザが前記感知手段を備えた端末を装着することで、ユーザの動作を感知し、動作情報を取得する。
(A3)VR画像の生成
前記A3ステップでは、前記選択された属性の身体画像情報に基づいて、前記選択された属性のVR画像を生成する。
(A4)VR画像の制御
前記A4ステップでは、前記感知されたユーザの動作情報に基づいて、前記生成されたVR画像の動きを制御する。
(A5)VR画像の表示
前記A5ステップでは、前記制御されたVR画像を表示する。そして、ユーザが動いている間、前記(A2)〜(A5)を繰り返し行い、終了する。
以下に、本実施形態の表示システムおよび表示方法について、ユーザが大人であり、属性として子供を選択する場合を例にあげて説明する。なお、本発明は、これには制限されない。
前記A1ステップで、属性として子供を選択する。この選択により、子供の身体画像情報を取得する。前記身体画像情報は、例えば、VR画像を生成するための情報であり、具体例として、子供の小さい手、小さい足等の情報である。
つぎに、前記A2ステップでは、大人ユーザの動作を感知する。前記ユーザは、例えば、前述のように、センサ付きヘッドマウントディスプレイ等の端末を装着した状態で動作する。
そして、前記A3ステップでは、前記選択された子供の身体画像情報から、VR画像を生成する。この場合、例えば、子供の身体画像情報から、小さい手のVR画像を生成する。
さらに、前記A4ステップでは、前記大人ユーザの動作情報に基づいて、前記生成されたVR画像の動きを制御する。
そして、前記A5ステップでは、前記制御されたVR画像が表示される。つまり、実際の大人ユーザの身体とは異なり、子供の身体画像が表示される。
このように、本発明のVR画像表示システムによれば、例えば、実際のユーザが大人であっても、仮想空間に表示されるVR画像は、ユーザ自身が認識している身体画像とは異なり、サイズの小さな子供の身体画像が表示される。このため、ユーザは、自分とは異なる属性の身体を、仮想空間において、疑似体験することができる。
[実施形態2]
実施形態2は、本発明の第2のVR画像表示システムおよびVR画像表示方法に関する。
図1に、本実施形態におけるVR画像表示システムのブロック図を示す。図1に示すように、本実施形態のVR画像表示システム1は、記憶手段11、選択手段121、補正手段122、生成手段123、制御手段124、感知手段101、および表示手段102を含む。
VR画像表示システム1は、例えば、全ての手段が一体化して装置(例えば、VR画像表示装置ともいう)に搭載されてもよいし、いずれかの手段が分離してもよい。図1には、記憶手段11、選択手段121、補正手段122、生成手段123、および制御手段124を備える本体20と、端末10とを備え、両者が電気的に接続された形態を例示する。VR画像表示システム1は、例えば、端末10と本体20とが、通信回線網を介して連結されてもよい。
感知手段101および表示手段102は、例えば、端末10に組み込まれてもよい。端末10は、例えば、ユーザが装着できる端末であり、ヘッドマウントディスプレイ、VRゴーグル等があげられる。端末10において、感知手段101は、例えば、モーションセンサである。端末10は、さらに、スピーカー等の音声出力手段を含んでもよい。
記憶手段11およびデータ処理手段12は、例えば、本体20に組み込まれてもよい。選択手段121、補正手段122、生成手段123、および制御手段124は、例えば、ハードウェアであるデータ処理手段12に組み込まれてもよく、ソフトウェアまたは前記ソフトウェアが組み込まれたハードウェアでもよい。データ処理手段12は、中央演算装置(CPU)等を備えてもよい。
VR画像表示システム1において、記憶手段11は、選択手段121に電気的に接続され、補正手段122は、選択手段121、感知手段101、生成手段123、および制御手段124に電気的に接続され、生成手段123は、制御手段124に電気的に接続され、表示手段102は、制御手段124に電気的に接続されている。
VR画像表示システム1により表示されるVR画像は、例えば、仮想空間に表示される身体のVR画像であり、具体的には、ユーザの眼から見えると想定される身体のVR画像である。
記憶手段11は、属性と、身体画像情報と、属性ごとの身体機能情報とを記憶する。記憶手段11は、例えば、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、フラッシュメモリー、ハードディスク(HD)、光ディスク、フロッピー(登録商標)ディスク(FD)等があげられる。記憶手段11は、例えば、装置内蔵型でもよいし、外部記憶装置のような外付け型であってもよい。
前記属性の対象は、例えば、人である。前記属性は、例えば、年齢、性別、身長、障害の有無、障害の種類等があげられる。年齢は、例えば、具体的な年齢層の分類でもよいし、幼児、子供、大人、老人等のカテゴリーの分類でもよい。性別は、例えば、男性、女性である。身長は、例えば、具体的な数値による分類でもよいし、数値範囲による分類でもよい。障害は、特に制限されず、例えば、下半身の障害、上半身の障害等があげられる。
前記身体画像情報とは、例えば、身体画像そのものでもよいし、身体画像を生成するための情報であってもよい。対象となる身体は、特に制限されず、例えば、人間が自分の視界において視認できる自分自身の身体部位があげられ、具体例としては、手、腕、肩、胸、腹等の上半身、足等の下半身等があげられる。
前記属性ごとの身体機能情報とは、前記属性に該当する身体機能情報である。前記身体機能情報とは、動作の早さ、可動域の範囲、力の強さ、聴力、視力等があげられる。
感知手段101は、ユーザの動作を感知する。感知手段101は、例えば、モーションセンサ等のセンサがあげられる。ヘッドマウントディスプレイ等の端末10をユーザが装着することで、端末10のセンサにより、端末10を装着したユーザの動作が感知される。
記憶手段11に記憶される属性の数は、特に制限されず、1つでもよいが、2つ以上の複数であることが好ましい。VR画像表示システム1では、後述するように、ユーザが選択した属性に応じたVR画像が表示できることから、複数の属性を記憶させることで、例えば、多種多様なVR画像の設定が可能になる。
選択手段121は、生成するVR画像の動きを設定するための属性を選択する。具体的には、記憶手段11に記憶された属性から、生成するVR画像の動きを設定するための属性を選択する。選択手段121は、例えば、CPU等があげられる。VR画像表示システム1において、例えば、本体20は、さらに、表示手段および入力手段を有してもよい。この場合、前記表示手段に、記憶手段11に記憶された属性が表示され、前記入力手段により、選択する属性が入力されてもよい。前記表示手段は、例えば、タッチパネル等のモニターがあげられ、前記入力手段は、例えば、キーボード、マウス、タッチパネル等があげられる。
補正手段122は、感知手段101により感知したユーザの動作情報を、前記選択された属性の身体機能情報に基づいて補正する。補正手段122は、例えば、CPU等があげられる。
生成手段123は、前記身体画像情報からからVR画像を生成する。生成手段123は、例えば、CPU等があげられる。
制御手段124は、前記補正された動作情報に基づいて、前記生成されたVR画像の動きを制御する。制御手段124は、例えば、CPU等があげられる。
表示手段102は、前記制御されたVR画像を表示する。表示手段102は、例えば、ヘッドマウントディスプレイ等のディスプレイがあげられる。
つぎに、本実施形態におけるVR画像表示方法のフローチャートを、図2に示す。本実施形態のVR画像表示方法は、例えば、図1の表示システムを用いて、つぎのように実施する。本実施形態の表示方法は、A1ステップ(属性選択)、A2ステップ(ユーザの動作の感知)、A3ステップ(ユーザの動作情報の補正)、A4ステップ(VR画像の生成)、A5ステップ(VR画像の制御)、およびA6ステップ(VR画像の表示)を含む。本実施形態のVR画像表示方法は、前記A1ステップ、前記A2ステップ、前記A3ステップ、前記A4ステップ、前記A5ステップ、および前記A6ステップをこの順序で実施しているが、本発明のVR画像表示方法は、この順序に制限されず、例えば、前記A2ステップ〜前記A6ステップを、例えば、並行して実施してもよい。
(A1)属性の選択
前記A1ステップでは、前記記憶手段に記憶された属性を選択する。前記属性の選択により、選択した前記属性の身体機能情報を取得する。
(A2)ユーザの動作の感知
前記A2ステップでは、ユーザの動作を感知する。前記A2ステップでは、例えば、ユーザが前記感知手段を備えた端末を装着することで、ユーザの動作を感知し、動作情報を取得する。
(A3)ユーザの動作情報の補正
前記A3ステップでは、前記感知したユーザの動作情報を、前記選択された属性の身体機能情報に基づいて補正する。
(A4)VR画像の生成
前記A4ステップでは、前記記憶手段に記憶された身体画像情報に基づいて、VR画像を生成する。
(A5)VR画像の制御
前記A5ステップでは、前記補正された動作情報に基づいて、前記生成されたVR画像の動きを制御する。
(A6)VR画像の表示
前記A6ステップでは、前記制御されたVR画像を表示する。そして、ユーザが動いている間、前記(A2)〜(A6)を繰り返し行い、終了する。
以下に、本実施形態の表示システムおよび表示方法について、ユーザが男性であり、属性として女性を選択する場合を例にあげて説明する。なお、本発明は、これには制限されない。
前記A1ステップで、属性として女性を選択する。この選択により、女性の身体機能情報を取得する。前記身体機能情報は、例えば、力が弱い等の情報である。
つぎに、前記A2ステップでは、男性ユーザの動作を感知する。前記ユーザは、例えば、前述のように、センサ付きヘッドマウントディスプレイ等の端末を装着した状態で動作する。
そして、前記A3ステップでは、前記感知した男性ユーザの動作情報を、前記選択された女性の身体機能情報に基づいて補正する。この場合、実際の男性ユーザの動作を示す動作情報と、前記女性の身体機能情報とを比較し、例えば、前記男性ユーザの力が強いという動作情報を、前記女性の力が弱いという身体機能情報に基づいて、力が弱いという動作情報に補正する。
つぎに、前記A4ステップでは、前記身体画像情報から、VR画像を生成する。
さらに、前記A5ステップでは、前記補正された動作情報に基づいて、前記生成されたVR画像の動きを制御する。この場合、実際の男性ユーザの動作は力が強い動作であるが、前記選択された女性の身体機能情報から、力が弱いという動作情報に補正されているため、前記生成されたVR画像の動きは、実際のユーザの動作とは異なり、力が弱い動作に制御される。
そして、前記A6ステップでは、前記制御されたVR画像が表示される。つまり、実際のユーザの動作とは異なり、身体のVR画像が、力が弱い動きで表示される。具体例としては、男性ユーザが、荷物を持ち上げるという動作を行っても、仮想空間においては、荷物が持ち上がらないという動作の画像が表示される。
このように、本発明のVR画像表示システムによれば、例えば、実際のユーザが男性であり、実際には力が強い動作を行っていても、仮想空間に表示されるVR画像は、ユーザ自身が体感している動きとは異なり、力が弱い動きである。このため、ユーザは、自分とは異なる属性の身体機能を有する人の動きを、仮想空間において、疑似体験することができる。
[実施形態3]
実施形態3は、本発明の第3のVR画像表示システムおよびVR画像表示方法に関する。
本実施形態におけるVR画像表示システムは、前記実施形態2と同様に、図1のブロック図で示すことができる。図1に示すように、本実施形態のVR画像表示システム1は、記憶手段11、選択手段121、補正手段122、生成手段123、制御手段124、感知手段101、および表示手段102を含む。
VR画像表示システム1は、例えば、全ての手段が一体化して装置(例えば、VR画像表示装置ともいう)に搭載されてもよいし、いずれかの手段が分離してもよい。図1には、記憶手段11、選択手段121、補正手段122、生成手段123、および制御手段124を備える本体20と、端末10とを備え、両者が電気的に接続された形態を例示する。VR画像表示システム1は、例えば、端末10と本体20とが、通信回線網を介して連結されてもよい。
感知手段101および表示手段102は、例えば、端末10に組み込まれてもよい。端末10は、例えば、ユーザが装着できる端末であり、ヘッドマウントディスプレイ、VRゴーグル等があげられる。端末10において、感知手段101は、例えば、モーションセンサである。端末10は、さらに、スピーカー等の音声出力手段を含んでもよい。
記憶手段11およびデータ処理手段12は、例えば、本体20に組み込まれてもよい。選択手段121、補正手段122、生成手段123、および制御手段124は、例えば、ハードウェアであるデータ処理手段12に組み込まれてもよく、ソフトウェアまたは前記ソフトウェアが組み込まれたハードウェアでもよい。データ処理手段12は、中央演算装置(CPU)等を備えてもよい。
VR画像表示システム1において、記憶手段11は、選択手段121に電気的に接続され、補正手段122は、選択手段121、感知手段101、生成手段123、および制御手段124に電気的に接続され、生成手段123は、制御手段124に電気的に接続され、表示手段102は、制御手段124に電気的に接続されている。
VR画像表示システム1により表示されるVR画像は、例えば、仮想空間に表示される身体のVR画像であり、具体的には、ユーザの眼から見えると想定される身体のVR画像である。
記憶手段11は、属性ごとの身体画像情報と、前記身体画像に関連付けた身体機能情報とを記憶する。記憶手段11は、例えば、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、フラッシュメモリー、ハードディスク(HD)、光ディスク、フロッピー(登録商標)ディスク(FD)等があげられる。記憶手段11は、例えば、装置内蔵型でもよいし、外部記憶装置のような外付け型であってもよい。
前記属性の対象は、例えば、人である。前記属性は、例えば、年齢、性別、身長、障害の有無、障害の種類等があげられる。年齢は、例えば、具体的な年齢層の分類でもよいし、幼児、子供、大人、老人等のカテゴリーの分類でもよい。性別は、例えば、男性、女性である。身長は、例えば、具体的な数値による分類でもよいし、数値範囲による分類でもよい。障害は、特に制限されず、例えば、下半身の障害、上半身の障害等があげられる。
前記属性ごとの身体画像情報とは、前記属性に該当する身体画像情報である。前記身体画像情報とは、例えば、身体画像そのものでもよいし、身体画像を生成するための情報であってもよい。対象となる身体は、特に制限されず、例えば、人間が自分の視界において視認できる自分自身の身体部位があげられ、具体例としては、手、腕、肩、胸、腹等の上半身、足等の下半身等があげられる。
前記身体機能情報とは、動作の早さ、可動域の範囲、力の強さ、聴力、視力等があげられる。
感知手段101は、ユーザの動作を感知する。感知手段101は、例えば、モーションセンサ等のセンサがあげられる。ヘッドマウントディスプレイ等の端末10をユーザが装着することで、端末10のセンサにより、端末10を装着したユーザの動作が感知される。
記憶手段11に記憶される属性の数は、特に制限されず、1つでもよいが、2つ以上の複数であることが好ましい。VR画像表示システム1では、後述するように、ユーザが選択した属性に応じたVR画像が表示できることから、複数の属性を記憶させることで、例えば、多種多様なVR画像の設定が可能になる。
選択手段121は、生成するVR画像の属性を選択する。具体的には、記憶手段11に記憶された属性から、生成するVR画像の属性を選択する。選択手段121は、例えば、CPU等があげられる。VR画像表示システム1において、例えば、本体20は、さらに、表示手段および入力手段を有してもよい。この場合、前記表示手段に、前記記憶手段に記憶された属性が表示され、前記入力手段により、選択する属性が入力されてもよい。前記表示手段は、例えば、タッチパネル等のモニターがあげられ、前記入力手段は、例えば、キーボード、マウス、タッチパネル等があげられる。
補正手段122は、感知手段101により感知したユーザの動作情報を、前記選択された属性の身体機能情報に基づいて補正する。補正手段122は、例えば、CPU等があげられる。
生成手段123は、前記補正された動作情報に基づいて、前記選択された属性の身体画像情報からVR画像を生成する。生成手段123は、例えば、CPU等があげられる。
制御手段124は、前記補正された動作情報に基づいて、前記生成されたVR画像の動きを制御する。制御手段124は、例えば、CPU等があげられる。
表示手段102は、前記制御されたVR画像を表示する。表示手段102は、例えば、ヘッドマウントディスプレイ等のディスプレイがあげられる。
つぎに、本実施形態におけるVR画像表示方法のフローチャートを、例えば、前記実施形態2と同様に、図2に示す。本実施形態のVR画像表示方法は、例えば、図1の表示システムを用いて、つぎのように実施する。本実施形態の表示方法は、A1ステップ(属性選択)、A2ステップ(ユーザの動作の感知)、A3ステップ(ユーザの動作情報の補正)、A4ステップ(VR画像の生成)、A5ステップ(VR画像の制御)、およびA6ステップ(VR画像の表示)を含む。本実施形態のVR画像表示方法は、前記A1ステップ、前記A2ステップ、前記A3ステップ、前記A4ステップ、前記A5ステップ、および前記A6ステップをこの順序で実施しているが、本発明のVR画像表示方法は、この順序に制限されず、例えば、前記A2ステップ〜前記A6ステップを、例えば、並行して実施してもよい。
(A1)属性の選択
前記A1ステップでは、前記記憶手段に記憶された属性を選択する。前記属性の選択により、選択した前記属性の身体画像情報と、それに関連付けた身体機能情報を取得する。
(A2)ユーザの動作の感知
前記A2ステップでは、ユーザの動作を感知する。前記A2ステップでは、例えば、ユーザが前記感知手段を備えた端末を装着することで、ユーザの動作を感知し、動作情報を取得する。
(A3)ユーザの動作情報の補正
前記A3ステップでは、前記感知したユーザの動作情報を、前記選択された属性の身体機能情報に基づいて補正する。
(A4)VR画像の生成
前記A4ステップでは、前記補正された動作情報に基づいて、前記選択された属性のVR画像を生成する。
(A5)VR画像の制御
前記A5ステップでは、前記補正された動作情報に基づいて、前記生成されたVR画像の動きを制御する。
(A6)VR画像の表示
前記A6ステップでは、前記制御されたVR画像を表示する。そして、ユーザが動いている間、前記(A2)〜(A6)を繰り返し行い、終了する。
以下に、本実施形態の表示システムおよび表示方法について、ユーザが若年層であり、属性として、老年層を選択する場合を例にあげて説明する。なお、本発明は、これには制限されない。
前記A1ステップで、属性として老年層を選択する。この選択により、老年層の身体画像情報と、老年層の身体機能情報を取得する。前記身体画像情報は、例えば、VR画像を生成するための情報であり、具体例として、老化により皺の入った手、老化により曲がった足等の情報である。前記身体機能情報は、例えば、動作が遅い、腰が曲がって伸びない、足が曲がって伸びない、足が上がらない、手があがらない、腰をひねることができない、顔があがらない等の情報である。
つぎに、前記A2ステップでは、若年層ユーザの動作を感知する。前記ユーザは、例えば、前述のように、センサ付きヘッドマウントディスプレイ等の端末を装着した状態で動作する。
そして、前記A3ステップでは、前記感知した若年層ユーザの動作情報を、前記選択された老年層の身体機能情報に基づいて補正する。この場合、実際の若年層ユーザの動作を示す動作情報と、前記老年層の身体機能情報とを比較し、例えば、前記若年層ユーザの動作が早いという動作情報を、前記老年層の動作が遅いという身体機能情報に基づいて、動作が遅いという動作情報に補正する。
つぎに、前記A4ステップでは、前記補正された動作情報に基づいて、前記選択された老年層の身体画像情報から、VR画像を生成する。この場合、例えば、老年層の身体画像情報から、老化により皺の入った手のVR画像を生成する。
さらに、前記A5ステップでは、前記補正された動作情報に基づいて、前記生成されたVR画像の動きを制御する。この場合、実際の若年層ユーザの動作は早い動作であるが、前記選択された老年層の身体機能情報から、動作が遅いという動作情報に補正されているため、前記生成されたVR画像の動きは、実際のユーザの動作とは異なり、遅い動作に制御される。
そして、前記A6ステップでは、前記制御されたVR画像が表示される。つまり、実際のユーザの動作とは異なり、身体のVR画像が遅い動きで表示される。
このように、本発明のVR画像表示システムによれば、例えば、実際のユーザが若年層であり、実際には機敏な動作を行っていても、仮想空間に表示されるVR画像は、ユーザ自身が体感している動きとは異なり、鈍重な動きである。このため、ユーザは、自分とは異なる属性の身体機能を有する人の動きを、仮想空間において、疑似体験することができる。
本発明のVR画像表示システムは、このように、ユーザが、ユーザとは異なる属性の感覚に基づいて仮想空間を疑似体験が可能であることから、例えば、バリアフリー等の建築物の構造チェック等に使用することができる。
老人、身体障害者、幼児等に対する安全性の確保から、バリアフリー設計が重要となっている。しかし、設計に基づいて建築した場合には、対象者と設計者との間で身体機能が異なることから、実際に対象者にとって適しているか否かを判断しにくい場合がある。このような場合、本発明のVR画像表示システムにおいて、設計したバリアフリーの部屋を仮想空間として表示し、対象者(例えば、老人)が該当する属性を選択し、ユーザが、自分とは異なる対象者の属性の身体機能により、前記仮想空間に対して動作を行うことによって、設計が適切か否かを確認することができる。例えば、バリアフリーの条件を満たすとして設計された段差に対して、ユーザ自身は、自身の身体機能に基づき、段差を超えることができると思われる足上げの動作を行う。しかしながら、本発明のVR画像表示システムでは、実際の動作情報が、属性の身体機能情報に基づいて補正されているため、生成された足のVR画像は、実際の足上げの高さには満たない状態で表示され、段差を越えることができない。段差を超えるために、ユーザは、さらに足を上げる必要があり、段差を越えるために、結果的に、段差を越えるための現実世界での負荷よりも大きな負荷がかかることになる。この疑似体験から、設計した段差が、ユーザ自身が感じるよりも、対象者にとっては、より大きな身体的負担を伴う段差であることを理解することができ、よりよいバリアフリー設計につなげることができる。また、実際に建築するに先立って、疑似体験による具体的なチェックを行うことができるため、施工後の変更や修理等を減らすこともできる。
前記建築物としては、例えば、住居、オフィス、店舗、工場、研究所、駅、空港、ホテル等の宿泊施設等があげられる。また、チェックする対象としては、例えば、バリアフリーのほかに、動線等もあげられる。
例えば、前記属性を「老人」、前記属性の身体機能情報を「手の動きが遅いという機能情報」とする場合が例示できる。この場合、ユーザが若年層であると、実際には機敏に手を動かしているにもかかわらず、仮想空間においては、実際の動きとは異なり、手がゆっくりとしか動かないという画像表示となる。このため、ユーザは、違和感を覚える。これに対して、ユーザが、実際の動きをゆっくりとして、仮想空間におけるVR画像の動きに追従させれば、ユーザは、その違和感を解消することができる。このように、仮想空間における画像により、ユーザに違和感を覚えさせ、さらに、実際の動きを仮想空間での動きに合わせて、その違和感を解消することにより、選択した属性の感覚を疑似体験することができる。
例えば、前記属性を「子供」、前記属性の身体画像情報を「小さい手の画像情報」、前記属性の身体機能情報を「手が小さいために物がつかみにくいという機能情報」とする場合が例示できる。この場合、ユーザが大人であると、実際には容易に物をつかめるにもかかわらず、仮想空間においては、物をうまくつかむことができないという状態を、疑似体験することができる。
例えば、前記属性を「骨折した人」、前記属性の身体画像情報を「骨折のため片足にギブスがついている足の画像情報」、前記属性の身体機能情報を「骨折した足が踏み出しにくいという機能情報」とする場合が例示できる。この場合、ユーザが健常者であると、実際には容易に両脚を踏み出すことができるにもかかわらず、仮想空間においては、片足が踏み出すことができないという状態を、疑似体験することができる。
本発明のVR画像表示システムは、例えば、さらに、アラート出力手段を備えてもよい。前記アラート出力手段は、例えば、ユーザの実際の動きと、仮想空間におけるVR画像の動きとが一致しない場合、アラートを出力することができる。これによって、ユーザに、より違和感を認識させることができる。前記アラートは、例えば、音でもよいし、前記表示手段におけるエフェクトでもよい。
[実施形態4]
実施形態4は、前記実施形態1〜3のそれぞれに対する変形例であり、さらに、音声出力手段を有する本発明の表示システムおよび音声出力工程を有する表示方法に関する。本実施形態の表示システムおよび表示方法は、例えば、実施形態1〜3の表示システムおよび表示方法の説明を援用できる。
前記音声出力手段は、前記選択された属性の聴力情報に基づいて、音声を出力する手段である。前記音声出力手段は、例えば、前記感知手段および前記表示手段と同様に、前記端末に搭載されている。前記音声出力工程は、前記選択された属性の聴力情報に基づいて、音声を出力する工程である。
このように、前記音声出力手段または前記音声出力工程を有することによって、さらに、実際のユーザの聴力ではなく、前記選択した属性の聴力情報に基づいて、音声が出力されるため、視覚だけでなく聴覚においても、ユーザとは異なる属性の身体機能に基づいた疑似体験が可能となる。
[実施形態5]
本発明のVR画像表示システムおよびVR画像表示方法は、例えば、以下に示すような形態も適用できる。
(1)ペルソナ化
(1−1)人体寸法データベースを有し、その体格を再現して、シミュレーションできる。
・ さらに、年齢層を入力することで、前記年齢層に該当する人の平均、または上位95%、下位95%等の体格で、シミュレーションする。これにより、人間工学的に問題ないか、効率的に確認できる。
・ 日本人等の人種における一般的な体格の条件ではなく、現場の作業者をベースに検討したい場合は、例えば、Kinect(登録商標)等で収集した人体寸法データを蓄積し、平均、上位95%、下位95%を、現場の作業者を想定して設定できる。
(1−2)妊婦体験ができる。
・ 視界の下の方に死角が増える等の視覚的フィードバック
・ 動作範囲の欠損を反映した手の表示
例えば、お腹が邪魔で手が届かない。
・ お腹への衝突の見える化
例えば、お腹が出ていることを忘れて、前に進み、机にお腹があたる。
例えば、向いから来る人とすれ違う際、避けようとして横を向いたら、お腹が出ているため、ぶつかった。
(1−3) 視野欠損体験ができる
・ 一部視野が欠損している人の体験ができる
(1−4)片耳難聴体験ができる
(1−5)前述のペルソナ体験の比較
・ ノーマルと片耳難聴体験等の両方を実施し、指定ステップごとの時間、移動、顔の動き(どちらから音がしたかを悩む顔の動き)、手の運動量等を、表等で比較表示する。
・ 時間、顔や手の運動量等の差異が大きいステップについては、表の色を変えたり、アイコン表示する等で目立つように表示する。
(1−6)ペルソナシミュレーション
・ 普通に作業した後、その作業に対して、様々なペルソナ(例えば、視覚特性、聴覚特性、運動特性、妊婦、オスメイト、車いす、肢体欠損、子供等)が、同じようにはできない行為(例えば、背が小さくて手が届かない、車いすで階段を登れない、コントラスト不足でボタンの文字が読めない等)を表示することで、健常者以外の不便に気づけるようにする。その結果、UD設計が可能となる。
(2)属性の身体機能情報
(2−1)知覚
・ 視覚をぼやかせることで、白内症の方を理解
・ 音をぼやかせることで、難聴の方を理解
・ 視覚を欠損させることで、失明者の方を理解
・ 音を欠損またはモノラルにすることで、重度の難聴者を理解
・ 身長設定を変えたときに、前の身長設定では見えなかったものを目立つように表示する
・ 子供の設定にしたときに、普段は聞こえなかった高い音を聞こえるようにする
(2−2)認知
・ 経験則を活用できなくする。
例えば、「トイレの看板を見て、男性用トイレに入る」というタスクがあったときに、トイレの性別のアイコンの色を変える。
・ 色に対する文化的解釈が異なる人が、正しく性別を判断できるかテストできる。
例えば、キーボード配列等をあべこべにして、初めてパソコンやスマートフォンを触る人の気持ちになれる。
例えば、ユーザに見せる情報(例えば、看板、標識等)で、重要な情報を右から左に配置する。
(2−3)記憶
・ 強制的に忘れる状況を作り出す。
例えば、タスク達成に「マニュアルを読む」という作業があった場合に、認知症またはモノ忘れの多い人の再現モードでは、マニュアルを読むタスクをスキップさせることで、モノ忘れの多い人でも実施できるか(例えば、短期記憶に頼らない設計になっているか)を設計検証できる。
・ 強制的に勘違いする状況をつくりだす。
例えば、タスク達成に「マニュアルを読む」という作業があった場合に、マニュアルの中身をすりかえる。
(2−4)運動
・ 片腕欠損や片手で荷物を持っている人を想定して、片手は認識しないようにする、または、荷物を持ち変える動作をして、初めて操作する手の左右切り替えができる。
・ 手がプルプルしている人を想定して、ボタンを押す時等、思った位置から少しずれるようにする。手の表示もプルプルと揺れている。
[実施形態6]
本実施形態のプログラムは、前述のVR画像表示方法を、コンピュータ上で実行可能なプログラムである。本実施形態のプログラムは、例えば、コンピュータ読み取り可能な記録媒体に記録されてもよい。前記記録媒体としては、特に限定されず、例えば、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、ハードディスク(HD)、光ディスク、フロッピー(登録商標)ディスク(FD)等があげられる。
以上、実施形態を参照して本発明を説明したが、本発明は、上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解しうる様々な変更をできる。
この出願は、2016年6月17日に出願された日本出願特願2016−121107を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本発明によれば、ユーザが、ユーザ自身とは異なる属性の感覚に基づいて仮想空間を疑似体験することが可能である。
1 VR画像表示システム
10 端末
101 感知手段
102 表示手段
20 本体
11 記憶手段
12 データ処理手段
121 選択手段
122 補正手段
123 生成手段
124 制御手段

Claims (8)

  1. 属性と、身体画像情報と、属性ごとの身体機能情報とを記憶する記憶手段と、
    前記属性を選択する選択手段と、
    ユーザの動作を感知する感知手段と、
    前記感知したユーザの動作情報を、前記選択された属性の身体機能情報に基づいて補正する補正手段と、
    前記身体画像情報から、バーチャルリアリティ画像を生成する生成手段と、
    前記補正された動作情報に基づいて、前記生成されたバーチャルリアリティ画像の動きを制御する制御手段と、
    前記制御されたバーチャルリアリティ画像を表示する表示手段とを含み、
    さらに、前記感知したユーザの動作情報と、前記身体機能情報に基づいて補正された動作情報に基づいて制御されたバーチャルリアリティ画像の動きとが一致しない場合、アラートを出力するアラート出力手段を含むことを特徴とするバーチャルリアリティ画像表示システム。
  2. 属性と、属性ごとの身体画像情報と、前記身体画像に関連付けた身体機能情報とを記憶する記憶手段と、
    前記属性を選択する選択手段と、
    ユーザの動作を感知する感知手段と、
    前記感知したユーザの動作情報を、前記選択された属性の身体機能情報に基づいて補正する補正手段と、
    前記補正された動作情報に基づいて、前記選択された属性の身体画像情報から、バーチャルリアリティ画像を生成する生成手段と、
    前記補正された動作情報に基づいて、前記生成されたバーチャルリアリティ画像の動きを制御する制御手段と、
    前記制御されたバーチャルリアリティ画像を表示する表示手段とを含み、
    さらに、前記感知したユーザの動作情報と、前記身体機能情報に基づいて補正された動作情報に基づいて制御されたバーチャルリアリティ画像の動きとが一致しない場合、アラートを出力するアラート出力手段を含むことを特徴とするバーチャルリアリティ画像表示システム。
  3. 前記身体機能情報が、動作の速さ、可動域の範囲、力の強さ、聴力、および視力からなる群から選択された少なくとも1つの情報である、請求項1または2に記載のバーチャルリアリティ画像表示システム。
  4. 前記属性が、年齢、性別、身長、障害の有無、および障害の種類からなる群から選択された少なくとも1つの属性である、請求項1からのいずれか一項に記載のバーチャルリアリティ画像表示システム。
  5. さらに、音声出力手段を含み、
    前記音声出力手段は、前記選択された属性の聴力情報に基づいて、音声を出力する、請求項1からのいずれか一項に記載のバーチャルリアリティ画像表示システム。
  6. 属性を選択する選択工程と、
    ユーザの動作を感知する感知工程と、
    前記感知したユーザの動作情報を、選択された属性の身体機能情報に基づいて補正する補正工程と、
    身体画像情報から、バーチャルリアリティ画像を生成する生成工程と、
    前記補正された動作情報に基づいて、前記生成されたバーチャルリアリティ画像の動きを制御する制御工程と、
    前記制御されたバーチャルリアリティ画像を表示する表示工程とを含み、
    さらに、前記感知したユーザの動作情報と、前記身体機能情報に基づいて補正された動作情報に基づいて制御されたバーチャルリアリティ画像の動きとが一致しない場合、アラートを出力するアラート出力工程を含むことを特徴とするバーチャルリアリティ画像表示方法。
  7. 請求項記載の表示方法をコンピュータ上で実行可能なことを特徴とする、プログラム。
  8. 請求項記載のプログラムを記録していることを特徴とする、コンピュータ読み取り可能な記録媒体。
JP2018523287A 2016-06-17 2017-01-16 バーチャルリアリティ画像表示システムおよびバーチャルリアリティ画像表示方法 Active JP6760613B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016121107 2016-06-17
JP2016121107 2016-06-17
PCT/JP2017/001278 WO2017216992A1 (ja) 2016-06-17 2017-01-16 バーチャルリアリティ画像表示システムおよびバーチャルリアリティ画像表示方法

Publications (2)

Publication Number Publication Date
JPWO2017216992A1 JPWO2017216992A1 (ja) 2019-03-28
JP6760613B2 true JP6760613B2 (ja) 2020-09-23

Family

ID=60663401

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018523287A Active JP6760613B2 (ja) 2016-06-17 2017-01-16 バーチャルリアリティ画像表示システムおよびバーチャルリアリティ画像表示方法

Country Status (3)

Country Link
US (1) US10950045B2 (ja)
JP (1) JP6760613B2 (ja)
WO (1) WO2017216992A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109117758A (zh) * 2018-07-27 2019-01-01 北京字节跳动网络技术有限公司 用于生成信息的方法和装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5999185A (en) * 1992-03-30 1999-12-07 Kabushiki Kaisha Toshiba Virtual reality control using image, model and control data to manipulate interactions
JP3408263B2 (ja) * 1992-03-30 2003-05-19 株式会社東芝 情報提示装置及び情報提示方法
JPH10340039A (ja) * 1997-04-09 1998-12-22 Sekisui Chem Co Ltd 擬似体験システム
US10157487B2 (en) * 2015-07-30 2018-12-18 International Business Machines Corporation VR biometric integration

Also Published As

Publication number Publication date
US20200312024A1 (en) 2020-10-01
WO2017216992A1 (ja) 2017-12-21
JPWO2017216992A1 (ja) 2019-03-28
US10950045B2 (en) 2021-03-16

Similar Documents

Publication Publication Date Title
CN111656304B (zh) 通信方法及系统
Khadilkar et al. Android phone controlled voice, gesture and touch screen operated smart wheelchair
Phillips et al. Social interaction without vision: an assessment of assistive technology for the visually impaired
Chung et al. Design and implementation of a novel system for correcting posture through the use of a wearable necklace sensor
JP6760613B2 (ja) バーチャルリアリティ画像表示システムおよびバーチャルリアリティ画像表示方法
Zupan et al. Assistive technology for people with cerebral palsy
CN118034499A (zh) 用于处理触觉反馈的方法和装置
JP7189434B2 (ja) 空間制御システム
JP6531338B1 (ja) リハビリテーション支援装置、リハビリテーション支援システム、リハビリテーション支援方法およびリハビリテーション支援プログラム
WO2020145092A1 (ja) リハビリテーション支援装置、リハビリテーション支援システム、リハビリテーション支援方法およびリハビリテーション支援プログラム
WO2020166248A1 (ja) シートシステムおよびプログラム
JP7454326B1 (ja) 状態評価方法、状態評価システム及び状態評価プログラム
JP7131542B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6978860B2 (ja) 体操支援方法、体操支援システム、及び体操支援プログラム
Cavallo et al. A first step toward a pervasive and smart ZigBee sensor system for assistance and rehabilitation
JP2023036050A (ja) 支援装置、支援方法、支援システムおよびプログラム
JP4032885B2 (ja) 加齢効果予測人体モデル生成システム
JP2003271891A (ja) 商品仮想体験システム
WO2016136127A1 (ja) 表示装置、表示方法およびプログラム
Profita et al. Textile-based assistive wearables
JP2005049601A (ja) 擬似体験システム
Qiu Anthropomorphic Design for Everyday Objects
KR101643913B1 (ko) 정보 이용자의 특성에 따른 정보 표시 위치 결정 시스템
Encarnação et al. What assistive technologies exist to enable participation in play?
Profita et al. Textile-based wearables

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181031

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181031

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200827

R150 Certificate of patent or registration of utility model

Ref document number: 6760613

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150