[go: up one dir, main page]

JP6936465B1 - 仮想空間体感システム - Google Patents

仮想空間体感システム Download PDF

Info

Publication number
JP6936465B1
JP6936465B1 JP2021520431A JP2021520431A JP6936465B1 JP 6936465 B1 JP6936465 B1 JP 6936465B1 JP 2021520431 A JP2021520431 A JP 2021520431A JP 2021520431 A JP2021520431 A JP 2021520431A JP 6936465 B1 JP6936465 B1 JP 6936465B1
Authority
JP
Japan
Prior art keywords
avatar
player
virtual space
coordinates
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021520431A
Other languages
English (en)
Other versions
JPWO2021095175A1 (ja
Inventor
鈴木 祥太
祥太 鈴木
烈 野村
烈 野村
義勝 金丸
義勝 金丸
良哉 尾小山
良哉 尾小山
良昌 ▲高▼橋
良昌 ▲高▼橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Application granted granted Critical
Publication of JP6936465B1 publication Critical patent/JP6936465B1/ja
Publication of JPWO2021095175A1 publication Critical patent/JPWO2021095175A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/843Special adaptations for executing a specific game genre or game mode involving concurrently two or more players on the same game device, e.g. requiring the use of a plurality of controllers or of a specific view of game data for each player
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

没入感を阻害せずに、意図しないプレイヤー同士の接触を防止することができる仮想空間体感システムを提供する。VRシステムSの仮想空間画像決定部35は、第2プレイヤーに認識させる仮想空間の画像に、トリガーイベントの認識時には、第1プレイヤーの座標と第1プレイヤーに対応する第1アバターの座標との対応関係にズレを生じさせるように、第1アバターが移動する画像を含ませ、認識後には、第2プレイヤーに対応する第2アバター及び第1プレイヤーに対応する第3アバターの画像を含ませる。アバター座標決定部34は、第1プレイヤーの座標に基づいて、第3アバターの座標を決定する。

Description

本発明は、画像として表示された仮想空間に、プレイヤー自身が存在していると認識させるための仮想空間体感システムに関する。
従来、サーバ等で仮想空間を生成し、ヘッドマウントディスプレイ(以下、「HMD」ということがある。)を介して、その仮想空間の画像をプレイヤーに認識させ、プレイヤー自身がその仮想空間に存在していると認識させる仮想空間体感システムがある。
この種の仮想空間体感システムは、モーションキャプチャー装置等によってプレイヤーの現実空間における動作(例えば、座標の移動、姿勢の変化等)を認識し、その認識した動作に応じて、プレイヤーに対応するアバターを仮想空間で動作させるものがある(例えば、特許文献1参照)。
特許文献1に記載の仮想空間体感システムでは、現実空間で同一の部屋に存在する複数のプレイヤーが存在しているので、それらプレイヤーの各々に対応するようにして、その部屋に対応する同一の仮想空間に複数のアバターを生成している。
特開2018−013901号公報
ところで、特許文献1の仮想空間体感システムでは、プレイヤーの現実空間における座標と、そのプレイヤーに対応するアバターの仮想空間における座標との対応関係に、意図的にズレを生じさせている。これにより、そのプレイヤー自身、又は、そのプレイヤーに対応するアバターを認識している他のプレイヤーに、現実空間よりも拡張された仮想空間を認識させることができるようになっている。
ここで、そのようなズレを生じさせた場合、プレイヤー同士が現実空間における互いの位置関係を適切に把握することができなくなり、意図せずプレイヤー同士が接触してしまうおそれがあった。ひいては、仮想空間への没入感が阻害されてしまうおそれがあった。
本発明は以上の点に鑑みてなされたものであり、没入感を阻害せずに、意図しないプレイヤー同士の接触を防止することができる仮想空間体感システムを提供することを目的とする。
本発明の仮想空間体感システムは、
第1プレイヤー及び第2プレイヤーが共に存在する現実空間における所定の領域に対応する仮想空間を生成する仮想空間生成部と、
前記第1プレイヤーの動作に対応して動作する第1アバター、及び、前記第2プレイヤーの動作に対応して動作する第2アバターを、前記仮想空間に生成するアバター生成部と、
前記現実空間における前記第1プレイヤーの座標及び前記第2プレイヤーの座標を認識するプレイヤー座標認識部と、
前記第1プレイヤーの座標に基づいて、前記仮想空間における前記第1アバターの座標を決定し、前記第2プレイヤーの座標に基づいて、前記仮想空間における前記第2アバターの座標を決定するアバター座標決定部と、
前記第1アバターの座標及び前記第2アバターの座標に基づいて、前記第1プレイヤー及び前記第2プレイヤーに認識させる前記仮想空間の画像を決定する仮想空間画像決定部と、
所定のトリガーイベントの発生を認識するトリガーイベント認識部と、
前記第1プレイヤー及び前記第2プレイヤーに、前記仮想空間の画像を認識させる仮想空間画像表示器とを備えている仮想空間体感システムであって、
前記アバター生成部は、前記トリガーイベントが認識された際に、前記第1プレイヤーの動作に対応する第3アバターを、前記仮想空間に生成し、
前記仮想空間画像決定部は、前記第2プレイヤーに認識させる前記仮想空間の画像に、前記トリガーイベントが認識された際には、前記第1プレイヤーの座標と前記第1アバターの座標との対応関係にズレを生じさせるように前記第1アバターが移動する画像を含ませるとともに、前記トリガーイベントが認識された後には、前記第2アバター及び前記第3アバターの画像を含ませ、
前記アバター座標決定部は、前記第1プレイヤーの座標に基づいて、前記仮想空間における前記第3アバターの座標を決定することを特徴とする。
ここで、「仮想空間の画像」とは、プレイヤーが自らに対応するアバターの仮想空間における座標を推認し得る画像を指す。例えば、仮想空間の画像には、仮想空間の背景の画像の他、他のアバターの画像、仮想空間にのみ存在するオブジェクトの画像、現実空間に対応して仮想空間に存在するオブジェクトの画像等が含まれる。
また、ここで、プレイヤーの座標とアバターの座標との対応関係の「ズレ」とは、プレイヤーの座標の移動が生じていないときに、アバターの座標のみを移動させることによって生じるズレの他、プレイヤーの座標の移動量に対するアバターの座標の移動量、プレイヤーの座標の移動をアバターの座標の移動に反映させるまでの時間が変化した後に、プレイヤー及びアバターの移動が行われた際に生じるズレ等を含む。
このように、本発明の仮想空間体感システムでは、所定のトリガーイベントが認識された際には、第2プレイヤーに認識させる仮想空間の画像に、第1アバターが移動する画像が含まれる。そのため、その際における、第2プレイヤーの視線は、自然と第1アバターの移動を追うようなものになる。
また、そのトリガーイベントが認識された際には、仮想空間に第3アバターが生成される。すなわち、第1アバターの移動に対して第2プレイヤーの注意がひきつけられている間に、第3アバターが生成される。そして、そのトリガーイベントが認識された後には、第2プレイヤーに認識させる仮想空間の画像に、第3アバターの画像も含まれるようになる。
これにより、この仮想空間体感システムによれば、第2プレイヤーに、第3アバターが急に出現したと思わせること(ひいては、第2プレイヤーに与える違和感)を抑制することができる。その結果、第2プレイヤーの没入感を阻害せずに、第2プレイヤーに第3アバターの存在を受け入れさせることができる。
ところで、仮想空間に他のアバターが存在していると、プレイヤーは、通常、自らに対応するアバターとその他のアバターとの接触を回避しようとする。
ここで、この仮想空間体感システムでは、トリガーイベントが発生し、第1プレイヤーの座標と第1プレイヤーに対応する第1アバターの座標にズレが生じた場合には、第1プレイヤーの座標に対応する第3アバターが生成される。そして、第2プレイヤーの認識する仮想空間の画像に、その第3アバターの画像が含まれるようになる。
そのため、トリガーイベントが認識された後には、第2プレイヤーは、何らかの動作を行う際に、自然に自らの座標に対応する第2アバターと、第1プレイヤーの座標に対応する第3アバターとの接触を回避しつつ動作する。これにより、現実空間における第2アバターに対応する第2プレイヤーと第3アバターに対応する第1プレイヤーとの接触を、防止することができる。
また、本発明の仮想空間体感システムにおいては、
前記アバター生成部は、前記トリガーイベントが認識された際に、前記第2プレイヤーの動作に対応する第4アバターを、前記仮想空間に生成し、
前記仮想空間画像決定部は、前記第1プレイヤーに認識させる前記仮想空間の画像に、前記トリガーイベントが認識された際には、前記第1プレイヤーの座標と前記第1アバターの座標との対応関係に生じるズレに対応するように前記第1アバターに対して前記第2アバターが相対的に移動する画像を含ませるとともに、前記トリガーイベントが認識された後には、前記第1アバター及び前記第4アバターの画像を含ませ、
前記アバター座標決定部は、前記第2プレイヤーの座標に基づいて、前記仮想空間における前記第4アバターの座標を決定することを特徴とする。
このように、第1プレイヤーに対応する第3アバターを仮想空間に存在させるだけでなく、第2プレイヤーに対応する第4アバターを仮想空間に存在させるように構成すると、第1プレイヤーに第4アバターが急に出現したと思わせること(ひいては、第1プレイヤーに与える違和感)を抑制することができる。これにより、第1プレイヤーの没入感を阻害せずに、第1プレイヤーに第4アバターの存在を受け入れさせることができる。
また、第4アバターの存在によって、第1プレイヤーの動作による第2プレイヤーへの接触も抑制することができる。
また、本発明の仮想空間体感システムにおいては、
前記第3アバターの形状は、前記第1アバターの形状と異なる形状であることが好ましい。
このように構成すると、第2プレイヤーに、第3アバターが第1プレイヤーに対応するアバターであると認識させないようにすることができる。これにより、第2プレイヤーに、第1プレイヤーが増えたかのような違和感を与えることを抑制することができる。ひいては、第2プレイヤーの没入感をさらに阻害しにくくなる。
また、本発明の仮想空間体感システムにおいては、第1アバターの形状と第3アバターの形状が異なる構成の場合、
前記第3アバターは、前記第1プレイヤーの現実空間における動作範囲に対応する仮想空間の範囲を囲う壁であることが好ましい。
第3アバターとしては、必ずしも、人、キャラクターに限定されるものを採用する必要はなく、例えば、このような壁を採用してもよい。このように構成すると、第2プレイヤーに、第1プレイヤーに対応するアバターが増えたかのような違和感を与えることを抑制することができる。ひいては、第2プレイヤーの没入感をさらに阻害しにくくなる。
また、本発明の仮想空間体感システムは、
第1プレイヤー及び第2プレイヤーが共に存在する現実空間における所定の領域に対応する仮想空間を生成する仮想空間生成部と、
前記第1プレイヤーの動作に対応して動作する第1アバター、及び、前記第2プレイヤーの動作に対応して動作する第2アバターを、前記仮想空間に生成するアバター生成部と、
前記現実空間における前記第1プレイヤーの座標及び前記第2プレイヤーの座標を認識するプレイヤー座標認識部と、
前記第1プレイヤーの座標に基づいて、前記仮想空間における前記第1アバターの座標を決定し、前記第2プレイヤーの座標に基づいて、前記仮想空間における前記第2アバターの座標を決定するアバター座標決定部と、
前記第1アバターの座標及び前記第2アバターの座標に基づいて、前記第1プレイヤー及び前記第2プレイヤーに認識させる前記仮想空間の画像を決定する仮想空間画像決定部と、
所定のトリガーイベントの発生を認識するトリガーイベント認識部と、
前記第1プレイヤー及び前記第2プレイヤーに、前記仮想空間の画像を認識させる仮想空間画像表示器とを備えている仮想空間体感システムであって、
前記アバター生成部は、前記トリガーイベントが認識された際に、前記第2プレイヤーの動作に対応する第4アバターを、前記仮想空間に生成し、
前記仮想空間画像決定部は、前記第1プレイヤーに認識させる前記仮想空間の画像に、前記トリガーイベントが認識された際には、前記第1プレイヤーの座標と前記第1アバターの座標との対応関係に生じるズレに対応するように前記第1アバターに対して前記第2アバターが相対的に移動する画像を含ませるとともに、前記トリガーイベントが認識された後には、前記第1アバター及び前記第4アバターの画像を含ませ、
前記アバター座標決定部は、前記第2プレイヤーの座標に基づいて、前記仮想空間における前記第4アバターの座標を決定することを特徴とする。
このように、第1プレイヤーに対応する第3アバターを仮想空間に存在させるのと同様に、第2プレイヤーに対応する第4アバターを仮想空間に存在させるように構成すると、第1プレイヤーに第4アバターが急に出現したと思わせること(ひいては、第1プレイヤーに与える違和感)を抑制することができる。これにより、第1プレイヤーの没入感を阻害せずに、第1プレイヤーに第4アバターの存在を受け入れさせることができる。
また、第4アバターの存在によって、第1プレイヤーの動作による第2プレイヤーへの接触も抑制することができる。
実施形態に係るVRシステムの概略構成を示す模式図。 図1のVRシステム構成を示すブロック図。 図1のVRシステムがトリガーイベントを認識していない段階で実行する処理を示すフローチャート。 図1のVRシステムにおいてトリガーイベントが開始していない状態を示す側面図であり、図4Aは現実空間の状態を示す図、図4Bは仮想空間の状態を示す図。 図1のVRシステムにおいてトリガーイベントが開始した際の状態を示す側面図であり、図5Aは現実空間の状態を示す図、図5Bは仮想空間の状態を示す図。 図1のVRシステムにおいてトリガーイベントが終了した際の状態を示す側面図であり、図6Aは現実空間の状態を示す図、図6Bは仮想空間の状態を示す図。 図1のVRシステムにおいてトリガーイベントが終了した後の状態を示す側面図であり、図7Aは現実空間の状態を示す図、図7Bは仮想空間の状態を示す図。 図1のVRシステムがトリガーイベントを認識した際に実行する処理を示すフローチャート。 変形例に係るVRシステムにおいてトリガーイベントが開始する前の状態を示す側面図であり、仮想空間の状態を示す図。 変形例に係るVRシステムにおいてトリガーイベントが開始した際の状態を示す側面図であり、仮想空間の状態を示す図。 変形例に係るVRシステムにおいてトリガーイベントが終了した際の状態を示す側面図であり、仮想空間の状態を示す図。
以下、図面を参照して、実施形態に係る仮想空間体感システムであるVRシステムSについて説明する。
VRシステムSは、画像として表示された仮想空間(いわゆるVR(virtual reality))に、プレイヤー自身が存在していると認識させるシステムである。
また、VRシステムSは、現実空間RSの所定の領域(例えば、1つの部屋)に共に存在する第1プレイヤーP1及び第2プレイヤーP2(以下、総称する場合は「プレイヤーP」という。)に対し、その領域に対応する1つの仮想空間VSに、第1プレイヤーP1に対応する第1アバターA1及び第2プレイヤーに対応する第2アバターA2を介して、自らが共に存在すると認識させるものである。
[システムの概略構成]
まず、図1を参照して、VRシステムSの概略構成について説明する。
図1に示すように、VRシステムSは、現実空間RSに存在するプレイヤーPに取り付けられる複数の標識1と、プレイヤーP(厳密には、プレイヤーPに取り付けられた標識1)を撮影するカメラ2と、仮想空間VS(図4B等参照)の画像及び音声を決定するサーバ3と、決定された画像及び音声をプレイヤーに認識させるヘッドマウントディスプレイ(以下、「HMD4」という。)とを備えている。
VRシステムSでは、カメラ2、サーバ3及びHMD4は、無線で相互に情報を送受信可能となっている。ただし、それらのいずれか同士を有線で相互に情報を送受信可能に構成してもよい。
複数の標識1は、プレイヤーPの装着するHMD4、手袋及び靴を介して、プレイヤーPの頭部、両手及び両足のそれぞれに取り付けられている。なお、複数の標識1は、後述するようにプレイヤーPの現実空間RSにおける座標及び姿勢を認識するために用いられるものである。そのため、VRシステムSを構成する他の機器に応じて、標識1の取り付け位置は適宜変更してよい。
カメラ2は、プレイヤーPの存在する現実空間RSのプレイヤーPが動作可能範囲(すなわち、座標の移動、姿勢の変化等をし得る範囲)を多方向から撮影可能なように設置されている。
サーバ3は、カメラ2が撮影した画像から標識1を認識し、その認識された標識1の現実空間RSにおける位置に基づいて、プレイヤーPの座標及び姿勢を認識する。また、サーバ3は、その座標及び姿勢に基づいて、プレイヤーPに認識させる画像及び音声を決定する。
HMD4は、プレイヤーPの頭部に装着される。HMD4には、プレイヤーPに、サーバ3によって決定された仮想空間VSの画像をプレイヤーPの認識させるためのモニタ41(仮想空間画像表示器)と、サーバ3によって決定された仮想空間VSの音声をプレイヤーPに認識させるためのスピーカ42(仮想空間音声発生器)とが設けられている(図2参照)。
このVRシステムSを用いてゲーム等を行う場合、プレイヤーPは、仮想空間VSの画像と音声のみを認識して、プレイヤーP自身が仮想空間に存在していると認識させられる。すなわち、VRシステムSは、いわゆる没入型のシステムとして構成されている。
なお、VRシステムSでは、プレイヤーPの現実空間RSにおける座標を認識するシステムとして、標識1とカメラ2とサーバ3とによって構成された、いわゆるモーションキャプチャー装置を備えている。
しかし、本発明の仮想空間体感システムは、このような構成に限定されるものではない。例えば、モーションキャプチャー装置を使用する場合には、上記の構成のものの他、標識及びカメラの数が上記構成とは異なる(例えば、それぞれ1つずつ設けられている)ものを用いてもよい。
また、モーションキャプチャー装置に代わり、プレイヤーの座標のみを認識する装置を用いてもよい。具体的には、例えば、HMDにGPS等のセンサを搭載し、そのセンサからの出力に基づいて、プレイヤーの座標、姿勢等を認識するようにしてもよい。また、そのようなセンサと、上記のようなモーションキャプチャー装置を併用してもよい。
[処理部の構成]
次に、図2を用いて、サーバ3の構成を詳細に説明する。
サーバ3は、CPU、RAM、ROM、インターフェース回路等を含む1つ又は複数の電子回路ユニットにより構成されている。サーバ3は、実装されたハードウェア構成又はプログラムにより実現される機能として、図2に示すように、表示画像生成部31と、プレイヤー情報認識部32と、トリガーイベント認識部33と、アバター座標決定部34と、仮想空間画像決定部35と、仮想空間音声決定部36とを備えている。
表示画像生成部31は、HMD4のモニタ41を介してプレイヤーPに認識させる画像を生成する。表示画像生成部31は、仮想空間生成部31aと、アバター生成部31bと、移動体生成部31cとを有している。
仮想空間生成部31aは、仮想空間VSの背景となる画像及び仮想空間VSに存在するオブジェクトの画像を生成する。
アバター生成部31bは、仮想空間VSに、プレイヤーPの動作に対応して動作するアバターを生成する。アバター生成部31bは、複数のプレイヤーPが存在する場合には、それぞれのプレイヤーPに対応するようにして複数のアバターを生成する。このアバターは、対応するプレイヤーPの現実空間RSにおける動作(すなわち、座標の移動及び姿勢の変化)に対応して、仮想空間VSにおいて動作する。
移動体生成部31cは、仮想空間VSに、現実空間RSには対応する物体が存在せず、仮想空間VSにアバターと接続可能な移動体を生成する。
ここで、「移動体」とは、アバターが接続した際に、プレイヤーの現実の移動とは異なるアバターの移動を、(意識している、意識していないに関わらず)プレイヤーPに予測させるものであればよい。
例えば、移動体としては、エレベータ等の現実空間で移動に使われるものの他、飛び乗ることが可能な川を流れる丸太、上に立った際に崩れそうな床、ジャンプ台、跳躍を補助する翼等が該当する。また、移動体としては、仮想空間の地面、壁面に描画された文字、模様等も該当する。
また、ここで、アバターと移動体との「接続」とは、移動体の移動、移動体の形状の変化等がアバターの座標に影響することを、プレイヤーが予測し得る状態になることをいう。
例えば、アバターがエレベータに乗り込む、アバターが川を流れる丸太に乗る、アバターが崩れそうな床の上に立つ、ジャンプ台の上に立つ、跳躍を補助する翼をアバターが装着する等が、接続に該当する。また、仮想空間の地面、壁面に描画された文字、模様等に、アバターが接触、近接すること等も、接続に該当する。
プレイヤー情報認識部32には、カメラ2が撮影した標識1を含むプレイヤーPの画像データが入力される。このプレイヤー情報認識部32は、プレイヤー姿勢認識部32aと、プレイヤー座標認識部32bとを有している。
プレイヤー姿勢認識部32aは、入力されたプレイヤーPの画像データから標識1を抽出し、その抽出結果に基づいて、プレイヤーPの姿勢を認識する。
プレイヤー座標認識部32bは、入力されたプレイヤーPの画像データから標識1を抽出し、その抽出結果に基づいて、プレイヤーPの座標を認識する。
トリガーイベント認識部33は、システム設計者が予め定めた条件を満たした際に、所定のトリガーイベントが発生したと認識する。
ここで、トリガーイベントは、プレイヤーがその発生を認識していないものであってもよい。そのため、トリガーイベントとしては、例えば、プレイヤーが現実空間において所定の動作を行うこと(すなわち、プレイヤーに対応するアバターが仮想空間において所定の動作を行うこと)等のプレイヤーの動作に起因するものも該当するし、所定時間の経過といったプレイヤーの動作に起因しないものも該当する。
アバター座標決定部34は、プレイヤー座標認識部32bによって認識されたプレイヤーPの現実空間RSにおける座標に基づいて、そのプレイヤーPに対応するアバターの仮想空間VSにおける座標を決定する。
また、アバター座標決定部34は、トリガーイベント認識部33がトリガーイベントを認識した際には、認識されたトリガーイベントの種類に応じて、所定期間若しくは所定範囲、又は、所定期間及び所定範囲において、プレイヤーの座標とそのプレイヤーに対応するアバターの座標との対応関係にズレを生じさせるように、アバターの座標を補正する。
ここで、プレイヤーの座標とアバターの座標との対応関係の「ズレ」とは、プレイヤーの座標の移動が生じていないときに、アバターの座標のみを移動させることによって生じるズレの他、プレイヤーの座標の移動量に対するアバターの座標の移動量、プレイヤーの座標の移動をアバターの座標の移動に反映させるまでの時間が変化した後に、プレイヤー及びアバターの移動が行われた際に生じるズレ等を含む。
仮想空間画像決定部35は、アバターの座標に基づいて、HMD4のモニタ41を介して、そのアバターに対応するプレイヤーPに認識させる仮想空間の画像を決定する。
ここで、「仮想空間の画像」とは、プレイヤーが自らに対応するアバターの仮想空間における座標を推認し得る画像を指す。例えば、仮想空間の画像には、仮想空間の背景の画像の他、他のアバターの画像、仮想空間にのみ存在するオブジェクトの画像、現実空間に対応して仮想空間に存在するオブジェクトの画像等が含まれる。
仮想空間音声決定部36は、アバターの座標に基づいて、HMD4のスピーカ42を介して、そのアバターに対応するプレイヤーPに認識させる音声を決定する。
なお、本発明の仮想空間体感システムを構成する各処理部は、上記のような構成に限定されるものではない。
例えば、上記実施形態においてサーバ3に設けられている処理部の一部を、HMD4に設けてもよい。また、複数のサーバを用いてもよいし、サーバを省略してHMDに搭載されているCPUを協働させて構成してもよい。
また、HMDに搭載されているスピーカ以外のスピーカを設けてもよい。また、視覚及び聴覚へ影響を与えるデバイスの他、仮想空間に応じた匂い、風等を生じさせるような嗅覚及び触覚へ影響を与えるデバイスを含めてもよい。
[実行される処理]
次に、図2〜図11を参照して、VRシステムSを用いてプレイヤーPに仮想空間VSを体感させる際に、VRシステムSの実行する処理について説明する。
[通常時における処理]
まず、図2、図3及び図4を参照して、VRシステムSが通常時に(すなわち、後述するトリガーイベントを認識していない状態で)実行する処理について説明する。
この処理においては、まず、サーバ3の表示画像生成部31は、仮想空間VS、第1アバターA1及び第2アバターA2、並びに、移動体を生成する(図3/STEP101)。
具体的には、表示画像生成部31の仮想空間生成部31aは、仮想空間VS及び仮想空間VSに存在する各種オブジェクトを生成する。また、表示画像生成部31のアバター生成部31bは、第1プレイヤーP1に対応する第1アバターA1及び第2プレイヤーP2に対応する第2アバターA2を生成する。また、表示画像生成部31の移動体生成部31cは、後述するエレベータVS1等の移動体を生成する。
このSTEP101の処理により生成された仮想空間VSには、図4Bに示すように、第1アバターA1及び第2アバターA2、移動体であるエレベータVS1の他、現実空間RSに設置されているホワイトボードRS1(図4A参照)に対応する位置に生成されたスイッチVS2等のトリガーイベントに関連するオブジェクトが設置されている。
次に、サーバ3のプレイヤー情報認識部32は、カメラ2によって撮影された画像データを取得し、その画像データに基づいて、第1プレイヤーP1及び第2プレイヤーP2の現実空間RSにおける座標及び姿勢を認識する(図3/STEP102)。
次に、サーバ3のアバター座標決定部34は、プレイヤー情報認識部32が認識した第1プレイヤーP1の現実空間RSにおける座標及び姿勢に基づいて、第1アバターA1の仮想空間VSにおける座標及び姿勢を決定し、第2プレイヤーP2の現実空間RSにおける座標及び姿勢に基づいて、第2アバターA2の仮想空間VSにおける座標及び姿勢を決定する(図3/STEP103)。
次に、サーバ3の仮想空間画像決定部35及び仮想空間音声決定部36は、プレイヤーPに認識させる画像及び音声を、第1アバターA1及び第2アバターA2の仮想空間VSにおける座標及び姿勢に基づいて決定する(図3/STEP104)。
次に、プレイヤーPの装着しているHMD4は、HMD4に搭載されているモニタ41に決定された画像を表示させ、HMD4に搭載されているスピーカ42に決定された音声を発生させる(図3/STEP105)。
次に、サーバ3のプレイヤー情報認識部32は、第1プレイヤーP1又は第2プレイヤーP2の現実空間RSにおける座標の移動又は姿勢の変化が認識されたか否かを判断する(図3/STEP106)。
第1プレイヤーP1又は第2プレイヤーP2の現実空間RSにおける座標の移動又は姿勢の変化が認識された場合(STEP106でYESの場合)、STEP103に戻り、再度、STEP103以降の処理が実行される。
一方、第1プレイヤーP1又は第2プレイヤーP2の現実空間RSにおける座標の移動又は姿勢の変化が認識されなかった場合(STEP106でNOの場合)、サーバ3は、処理の終了を指示する信号を認識したか否かを判断する(図3/STEP107)。
終了を指示する信号を認識できなかった場合(STEP107でNOの場合)、STEP106に戻り、再度、STEP106以降の処理が実行される。
一方、終了を指示する信号を認識した場合(STEP107でYESの場合)、VRシステムSは、今回の処理を終了する。
以上の処理により、仮想空間VSでは、第1プレイヤーP1に対応する第1アバターA1及び第2プレイヤーP2に対応する第2アバターA2と、移動体であるエレベータVS1、トリガーイベントの発生に関連するスイッチVS2等を含む複数のオブジェクトが設置される。
そして、第1プレイヤーP1及び第2プレイヤーP2は、それぞれが装着したHMD4で表示される画像及び発生される音声によって、それぞれに対応する第1アバターA1及び第2アバターA2を介して、自身が仮想空間VSに存在し、自由に動作することができると認識するようになる。
[トリガーイベント認識時における処理]
次に、図2、図4〜図8を参照して、VRシステムSがトリガーイベントを認識した際に実行する処理について説明する。
VRシステムSでは、所定のトリガーイベントが発生した際に、第1プレイヤーP1の座標と第1アバターA1の座標との対応関係、又は、第2プレイヤーP2と第2アバターA2との対応関係に、ズレを生じさせる補正を行うように構成されている。以下の説明においては、1プレイヤーP1の座標と第1アバターA1の座標との対応関係にズレを生じさせる補正を行う場合について説明する。
具体的には、図4Bに示すように、VRシステムSでは、第1アバターA1が、移動体であるエレベータVS1に乗っている状態(すなわち、第1アバターA1とエレベータVS1とが接続している状態)で、図5Bに示すように、第2アバターA2がスイッチVS2を押すことが、トリガーイベントの発生のキーとして設定されている。
そして、そのトリガーイベントの発生が認識された際には、図4〜図6に示すように、第1プレイヤーP1の座標の移動に関わらず、第1プレイヤーP1に対応する第1アバターA1の座標は、上方向へと移動する。具体的には、第1アバターA1は、エレベータVS1によって、仮想空間VSに規定された1階部分である第1フロアF1から、2階部分である第2フロアF2へと移動させられる。
これにより、VRシステムSでは、対応する第1アバターA1が移動させられた第1プレイヤーP1、及び、第1アバターA1を認識している第2プレイヤーP2に、現実空間RSよりも上下方向に拡張された仮想空間VSを認識させることができるようになっている。
ここで、そのようなズレを生じさせた場合、第1プレイヤーP1と第2プレイヤーP2とは、現実空間RSにおける互いの位置関係を適切に把握することができなくなるおそれがある。その結果、意図せず第1プレイヤーP1と第2プレイヤーP2とが接触してしまうおそれがあった。
例えば、図6に示す状態においては、第2プレイヤーP2は、第1アバターA1と同様に第1プレイヤーP1が現実空間RSでも上方に移動していると誤解してしまう場合がある。そして、第2プレイヤーP2は、仮想空間VSで自らに対応する第2アバターA2をエレベータVS1の下方に移動可能であると誤解し、第2アバターA2をエレベータVS1の下方に移動させようとしてしまう場合がある(図7参照)。
しかし、現実空間RSでは、実際には第1バターA1に対応する第1プレイヤーP1が第2プレイヤーP2と同じ高さに存在している。そのため、その場合には、現実空間RSにおいて、第1プレイヤーP1と第2プレイヤーP2とが接触してしまうことになる。その結果、第1プレイヤーP1及び第2プレイヤーP2の仮想空間VSへの没入感が阻害されてしまうおそれがあった。
そこで、VRシステムSでは、所定のトリガーイベントの発生が認識された際には、以下に説明する処理を実行することにより、没入感を阻害せずに、意図しない第1プレイヤーP1と第2プレイヤーP2との接触を防止している。
この処理においては、まず、サーバ3のアバター座標決定部34は、第1アバターA1が移動体に接続したか否かを判断する(図8/STEP201)。
具体的には、アバター座標決定部34は、図4に示すように、仮想空間VSで、第1プレイヤーP1に対応する第1アバターA1の座標が移動体であるエレベータVS1に乗るように、現実空間RSで、第1プレイヤーP1の座標が移動したか否かを判断する。
第1アバターA1が移動体に接続していないと判断された場合(STEP201でNOの場合)、STEP201に戻り、再度、判断が実行される。この処理は、第1アバターA1がエレベータVS1に乗った状態になるまで、所定の制御周期で繰り返される。
一方、第1アバターA1が移動体に接続していると判断された場合(STEP201でYESの場合)、サーバ3のトリガーイベント認識部33は、第2プレイヤーP2の動作に基づくトリガーイベントの発生を認識したか否かを判断する(図8/STEP202)。
具体的には、トリガーイベント認識部33は、仮想空間VSで、第2プレイヤーP2に対応する第2アバターA2がスイッチVS2近傍の位置でそのスイッチVS2に触れる姿勢となるように(図5B参照)、現実空間RSで、第2プレイヤーP2が移動して所定の姿勢となったか否か(図5A参照)を判断する。
そして、第2プレイヤーP2の座標が所定の位置まで移動して、第2プレイヤーP2の姿勢が所定の姿勢となったときには、トリガーイベント認識部33は、第2プレイヤーP2の動作に基づいたトリガーイベントが発生したと認識する。
トリガーイベントの発生を認識しなかった場合(STEP202でNOの場合)、STEP202に戻り、再度、判断が実行される。この処理は、第1アバターA1がエレベータVS1に乗っている状態である間は、所定の制御周期で繰り返される。
一方、トリガーイベントの発生を認識した場合(STEP202でYESの場合)、
サーバ3の表示画像生成部31は、第3アバターA3及び第4アバターA4を生成する(図8/STEP203)。
具体的には、表示画像生成部31のアバター生成部31bは、トリガーイベントの発生をトリガーとして、仮想空間VSに、第1プレイヤーP1に対応する第3アバターA3を生成するとともに、第2プレイヤーP2に対応する第4アバターA4を生成する。
このとき、第3アバターA3及び第4アバターA4の生成される座標は、第1プレイヤーP1の座標及び第2プレイヤーP2の座標とは独立した座標となっている。ただし、この時点で、後述するように第3アバターA3の座標及び第4アバターA4の座標を、第1プレイヤーP1の座標及び第2プレイヤーP2の座標に基づいて決定し、その決定された座標に第3アバターA3及び第4アバターA4を生成してもよい。
次に、サーバ3のプレイヤー情報認識部32は、カメラ2によって撮影された画像データを取得し、その画像データに基づいて、第1プレイヤーP1及び第2プレイヤーP2の現実空間RSにおける座標及び姿勢を認識する(図8/STEP204)。
次に、サーバ3のアバター座標決定部34は、プレイヤー情報認識部32が認識した第1プレイヤーP1の現実空間RSにおける座標及び姿勢に基づいて、第1アバターA1及び第3アバターA3の仮想空間VSにおける座標及び姿勢を決定する(図8/STEP205)。
具体的には、アバター座標決定部34は、トリガーイベントの種類に応じて予め定められているズレの内容(すなわち、補正方向及び補正量)に応じて、第1プレイヤーP1の座標及び姿勢に基づく第1アバターA1の座標及び姿勢を補正して、第1アバターA1の座標及び姿勢を決定する。
より具体的には、アバター座標決定部34は、第1プレイヤーP1の座標及び姿勢に基づく第1アバターA1の座標及び姿勢を、第1フロアF1に対する第2フロアF2の高さの分だけ上方向に移動させたものと、第1アバターA1の座標及び姿勢として決定する。
また、アバター座標決定部34は、補正を行っていない第1アバターA1の座標及び姿勢に基づいて、第3アバターA3の座標及び姿勢を決定する。
次に、サーバ3のアバター座標決定部34は、プレイヤー情報認識部32が認識した第2プレイヤーP2の現実空間RSにおける座標及び姿勢に基づいて、第4アバターA4の仮想空間VSにおける座標及び姿勢を決定する(図8/STEP206)。
具体的には、アバター座標決定部34は、トリガーイベントの種類に応じて予め定められているズレの内容(すなわち、補正方向及び補正量)に応じて、第2プレイヤーP2の座標及び姿勢に基づく第2アバターA2の座標及び姿勢を補正したものに基づいて、第4アバターA4の座標及び姿勢を決定する。
より具体的には、アバター座標決定部34は、第2プレイヤーP2の座標及び姿勢に基づく第2アバターA2の座標及び姿勢を、第1フロアF1に対する第2フロアF2の高さの分だけ上方向に移動させたものに基づいて、第4アバターA4の座標及び姿勢を決定する。
次に、サーバ3のアバター座標決定部34は、決定された座標及び姿勢に基づいて、第1アバターA1、第3アバターA3及び第4アバターA4の座標を移動させるとともに、姿勢を変化させる(図8/STEP207)。
具体的には、図4A、図5A及び図6Aに示すように、第1プレイヤーP1の座標の変化に関わらず、図4B、図5B及び図6Bに示すように、第1アバターA1の座標を、第1フロアF1に対する第2フロアF2の高さの分だけ上方向に移動させる。このとき、第1アバターA1の姿勢は、その時々の第1アバターA1の座標において、第1プレイヤーP1の姿勢に対応して変化する。
また、図4B、図5B及び図6Bに示すように、第3アバターA3の座標は、第1アバターA1の移動前の座標へと移動する。第4アバターA4の座標は、第2アバターA2の座標を第1アバターA1と同様に上方向に移動させた座標へと移動する。第3アバターA3及び第4アバターA4の姿勢は、予め定められた対応関係に基づいて、第1プレイヤーA1及び第2プレイヤーP2の姿勢に対応して変化する。
次に、サーバ3の仮想空間画像決定部35及び仮想空間音声決定部36は、プレイヤーPに認識させる画像及び音声を、第1アバターA1、第2アバターA2、第3アバターA3及び第4アバターA4の仮想空間VSにおける座標及び姿勢に基づいて決定する(図8/STEP208)。
具体的には、トリガーイベントが認識された際には、第1プレイヤーP1に認識させる画像及び音声には、第1プレイヤーP1の座標と第1アバターA1の座標との対応関係に生じるズレに対応するように第1アバターA1に対して第2アバターA2が相対的に移動する画像及び音声が含まれる。
また、第2プレイヤーP2に認識させる画像及び音声には、第1プレイヤーP1の座標と第1アバターA1の座標との対応関係にズレを生じさせるように第1アバターA1が移動する画像及び音声が含まれる。
そして、トリガーイベントが認識された後には、第1プレイヤーP1及び第2プレイヤーP2に認識させる画像及び音声には、それまで含まれていた第1アバターA1及び第2アバターA2に加え、第3アバターA3及び第4アバターA4の画像及び音声が含まれるようになる。
次に、プレイヤーPの装着しているHMD4が、モニタ41に決定された画像を表示し、スピーカ42に音声を発生する(図8/STEP209)。
次に、サーバ3のプレイヤー情報認識部32は、第1プレイヤーP1又は第2プレイヤーP2の現実空間RSにおける座標の移動又は姿勢の変化が認識されたか否かを判断する(図8/STEP210)。
第1プレイヤーP1又は第2プレイヤーP2の現実空間RSにおける座標の移動又は姿勢の変化が認識された場合(STEP210でYESの場合)、STEP204に戻り、再度、STEP204以降の処理が実行される。
一方、第1プレイヤーP1又は第2プレイヤーP2の現実空間RSにおける座標の移動又は姿勢の変化が認識されなかった場合(STEP210でNOの場合)、サーバ3は、処理の終了を指示する信号を認識したか否かを判断する(図8/STEP211)。
終了を指示する信号を認識できなかった場合(STEP211でNOの場合)、STEP210に戻り、再度、STEP210以降の処理が実行される。
一方、終了を指示する信号を認識した場合(STEP211でYESの場合)、VRシステムSは、今回の処理を終了する。
以上説明したように、VRシステムSでは、所定のトリガーイベントが認識された際には、第1プレイヤーP1に認識させる画像及び音声には、第1アバターA1に対して第2アバターA2が相対的に移動する画像及び音声が含まれる。また、第2プレイヤーP2に認識させる画像及び音声に、第1アバターA1が移動する画像が含まれる。
そのため、所定のトリガーイベントが認識された際における、第1プレイヤーP1の視線は、自然と第2アバターA2を追うようなものになる。また、第2プレイヤーP2の視線は、自然と第1アバターA1の移動を追うようなものになる。
また、所定のトリガーイベントが認識された際には、仮想空間VSに、第1プレイヤーP1に対応する第1アバターA1及び第2プレイヤーP2に対応する第2アバターA2に加え、第1プレイヤーP1に対応する第3アバターA3及び第2プレイヤーP2に対応する第4アバターA4が生成される。
すなわち、第2アバターA2の移動に対して第1プレイヤーP1の注意がひきつけられている間に、第4アバターA4が生成される。また、第1アバターA1の移動に対して第2プレイヤーP2の注意がひきつけられている間に、第3アバターA3が生成される。
そして、そのトリガーイベントが認識された後には、第1プレイヤーP1及び第2プレイヤーP2に認識させる仮想空間VSの画像及び音声に、第3アバターA3及び第4アバターA4の画像及び音声も含まれるようになる。
これにより、VRシステムSによれば、第1プレイヤーP1に、第4アバターA4が急に出現したと思わせること(ひいては、第1プレイヤーP1に与える違和感)を抑制することができる。その結果、第1プレイヤーP1の没入感を阻害せずに、第1プレイヤーP1に第4アバターA4の存在を受け入れさせることができる。
また、これにより、VRシステムSによれば、第2プレイヤーP2に、第3アバターA3が急に出現したと思わせること(ひいては、第2プレイヤーP2に与える違和感)を抑制することができる。その結果、第2プレイヤーP2の没入感を阻害せずに、第2プレイヤーP2に第3アバターA3の存在を受け入れさせることができる。
ところで、仮想空間VSに他のアバターが存在していると、プレイヤーは、通常、自らに対応するアバターとその他のアバターとの接触を回避しようとする。
ここで、VRシステムSでは、トリガーイベントが発生し、第1プレイヤーP1の座標と第1プレイヤーP1に対応する第1アバターA1の座標にズレが生じた場合には、第1プレイヤーP1の座標に対応する第3アバターA3が生成され、第2プレイヤーP2の座標に対応する座標を、そのズレに対応するように補正した座標に第4アバターA4が生成される。
そして、第1プレイヤーP1の認識する仮想空間VSの画像及び音声に、その第4アバターA4の画像及び音声が含まれるようになる。また、第2プレイヤーP2の認識する仮想空間VSの画像及び音声に、その第3アバターA3の画像及び音声が含まれるようになる。
そのため、トリガーイベントが認識された後には、第1プレイヤーP1は、何らかの動作を行う際に、自然に自らの補正した座標に対応する第1アバターA1と、第2プレイヤーの補正した座標に対応する第4アバターA4との接触を回避しつつ動作する。
また、第2プレイヤーP2は、何らかの動作を行う際に、自然に自らの座標に対応する第2アバターA2と、第1プレイヤーP1の座標に対応する第3アバターA3との接触を回避しつつ動作する。
これにより、現実空間RSにおける第1プレイヤーP1と第2プレイヤーP2との接触を、防止することができる。
具体的には、図7に示すように、第1プレイヤーP1は、自らに対応する第1アバターA1と第4アバターA4とが仮想空間VSで近づいた際には、自然と接触を回避するように動作するので、第4アバターA4に対応する第2プレイヤーP2との現実空間RSにおける接触が回避される。
同様に、第2プレイヤーP2は、自らに対応する第2アバターA2と第3アバターA3とが仮想空間VSで近づいた際には、自然と接触を回避するように動作するので、第3アバターA3に対応する第1プレイヤーP1との現実空間RSにおける接触が回避される。
なお、VRシステムSでは、トリガーイベントをキーとして、第1プレイヤーP1に対応する第3アバターA3、及び、第2プレイヤーP2に対応する第4アバターA4を生成している。これは、第1プレイヤーP1及び第2プレイヤーP2の両方に対して、現実空間RSにおける接触を回避させる動作を行わせるためである。
しかし、本発明の仮想空間体感システムは、このような構成に限定されるものではなく、第3アバター及び第4アバターのいずれか一方のみを生成するように構成してもよい。
具体的には、例えば、上記のVRシステムSにおいては、トリガーイベントが発生した際に第1アバターA1が移動する第2フロアF2に、第1アバターA1の移動を制限する柵VS3が存在しており、その柵VS3によって、第2プレイヤーP2の座標への第1プレイヤーP1の移動が制限できる場合等には、第4アバターA4の生成を省略してもよい。
また、VRシステムSでは、第1アバターA1及び第2アバターA2の形状として、直立した動物型のキャラクターを採用している。一方で、第3アバターA3及び第4アバターA4の形状として、蝶型のキャラクターを採用している。これは、1人のプレイヤーに対応する複数のアバターの各々の形状を異ならせることによって、そのアバターを見ている他のプレイヤーに与える違和感を抑制するためである。
しかし、本発明の仮想空間体感システムは、このような構成に限定されるものではなく、第3アバター及び第4アバターの形状は、仮想空間の態様に応じて、適宜設定してよい。例えば、第1アバターと第3アバターの形を同様のものにして、いずれか一方の色を半透明にしてもよい。
なお、上記の説明において、第3アバターA3及び第4アバターA4の形状として、蝶型のキャラクターを採用している。しかし、本発明の仮想空間体感システムは、このような構成に限定されるものではない。例えば、図9〜図11に示すように、エレベータVS1の移動とともに、エレベータVS1の下方に生成される壁VS4を、第3アバターとしてもよい。
図示の例においては、第2フロアF2が存在していないので、図11に示すように、トリガーイベントが終了した後には、第1プレイヤーP1は、第1アバターA1がエレベータVS1の上(柵VS3で区切られた範囲)でしか移動ができないように、認識する。すなわち、第1プレイヤーP1の現実空間RSにおける動作範囲が限定されることになる。
このとき、図10及び図11に示すように、エレベータVS1の下方に生成される壁VS4を、その動作範囲に対応する仮想空間VSの範囲を囲うような壁VS4とすれば、第1プレイヤーP1に対応するアバターが増えたように感じることを抑制して、さらに第2プレイヤーP2に与える違和感を抑制することができる。
[その他の実施形態]
以上、図示の実施形態について説明したが、本発明はこのような形態に限られるものではない。
例えば、上記実施形態においては、第3アバター及び第4アバターの生成に応じて、第1プレイヤー及び第2プレイヤーに認識させる画像及び音声を決定している。しかし、本発明の仮想空間体感システムは、そのような構成に限定されるものではなく、第3アバター及び第4アバターの生成に応じて、第1プレイヤー及び第2プレイヤーに認識させる画像のみを決定するようにしてもよい。
また、上記実施形態においては、移動体であるエレベータVS1を介して、トリガーイベントが発生するように構成されている。そして、そのトリガーイベントの結果、第1アバターA1の座標について、上方向に移動するように補正されて、ズレが発生するように構成されている。これは、理解を容易にするために、トリガーイベント、移動方向を単純化したためである。
しかし、本発明の仮想空間体感システムにおけるトリガーイベントはこのような構成に限定されるものではない。そのため、例えば、トリガーイベントは、必ずしも移動体を介したものでなくてもよく、ゲーム等の開始後、所定時間の経過後に発生するようなものでもよい。また、ズレの方向は、上下方向の他、奥行き、左右方向、又は、それらを組み合わせた方向であってもよい。また、プレイヤーの動作に対してアバターの動作が遅延するといった時間的なズレであってもよい。
また、上記実施形態では、第3アバターA3及び第4アバターA4は、トリガーイベントの発生と同時に生成されている。しかし、本発明の仮想空間体感システムは、このような構成に限定されるものではない。例えば、トリガーイベントの終了後、第1プレイヤーP1及び第2プレイヤーP2の移動が可能になった段階で、第3アバター及び第4アバターを生成してもよい。
また、上記実施形態では、トリガーイベントの終了後においても、第1アバターA1及び第2アバターA2が継続して存在している。しかし、本発明の仮想空間体感システムは、このような構成に限定されるものではなく、トリガーイベントの終了後においては、第1アバター及び第2アバターの少なくとも一方を消去してもよい。そのように構成した場合には、アバターの増加によるプレイヤーの違和感を抑制することができる。
1…標識、2…カメラ、3…サーバ、4…HMD、31…表示画像生成部、31a…仮想空間生成部、31b…アバター生成部、31c…移動体生成部、32…プレイヤー情報認識部、32a…プレイヤー姿勢認識部、32b…プレイヤー座標認識部、33…トリガーイベント認識部、34…アバター座標決定部、35…仮想空間画像決定部、36…仮想空間音声決定部、41…モニタ(仮想空間画像表示器)、42…スピーカ(仮想空間音声発生器)、A1…第1アバター、A2…第2アバター、F1…第1フロア、F2…第2フロア、P…プレイヤー、P1…第1プレイヤー、P2…第2プレイヤー、RS…現実空間、RS1…ホワイトボード、S…VRシステム(仮想空間体感システム)、VS…仮想空間、VS1…エレベータ(移動体)、VS2…スイッチ、VS3…柵、VS4…壁(第3アバター)。

Claims (5)

  1. 第1プレイヤー及び第2プレイヤーが共に存在する現実空間における所定の領域に対応する仮想空間を生成する仮想空間生成部と、
    前記第1プレイヤーの動作に対応して動作する第1アバター、及び、前記第2プレイヤーの動作に対応して動作する第2アバターを、前記仮想空間に生成するアバター生成部と、
    前記現実空間における前記第1プレイヤーの座標及び前記第2プレイヤーの座標を認識するプレイヤー座標認識部と、
    前記第1プレイヤーの座標に基づいて、前記仮想空間における前記第1アバターの座標を決定し、前記第2プレイヤーの座標に基づいて、前記仮想空間における前記第2アバターの座標を決定するアバター座標決定部と、
    前記第1アバターの座標及び前記第2アバターの座標に基づいて、前記第1プレイヤー及び前記第2プレイヤーに認識させる前記仮想空間の画像を決定する仮想空間画像決定部と、
    所定のトリガーイベントの発生を認識するトリガーイベント認識部と、
    前記第1プレイヤー及び前記第2プレイヤーに、前記仮想空間の画像を認識させる仮想空間画像表示器とを備えている仮想空間体感システムであって、
    前記アバター生成部は、前記トリガーイベントが認識された際に、前記第1プレイヤーの動作に対応する第3アバターを、前記仮想空間に生成し、
    前記仮想空間画像決定部は、前記第2プレイヤーに認識させる前記仮想空間の画像に、前記トリガーイベントが認識された際には、前記第1プレイヤーの座標と前記第1アバターの座標との対応関係にズレを生じさせるように前記第1アバターが移動する画像を含ませるとともに、前記トリガーイベントが認識された後には、前記第2アバター及び前記第3アバターの画像を含ませ、
    前記アバター座標決定部は、前記第1プレイヤーの座標に基づいて、前記仮想空間における前記第3アバターの座標を決定することを特徴とする仮想空間体感システム。
  2. 請求項1に記載の仮想空間体感システムにおいて、
    前記アバター生成部は、前記トリガーイベントが認識された際に、前記第2プレイヤーの動作に対応する第4アバターを、前記仮想空間に生成し、
    前記仮想空間画像決定部は、前記第1プレイヤーに認識させる前記仮想空間の画像に、前記トリガーイベントが認識された際には、前記第1プレイヤーの座標と前記第1アバターの座標との対応関係に生じるズレに対応するように前記第1アバターに対して前記第2アバターが相対的に移動する画像を含ませるとともに、前記トリガーイベントが認識された後には、前記第1アバター及び前記第4アバターの画像を含ませ、
    前記アバター座標決定部は、前記第2プレイヤーの座標に基づいて、前記仮想空間における前記第4アバターの座標を決定することを特徴とする仮想空間体感システム。
  3. 請求項1又は請求項2に記載の仮想空間体感システムにおいて、
    前記第3アバターの形状は、前記第1アバターの形状と異なる形状であることを特徴とする仮想空間体感システム。
  4. 請求項3に記載の仮想空間体感システムにおいて、
    前記第3アバターは、前記第1プレイヤーの現実空間における動作範囲に対応する仮想空間の範囲を囲う壁であることを特徴とする仮想空間体感システム。
  5. 第1プレイヤー及び第2プレイヤーが共に存在する現実空間における所定の領域に対応する仮想空間を生成する仮想空間生成部と、
    前記第1プレイヤーの動作に対応して動作する第1アバター、及び、前記第2プレイヤーの動作に対応して動作する第2アバターを、前記仮想空間に生成するアバター生成部と、
    前記現実空間における前記第1プレイヤーの座標及び前記第2プレイヤーの座標を認識するプレイヤー座標認識部と、
    前記第1プレイヤーの座標に基づいて、前記仮想空間における前記第1アバターの座標を決定し、前記第2プレイヤーの座標に基づいて、前記仮想空間における前記第2アバターの座標を決定するアバター座標決定部と、
    前記第1アバターの座標及び前記第2アバターの座標に基づいて、前記第1プレイヤー及び前記第2プレイヤーに認識させる前記仮想空間の画像を決定する仮想空間画像決定部と、
    所定のトリガーイベントの発生を認識するトリガーイベント認識部と、
    前記第1プレイヤー及び前記第2プレイヤーに、前記仮想空間の画像を認識させる仮想空間画像表示器とを備えている仮想空間体感システムであって、
    前記アバター生成部は、前記トリガーイベントが認識された際に、前記第2プレイヤーの動作に対応する第4アバターを、前記仮想空間に生成し、
    前記仮想空間画像決定部は、前記第1プレイヤーに認識させる前記仮想空間の画像に、前記トリガーイベントが認識された際には、前記第1プレイヤーの座標と前記第1アバターの座標との対応関係に生じるズレに対応するように前記第1アバターに対して前記第2アバターが相対的に移動する画像を含ませるとともに、前記トリガーイベントが認識された後には、前記第1アバター及び前記第4アバターの画像を含ませ、
    前記アバター座標決定部は、前記第2プレイヤーの座標に基づいて、前記仮想空間における前記第4アバターの座標を決定することを特徴とする仮想空間体感システム。
JP2021520431A 2019-11-13 2019-11-13 仮想空間体感システム Active JP6936465B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/044593 WO2021095175A1 (ja) 2019-11-13 2019-11-13 仮想空間体感システム

Publications (2)

Publication Number Publication Date
JP6936465B1 true JP6936465B1 (ja) 2021-09-15
JPWO2021095175A1 JPWO2021095175A1 (ja) 2021-11-25

Family

ID=75911914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021520431A Active JP6936465B1 (ja) 2019-11-13 2019-11-13 仮想空間体感システム

Country Status (3)

Country Link
US (1) US11740688B2 (ja)
JP (1) JP6936465B1 (ja)
WO (1) WO2021095175A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7672800B2 (ja) * 2020-06-23 2025-05-08 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、方法、プログラム及び情報処理システム
JP2022181557A (ja) * 2021-05-26 2022-12-08 株式会社Mgrシステム企画 広告方法および広告装置
JP7055527B1 (ja) * 2021-06-01 2022-04-18 株式会社Abal 仮想空間体感システム
JP7138392B1 (ja) * 2021-08-11 2022-09-16 株式会社Abal 仮想空間体感システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018013901A (ja) * 2016-07-20 2018-01-25 株式会社Abal 仮想空間体感システム
JP2018013900A (ja) * 2016-07-20 2018-01-25 株式会社Abal 仮想空間体感システム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8181123B2 (en) * 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
GB201709199D0 (en) * 2017-06-09 2017-07-26 Delamont Dean Lindsay IR mixed reality and augmented reality gaming system
EP4158908A4 (en) * 2020-05-29 2023-11-29 Magic Leap, Inc. SURFACE COLLISIONS

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018013901A (ja) * 2016-07-20 2018-01-25 株式会社Abal 仮想空間体感システム
JP2018013900A (ja) * 2016-07-20 2018-01-25 株式会社Abal 仮想空間体感システム

Also Published As

Publication number Publication date
US11740688B2 (en) 2023-08-29
US20220404899A1 (en) 2022-12-22
WO2021095175A1 (ja) 2021-05-20
JPWO2021095175A1 (ja) 2021-11-25

Similar Documents

Publication Publication Date Title
JP6936465B1 (ja) 仮想空間体感システム
JP7366196B2 (ja) 広範囲同時遠隔ディジタル提示世界
TWI648655B (zh) 虛擬實境系統中顯示使用者移動的方法及相關裝置
JP6099327B2 (ja) 情報処理プログラム、情報処理装置、情報処理方法および情報処理システム
JP2010253277A (ja) ビデオゲームにおいてオブジェクトの動きを制御する方法およびシステム
CN112930162B (zh) 康复支援装置、其方法及程序
JP6933849B1 (ja) 体感型インターフェースシステム、及び、動作体感システム
US10642360B2 (en) Methods, systems, and computer readable media involving a content coupled physical activity surface
US11173375B2 (en) Information processing apparatus and information processing method
JP6538013B2 (ja) 仮想空間体感システム
JP6672047B2 (ja) プログラム及びコンピュータシステム
JP6531338B1 (ja) リハビリテーション支援装置、リハビリテーション支援システム、リハビリテーション支援方法およびリハビリテーション支援プログラム
JP7138392B1 (ja) 仮想空間体感システム
JP6538012B2 (ja) 仮想空間体感システム
JP7055527B1 (ja) 仮想空間体感システム
WO2025083847A1 (ja) 体感空間切替方法、体感空間切替システム、体感空間切替装置、並びに体感空間切替プログラム及びそれを記録した記録媒体
JP2019192263A (ja) 仮想空間体感システム
US20210103421A1 (en) Immersive multimedia system, immersive interactive method and movable interactive unit
JP7743092B2 (ja) 仮想空間体感システム及び仮想空間体感方法
WO2021240601A1 (ja) 仮想空間体感システム
JP7448943B2 (ja) リハビリテーション支援装置、その方法およびプログラム
WO2025057572A1 (ja) 情報処理装置、情報処理方法、およびプログラム
TW202532130A (zh) 角色控制方法及系統及非暫態電腦可讀取儲存媒體
WO2021235232A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2005319193A (ja) 画像処理システム、プログラム、情報記憶媒体および画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210415

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210819

R150 Certificate of patent or registration of utility model

Ref document number: 6936465

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350