JP2009069918A - 情報処理装置、情報処理方法 - Google Patents
情報処理装置、情報処理方法 Download PDFInfo
- Publication number
- JP2009069918A JP2009069918A JP2007234713A JP2007234713A JP2009069918A JP 2009069918 A JP2009069918 A JP 2009069918A JP 2007234713 A JP2007234713 A JP 2007234713A JP 2007234713 A JP2007234713 A JP 2007234713A JP 2009069918 A JP2009069918 A JP 2009069918A
- Authority
- JP
- Japan
- Prior art keywords
- stimulus
- virtual object
- information
- contact
- range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
-
- A63F13/10—
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
- A63F13/28—Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
- A63F13/285—Generating tactile feedback signals via the game input device, e.g. force feedback
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/45—Controlling the progress of the video game
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
- A63F13/655—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1037—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted for converting control signals received from the game device into a haptic signal, e.g. using force feedback
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1087—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
- A63F2300/1093—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/64—Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
Abstract
【解決手段】 刺激発生部10、11、12の位置姿勢情報と、背景仮想物体の位置姿勢情報と、に基づいて、刺激発生部10、11、12と背景仮想物体とが接触しているか否かを判断する。接触していると判断した場合には、注目範囲の中に刺激発生部10、11、12が含まれているか否かを判断する。係る判断の結果に応じて、刺激発生部10、11、12の動作を制御するための動作設定情報を生成し、生成した動作設定情報を刺激発生部10、11、12に対して出力する。
【選択図】 図2
Description
前記ユーザの人体に取り付けた、刺激を発生する刺激発生部の位置情報を取得する手段と、
前記仮想物体の位置姿勢情報と、前記刺激発生部の位置情報と、に基づいて、前記仮想物体と前記刺激発生部とが接触しているか否かを判断する手段と、
前記仮想物体と前記刺激発生部とが接触していると判断した場合には、前記視点から注目している範囲として設定された注目範囲の中に前記刺激発生部が含まれているか否かを判断する判断手段と、
前記判断手段による判断結果に応じて、前記刺激発生部の動作を制御するための動作設定情報を生成し、生成した当該動作設定情報を前記刺激発生部に対して出力する出力手段と
を備えることを特徴とする。
前記ユーザの人体に取り付けた、刺激を発生する刺激発生部の位置情報を取得する手段と、
前記視点から注目している範囲として設定された注目範囲の中に前記刺激発生部が含まれているか否かを判断する判断手段と、
前記仮想物体の位置姿勢情報と、前記刺激発生部の位置情報と、に基づいて、前記仮想物体と前記刺激発生部とが接触しているか否かを判断する処理を、前記判断手段による判断結果に応じて制御する手段と、
前記判断手段による判断結果、及び前記仮想物体と前記刺激発生部とが接触しているか否かの判断結果、に応じて、前記刺激発生部の動作を制御するための動作設定情報を生成し、生成した当該動作設定情報を前記刺激発生部に対して出力する出力手段と
を備えることを特徴とする。
前記ユーザの人体に取り付けた、刺激を発生する刺激発生部の位置情報を取得する工程と、
前記仮想物体の位置姿勢情報と、前記刺激発生部の位置情報と、に基づいて、前記仮想物体と前記刺激発生部とが接触しているか否かを判断する工程と、
前記仮想物体と前記刺激発生部とが接触していると判断した場合には、前記視点から注目している範囲として設定された注目範囲の中に前記刺激発生部が含まれているか否かを判断する判断工程と、
前記判断工程による判断結果に応じて、前記刺激発生部の動作を制御するための動作設定情報を生成し、生成した当該動作設定情報を前記刺激発生部に対して出力する出力工程と
を備えることを特徴とする。
前記ユーザの人体に取り付けた、刺激を発生する刺激発生部の位置情報を取得する工程と、
前記視点から注目している範囲として設定された注目範囲の中に前記刺激発生部が含まれているか否かを判断する判断工程と、
前記仮想物体の位置姿勢情報と、前記刺激発生部の位置情報と、に基づいて、前記仮想物体と前記刺激発生部とが接触しているか否かを判断する処理を、前記判断工程による判断結果に応じて制御する工程と、
前記判断工程による判断結果、及び前記仮想物体と前記刺激発生部とが接触しているか否かの判断結果、に応じて、前記刺激発生部の動作を制御するための動作設定情報を生成し、生成した当該動作設定情報を前記刺激発生部に対して出力する出力工程と
を備えることを特徴とする。
<システムの概略について>
先ず、図1,2を用いて、本実施形態に係るシステムについて説明する。図1は、本実施形態に係るシステムが使用されている状況を示す図である。図2は、本実施形態に係るシステムのハードウェア構成例を示すブロック図である。
HMD100は、一般にビデオシースルー型と呼ばれるHMDであり、図2に示す如く、撮像部101と表示部102とで構成されている。
上述したように、図1では、ユーザ1の手、ヒジ、ヒザにはそれぞれ刺激発生部10、11、12が装着されている。もちろん、刺激発生部の個数や装着位置についてはこれに限定するものではない。
図3では、皮膚感覚刺激部20として、振動モータを使用した例を示した。振動モータは、モータの回転軸に取り付けられた偏心重量が回転することで振動を発生する。振動モータには、一般的にシリンダー型(円筒型)とコイン型(扁平型)があり、どちらを用いても良いが、図3ではコイン型を用いた場合の図を示している。振動モータは小型で強い刺激を発生することができるため、本実施形態のように複数の人体位置に刺激を与える場合に好適である。
上述したように、位置姿勢センサ400は、マーカ40の位置姿勢情報を取得する為のものである。従って、位置姿勢センサ400は、マーカ40を配したHMD100や刺激発生部10、11、12の位置姿勢を求めることができる。
<演算処理装置200について>
演算処理装置200は、例えば、一般のPC(パーソナルコンピュータ)により構成されている。
ここで、演算処理装置200が行う処理の概要について説明する。演算処理装置200は、HMD100の位置姿勢に応じた仮想空間画像を生成し、撮像部101が撮像した現実空間画像と合成して表示部102に送出する処理に加え、次のような処理を行う。
上述のステップS4004における処理、即ち、部位仮想物体と背景仮想物体との干渉判定処理についてより詳細に説明する。
上述のステップS4005における処理、即ち、背景仮想物体と接触している部位仮想物体が、注目範囲(図1では注目範囲50に相当)内に位置しているか否かを判断する処理について、図5,6を用いてより詳細に説明する。
上述のステップS4006における処理、即ち、背景仮想物体と接触している部位仮想物体に対応する刺激発生部の動作を制御するための動作設定情報を生成する処理についてより詳細に説明する。
部位仮想物体が注目範囲内に位置しているか否かを判定するための方法には様々なものがある。本実施形態では、撮像部101により撮像された現実空間画像を画像処理することで、部位仮想物体が注目範囲内に位置しているか否かを判定する。
刺激発生部が注目範囲と注目範囲外の境界にわたって存在する場合、上記ステップS4005で行う注目判定処理として予め定めた処理方法を用いることが望ましい。
以上の実施形態では、刺激発生部に皮膚感覚刺激部を取り付け、皮膚感覚刺激を人体に与えていた。しかし、例えば、音を発生する音源部を刺激発生部に取り付けることで、音刺激を人体に与えるようにしても良い。ここで、音源部は例えば小型のスピーカである。ユーザに接触を知らせる目的から、皮膚感覚刺激を用いることは好適であるが、皮膚感覚刺激を与える装置は皮膚(人体)との密着性が要求される場合が多く、刺激発生部の着脱が煩雑になる場合が多い。一方、音による接触通知は手軽に使用できるという観点から優れている。皮膚感覚刺激部の代わりに音源部を使用する場合にも、注目範囲の内外で発生音量や音の内容などを変化させることで、注目範囲外での接触に気づきやすくなる。
以上の実施形態では、ステップS4005における処理では、全ての部位仮想物体を処理対象とするのではなく、ステップS4004における干渉判定処理で背景仮想物体と接触したと判断された部位仮想物体を処理対象としていた。
第1の実施形態で説明したように、注目範囲内で部位仮想物体と背景仮想物体とが接触した場合に発生させる刺激に比べて、注目範囲外で部位仮想物体と背景仮想物体とが接触した場合に発生させる刺激を強く設定することが好ましい。即ち、背景仮想物体と接触している部位仮想物体が注目範囲の中に含まれている場合には、この部位仮想物体に対応する刺激発生部に第1の強度の刺激を発生させるための動作設定情報を設定する。また、背景仮想物体と接触している部位仮想物体が注目範囲の中に含まれていない場合には、この部位仮想物体に対応する刺激発生部に第2の強度の刺激を発生させるための動作設定情報を設定する。なお、第1の強度は、第2の強度よりも弱い。
上記実施形態では、刺激発生部と背景仮想物体との干渉判定処理を行うために、刺激発生部の位置姿勢に部位仮想物体を配置し、係る部位仮想物体と背景仮想物体との干渉判定処理を行った。また上記実施形態では、刺激発生部が注目範囲の内側に位置しているのか外側に位置しているのかを判断するためにも、部位仮想物体を用いた。
上記実施形態では、部位仮想物体は現実空間中での刺激発生部の形状を模したものであるとした。しかし、係る形状は上述の通り、特に限定するものではない。例えば、グローブ型の刺激発生部を使用する場合であっても、係る刺激発生部の位置姿勢に配置する部位仮想物体の形状は円柱形状としても良い。
上記実施形態では、頭部装着型表示装置の一例としてHMD100を用いた。しかし、頭部装着型表示装置としてHMD100以外のものを用いてもよいし、頭部装着型表示装置以外の表示装置を用いても良い。例えば、ヘッドトラッキングにより視線方向を特定できる形態や、表示装置自体のトラッキングにより仮想的な視線方向がトラッキングできる形態であれば良く、如何なる表示装置を用いても良い。
上記実施形態では、注目範囲内で部位仮想物体と背景仮想物体とが接触した場合に発生させる刺激に比べて、注目範囲外で部位仮想物体と背景仮想物体とが接触した場合に発生させる刺激を強く設定する例などを説明した。但し、振動モータなどの皮膚感覚刺激部を用いる場合、同じ刺激強度でも人体の取り付け場所によって感じる強度が異なる場合がある。
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
Claims (12)
- ユーザの視点の位置姿勢情報に基づいて、仮想物体を配した仮想空間の画像を生成する情報処理装置であって、
前記ユーザの人体に取り付けた、刺激を発生する刺激発生部の位置情報を取得する手段と、
前記仮想物体の位置姿勢情報と、前記刺激発生部の位置情報と、に基づいて、前記仮想物体と前記刺激発生部とが接触しているか否かを判断する手段と、
前記仮想物体と前記刺激発生部とが接触していると判断した場合には、前記視点から注目している範囲として設定された注目範囲の中に前記刺激発生部が含まれているか否かを判断する判断手段と、
前記判断手段による判断結果に応じて、前記刺激発生部の動作を制御するための動作設定情報を生成し、生成した当該動作設定情報を前記刺激発生部に対して出力する出力手段と
を備えることを特徴とする情報処理装置。 - 更に、
前記視点からの現実空間の画像を取得する手段と、
前記現実空間の画像と、前記仮想空間の画像とを合成した合成画像を、表示装置に対して出力する手段と
を備えることを特徴とする請求項1に記載の情報処理装置。 - 前記判断手段は、
前記現実空間の画像中に前記刺激発生部が含まれているか否かを判断することで、前記注目範囲の中に前記刺激発生部が含まれているか否かを判断することを特徴とする請求項2に記載の情報処理装置。 - 前記判断手段は、
前記視点の位置姿勢情報を含む、前記視点に関する視点情報を取得する手段と、
前記視点情報に基づいて前記注目範囲を示す情報を生成する手段とを備え、
前記注目範囲の中に前記刺激発生部が含まれているか否かを判断する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記出力手段は、
前記注目範囲の中に前記刺激発生部が含まれていると前記判断手段が判断した場合には、前記刺激発生部に第1の刺激を発生させるための動作設定情報を生成し、
前記注目範囲の中に前記刺激発生部が含まれていないと前記判断手段が判断した場合には、前記刺激発生部に第2の刺激を発生させるための動作設定情報を生成し、
前記第1の刺激と前記第2の刺激とは異なる刺激であることを特徴とする請求項1に記載の情報処理装置。 - 前記第2の刺激を発生させるための動作設定情報は、予め定められた時間内のみ前記第2の刺激を前記刺激発生部に発生させるための動作設定情報であることを特徴とする請求項5に記載の情報処理装置。
- ユーザの視点の位置姿勢情報に基づいて、仮想物体を配した仮想空間の画像を生成する情報処理装置であって、
前記ユーザの人体に取り付けた、刺激を発生する刺激発生部の位置情報を取得する手段と、
前記視点から注目している範囲として設定された注目範囲の中に前記刺激発生部が含まれているか否かを判断する判断手段と、
前記仮想物体の位置姿勢情報と、前記刺激発生部の位置情報と、に基づいて、前記仮想物体と前記刺激発生部とが接触しているか否かを判断する処理を、前記判断手段による判断結果に応じて制御する手段と、
前記判断手段による判断結果、及び前記仮想物体と前記刺激発生部とが接触しているか否かの判断結果、に応じて、前記刺激発生部の動作を制御するための動作設定情報を生成し、生成した当該動作設定情報を前記刺激発生部に対して出力する出力手段と
を備えることを特徴とする情報処理装置。 - 前記刺激発生部が発生する刺激は、皮膚感覚刺激、音による刺激を含むことを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。
- ユーザの視点の位置姿勢情報に基づいて、仮想物体を配した仮想空間の画像を生成する情報処理装置が行う情報処理方法であって、
前記ユーザの人体に取り付けた、刺激を発生する刺激発生部の位置情報を取得する工程と、
前記仮想物体の位置姿勢情報と、前記刺激発生部の位置情報と、に基づいて、前記仮想物体と前記刺激発生部とが接触しているか否かを判断する工程と、
前記仮想物体と前記刺激発生部とが接触していると判断した場合には、前記視点から注目している範囲として設定された注目範囲の中に前記刺激発生部が含まれているか否かを判断する判断工程と、
前記判断工程による判断結果に応じて、前記刺激発生部の動作を制御するための動作設定情報を生成し、生成した当該動作設定情報を前記刺激発生部に対して出力する出力工程と
を備えることを特徴とする情報処理方法。 - ユーザの視点の位置姿勢情報に基づいて、仮想物体を配した仮想空間の画像を生成する情報処理装置が行う情報処理方法であって、
前記ユーザの人体に取り付けた、刺激を発生する刺激発生部の位置情報を取得する工程と、
前記視点から注目している範囲として設定された注目範囲の中に前記刺激発生部が含まれているか否かを判断する判断工程と、
前記仮想物体の位置姿勢情報と、前記刺激発生部の位置情報と、に基づいて、前記仮想物体と前記刺激発生部とが接触しているか否かを判断する処理を、前記判断工程による判断結果に応じて制御する工程と、
前記判断工程による判断結果、及び前記仮想物体と前記刺激発生部とが接触しているか否かの判断結果、に応じて、前記刺激発生部の動作を制御するための動作設定情報を生成し、生成した当該動作設定情報を前記刺激発生部に対して出力する出力工程と
を備えることを特徴とする情報処理方法。 - コンピュータに請求項9又は10に記載の情報処理方法を実行させるためのプログラム。
- 請求項11に記載のプログラムを格納した、コンピュータ読み取り可能な記憶媒体。
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007234713A JP4989383B2 (ja) | 2007-09-10 | 2007-09-10 | 情報処理装置、情報処理方法 |
| US12/207,322 US8553049B2 (en) | 2007-09-10 | 2008-09-09 | Information-processing apparatus and information-processing method |
| EP08164081A EP2034390A3 (en) | 2007-09-10 | 2008-09-10 | Information-processing apparatus and information-processing method |
| CN2008102123462A CN101387908B (zh) | 2007-09-10 | 2008-09-10 | 信息处理装置及信息处理方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007234713A JP4989383B2 (ja) | 2007-09-10 | 2007-09-10 | 情報処理装置、情報処理方法 |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2009069918A true JP2009069918A (ja) | 2009-04-02 |
| JP2009069918A5 JP2009069918A5 (ja) | 2010-11-04 |
| JP4989383B2 JP4989383B2 (ja) | 2012-08-01 |
Family
ID=40090038
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2007234713A Expired - Fee Related JP4989383B2 (ja) | 2007-09-10 | 2007-09-10 | 情報処理装置、情報処理方法 |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US8553049B2 (ja) |
| EP (1) | EP2034390A3 (ja) |
| JP (1) | JP4989383B2 (ja) |
| CN (1) | CN101387908B (ja) |
Cited By (29)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010271536A (ja) * | 2009-05-21 | 2010-12-02 | Kanto Auto Works Ltd | 作業訓練システム及び作業訓練方法並びに該作業訓練方法を記録した記録媒体 |
| JP2010271926A (ja) * | 2009-05-21 | 2010-12-02 | Kanto Auto Works Ltd | 作業ガイドシステム及び作業ガイド方法並びに該作業ガイド方法を記録した記録媒体 |
| JP2011022929A (ja) * | 2009-07-17 | 2011-02-03 | Nippon Hoso Kyokai <Nhk> | 力覚提示装置及び力覚提示プログラム |
| JP2012187148A (ja) * | 2011-03-08 | 2012-10-04 | Sony Computer Entertainment Inc | 情報処理装置および情報処理方法 |
| JP2014010838A (ja) * | 2012-06-29 | 2014-01-20 | Disney Enterprises Inc | 拡張現実感シミュレーション連続体 |
| JP2014139784A (ja) * | 2013-01-15 | 2014-07-31 | Immersion Corp | 触覚フィードバックを備えた拡張現実ユーザ・インタフェース |
| WO2014171200A1 (ja) * | 2013-04-16 | 2014-10-23 | ソニー株式会社 | 情報処理装置及び情報処理方法、表示装置及び表示方法、並びに情報処理システム |
| JP2015064868A (ja) * | 2013-08-29 | 2015-04-09 | キヤノンマーケティングジャパン株式会社 | 情報処理システムとその処理方法及びプログラム |
| JPWO2013128612A1 (ja) * | 2012-03-01 | 2015-07-30 | パイオニア株式会社 | ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体 |
| JP2015146194A (ja) * | 2009-06-25 | 2015-08-13 | サムスン エレクトロニクス カンパニー リミテッド | 仮想世界処理装置および方法 |
| JP2016529589A (ja) * | 2013-06-18 | 2016-09-23 | ウー ソク ケー, | 仮想空間における物理的効果制御装置及びその方法 |
| JP2017010387A (ja) * | 2015-06-24 | 2017-01-12 | キヤノン株式会社 | システム、複合現実表示装置、情報処理方法及びプログラム |
| JP2017033299A (ja) * | 2015-07-31 | 2017-02-09 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、情報処理システム、その制御方法及びプログラム |
| JP2018013936A (ja) * | 2016-07-20 | 2018-01-25 | 株式会社コロプラ | 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体 |
| WO2018016553A1 (ja) * | 2016-07-20 | 2018-01-25 | 株式会社コロプラ | 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体 |
| US9946336B2 (en) | 2014-05-05 | 2018-04-17 | Immersion Corporation | Systems and methods for viewport-based augmented reality haptic effects |
| KR20180098174A (ko) * | 2017-02-24 | 2018-09-03 | 주식회사 브이알애드 | 가상현실 기반 방사선학 실습 장치 및 방법 |
| JP2018173983A (ja) * | 2013-03-11 | 2018-11-08 | イマージョン コーポレーションImmersion Corporation | 視線に応じた触覚感覚 |
| JP2018185567A (ja) * | 2017-04-24 | 2018-11-22 | 株式会社コロプラ | 情報処理方法、情報処理プログラム、情報処理システムおよび情報処理装置 |
| JP2018205974A (ja) * | 2017-06-01 | 2018-12-27 | 株式会社日立ドキュメントソリューションズ | 空間表示装置、および、空間表示方法 |
| JP2019219492A (ja) * | 2018-06-19 | 2019-12-26 | ニチアス株式会社 | 締付体験システム |
| WO2020008716A1 (ja) * | 2018-07-03 | 2020-01-09 | ソニー株式会社 | 符号化装置、符号化方法、復号装置、復号方法、伝送システム、受信装置、プログラム |
| JP2020030845A (ja) * | 2014-05-19 | 2020-02-27 | イマージョン コーポレーションImmersion Corporation | 没入型環境における非コロケートな触覚キュー |
| WO2022065120A1 (ja) * | 2020-09-28 | 2022-03-31 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
| JP2023052243A (ja) * | 2016-03-31 | 2023-04-11 | マジック リープ, インコーポレイテッド | 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用 |
| US11922797B2 (en) | 2018-06-28 | 2024-03-05 | Sony Corporation | Encoding device, encoding method, decoding device, decoding method, and program |
| US12014464B2 (en) | 2016-05-20 | 2024-06-18 | Magic Leap, Inc. | Contextual awareness of user interface menus |
| US12176927B2 (en) | 2018-06-28 | 2024-12-24 | Sony Corporation | Decoding apparatus, decoding method, and program |
| US12474788B2 (en) | 2015-10-20 | 2025-11-18 | Magic Leap, Inc. | Selecting virtual objects in a three-dimensional space |
Families Citing this family (35)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101651568B1 (ko) * | 2009-10-27 | 2016-09-06 | 삼성전자주식회사 | 3차원 공간 인터페이스 장치 및 방법 |
| WO2012135545A1 (en) | 2011-03-29 | 2012-10-04 | Qualcomm Incorporated | Modular mobile connected pico projectors for a local multi-user collaboration |
| US20130022950A1 (en) * | 2011-07-22 | 2013-01-24 | Muniz Simas Fernando Moreira | Method and system for generating behavioral studies of an individual |
| DE102012017700A1 (de) * | 2012-09-07 | 2014-03-13 | Sata Gmbh & Co. Kg | System und Verfahren zur Simulation einer Bedienung eines nichtmedizinischen Werkzeugs |
| JP6143469B2 (ja) * | 2013-01-17 | 2017-06-07 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
| US20140253540A1 (en) * | 2013-03-07 | 2014-09-11 | Yoav DORI | Method and system of incorporating real world objects into a virtual environment |
| US9233470B1 (en) * | 2013-03-15 | 2016-01-12 | Industrial Perception, Inc. | Determining a virtual representation of an environment by projecting texture patterns |
| EP2977858A4 (en) * | 2013-03-21 | 2016-11-02 | Sony Corp | DEVICE FOR PRESENTING ACCELERATION PERCEPTION, METHOD FOR PRESENTING ACCELERATION PERCEPTION AND SYSTEM FOR PRESENTING ACCELERATION PERCEPTION |
| JP2014191718A (ja) | 2013-03-28 | 2014-10-06 | Sony Corp | 表示制御装置、表示制御方法および記録媒体 |
| US9367136B2 (en) * | 2013-04-12 | 2016-06-14 | Microsoft Technology Licensing, Llc | Holographic object feedback |
| JP6138566B2 (ja) * | 2013-04-24 | 2017-05-31 | 川崎重工業株式会社 | 部品取付作業支援システムおよび部品取付方法 |
| JP6344029B2 (ja) * | 2014-04-16 | 2018-06-20 | 富士通株式会社 | 表示方法、表示プログラム、及び表示装置 |
| CN104090660B (zh) * | 2014-05-30 | 2017-11-10 | 广东虚拟现实科技有限公司 | 一种基于立体视觉的动作采集和反馈方法及系统 |
| US9911232B2 (en) | 2015-02-27 | 2018-03-06 | Microsoft Technology Licensing, Llc | Molding and anchoring physically constrained virtual environments to real-world environments |
| US10684485B2 (en) | 2015-03-06 | 2020-06-16 | Sony Interactive Entertainment Inc. | Tracking system for head mounted display |
| US10296086B2 (en) | 2015-03-20 | 2019-05-21 | Sony Interactive Entertainment Inc. | Dynamic gloves to convey sense of touch and movement for virtual objects in HMD rendered environments |
| US10156908B2 (en) * | 2015-04-15 | 2018-12-18 | Sony Interactive Entertainment Inc. | Pinch and hold gesture navigation on a head-mounted display |
| US9836117B2 (en) | 2015-05-28 | 2017-12-05 | Microsoft Technology Licensing, Llc | Autonomous drones for tactile feedback in immersive virtual reality |
| US9898864B2 (en) | 2015-05-28 | 2018-02-20 | Microsoft Technology Licensing, Llc | Shared tactile interaction and user safety in shared space multi-person immersive virtual reality |
| EP3179336A1 (en) * | 2015-12-07 | 2017-06-14 | Thomson Licensing | Method and device for rendering haptic effects in an immersive content |
| DE102016001369B4 (de) * | 2016-02-06 | 2018-03-29 | Audi Ag | Verfahren zur automatischen Benutzeranpassung der Reizcharakteristik eines aktiven Bedienelementes eines Fahrzeugs |
| JP6736944B2 (ja) * | 2016-03-29 | 2020-08-05 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
| CN106249890A (zh) * | 2016-07-28 | 2016-12-21 | 深圳市金立通信设备有限公司 | 一种虚拟现实设备的控制方法及虚拟现实设备 |
| JPWO2018074054A1 (ja) * | 2016-10-19 | 2019-08-08 | ソニー株式会社 | 表示制御装置、表示制御方法及びプログラム |
| CN106390447B (zh) * | 2016-11-22 | 2018-01-12 | 深圳市超级人生科技有限公司 | 具有被动刺激功能的体感模拟设备 |
| US10427039B2 (en) * | 2016-12-08 | 2019-10-01 | Immersion Corporation | Haptic surround functionality |
| JP6863391B2 (ja) * | 2016-12-12 | 2021-04-21 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
| US10139934B2 (en) * | 2016-12-22 | 2018-11-27 | Microsoft Technology Licensing, Llc | Magnetic tracker dual mode |
| JP2019008623A (ja) * | 2017-06-27 | 2019-01-17 | キヤノン株式会社 | 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体 |
| US10628982B2 (en) * | 2018-05-14 | 2020-04-21 | Vulcan Inc. | Augmented reality techniques |
| US10678342B2 (en) * | 2018-10-21 | 2020-06-09 | XRSpace CO., LTD. | Method of virtual user interface interaction based on gesture recognition and related device |
| CN110989838B (zh) * | 2019-11-29 | 2022-09-02 | 维沃移动通信有限公司 | 可穿戴设备、其控制方法及计算机可读存储介质 |
| KR20220012073A (ko) | 2020-07-22 | 2022-02-03 | 삼성전자주식회사 | 가상 사용자 인터랙션을 수행하기 위한 방법 및 그 장치 |
| US11462016B2 (en) * | 2020-10-14 | 2022-10-04 | Meta Platforms Technologies, Llc | Optimal assistance for object-rearrangement tasks in augmented reality |
| CN114049871A (zh) * | 2022-01-13 | 2022-02-15 | 腾讯科技(深圳)有限公司 | 基于虚拟空间的音频处理方法、装置和计算机设备 |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0869449A (ja) * | 1994-08-26 | 1996-03-12 | Matsushita Electric Works Ltd | 3次元物体の体感シミュレーション装置 |
| JPH09120464A (ja) * | 1995-08-21 | 1997-05-06 | Matsushita Electric Ind Co Ltd | リハビリテーション支援装置 |
| JP2000501033A (ja) * | 1995-11-30 | 2000-02-02 | ヴァーチャル テクノロジーズ インコーポレイテッド | 触覚をフィードバックする人間/機械インターフェース |
| JP2001229408A (ja) * | 2000-02-18 | 2001-08-24 | Hitachi Zosen Corp | 立体虚像体感システム |
| JP2003316493A (ja) * | 2002-04-19 | 2003-11-07 | Seiko Epson Corp | 触覚提示装置 |
| JP2004318399A (ja) * | 2003-04-15 | 2004-11-11 | Seiko Epson Corp | 画像処理装置及び触覚・力覚提示方法 |
Family Cites Families (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5999185A (en) * | 1992-03-30 | 1999-12-07 | Kabushiki Kaisha Toshiba | Virtual reality control using image, model and control data to manipulate interactions |
| JP2000350865A (ja) * | 1999-06-11 | 2000-12-19 | Mr System Kenkyusho:Kk | 複合現実空間のゲーム装置、その画像処理方法およびプログラム記憶媒体 |
| US6409599B1 (en) * | 1999-07-19 | 2002-06-25 | Ham On Rye Technologies, Inc. | Interactive virtual reality performance theater entertainment system |
| US20040095311A1 (en) * | 2002-11-19 | 2004-05-20 | Motorola, Inc. | Body-centric virtual interactive apparatus and method |
| JP4401728B2 (ja) * | 2003-09-30 | 2010-01-20 | キヤノン株式会社 | 複合現実空間画像生成方法及び複合現実感システム |
| SE0401582L (sv) * | 2004-06-18 | 2005-05-10 | Totalfoersvarets Forskningsins | Interaktivt förfarande för att presentera information i en bild |
| EP1768011B1 (en) * | 2004-07-15 | 2012-07-11 | Nippon Telegraph And Telephone Corporation | Inner force sense presentation device, inner force sense presentation method, and inner force sense presentation program |
| WO2007064456A2 (en) * | 2005-11-28 | 2007-06-07 | The George Washington University | Virtual reality simulator harness systems |
| KR100812624B1 (ko) | 2006-03-02 | 2008-03-13 | 강원대학교산학협력단 | 입체영상 기반 가상현실장치 |
| JP4921113B2 (ja) * | 2006-10-25 | 2012-04-25 | キヤノン株式会社 | 接触提示装置及び方法 |
| CN101641964B (zh) * | 2007-03-30 | 2012-01-18 | 独立行政法人情报通信研究机构 | 空中影像互动装置 |
| US8717360B2 (en) * | 2010-01-29 | 2014-05-06 | Zspace, Inc. | Presenting a view within a three dimensional scene |
| US8854298B2 (en) * | 2010-10-12 | 2014-10-07 | Sony Computer Entertainment Inc. | System for enabling a handheld device to capture video of an interactive application |
-
2007
- 2007-09-10 JP JP2007234713A patent/JP4989383B2/ja not_active Expired - Fee Related
-
2008
- 2008-09-09 US US12/207,322 patent/US8553049B2/en active Active
- 2008-09-10 CN CN2008102123462A patent/CN101387908B/zh not_active Expired - Fee Related
- 2008-09-10 EP EP08164081A patent/EP2034390A3/en not_active Withdrawn
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0869449A (ja) * | 1994-08-26 | 1996-03-12 | Matsushita Electric Works Ltd | 3次元物体の体感シミュレーション装置 |
| JPH09120464A (ja) * | 1995-08-21 | 1997-05-06 | Matsushita Electric Ind Co Ltd | リハビリテーション支援装置 |
| JP2000501033A (ja) * | 1995-11-30 | 2000-02-02 | ヴァーチャル テクノロジーズ インコーポレイテッド | 触覚をフィードバックする人間/機械インターフェース |
| JP2001229408A (ja) * | 2000-02-18 | 2001-08-24 | Hitachi Zosen Corp | 立体虚像体感システム |
| JP2003316493A (ja) * | 2002-04-19 | 2003-11-07 | Seiko Epson Corp | 触覚提示装置 |
| JP2004318399A (ja) * | 2003-04-15 | 2004-11-11 | Seiko Epson Corp | 画像処理装置及び触覚・力覚提示方法 |
Cited By (45)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010271926A (ja) * | 2009-05-21 | 2010-12-02 | Kanto Auto Works Ltd | 作業ガイドシステム及び作業ガイド方法並びに該作業ガイド方法を記録した記録媒体 |
| JP2010271536A (ja) * | 2009-05-21 | 2010-12-02 | Kanto Auto Works Ltd | 作業訓練システム及び作業訓練方法並びに該作業訓練方法を記録した記録媒体 |
| JP2015146194A (ja) * | 2009-06-25 | 2015-08-13 | サムスン エレクトロニクス カンパニー リミテッド | 仮想世界処理装置および方法 |
| JP2011022929A (ja) * | 2009-07-17 | 2011-02-03 | Nippon Hoso Kyokai <Nhk> | 力覚提示装置及び力覚提示プログラム |
| JP2012187148A (ja) * | 2011-03-08 | 2012-10-04 | Sony Computer Entertainment Inc | 情報処理装置および情報処理方法 |
| JPWO2013128612A1 (ja) * | 2012-03-01 | 2015-07-30 | パイオニア株式会社 | ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体 |
| JP2014010838A (ja) * | 2012-06-29 | 2014-01-20 | Disney Enterprises Inc | 拡張現実感シミュレーション連続体 |
| JP2014139784A (ja) * | 2013-01-15 | 2014-07-31 | Immersion Corp | 触覚フィードバックを備えた拡張現実ユーザ・インタフェース |
| JP2018073433A (ja) * | 2013-01-15 | 2018-05-10 | イマージョン コーポレーションImmersion Corporation | 触覚フィードバックを備えた拡張現実ユーザ・インタフェース |
| JP2018173983A (ja) * | 2013-03-11 | 2018-11-08 | イマージョン コーポレーションImmersion Corporation | 視線に応じた触覚感覚 |
| WO2014171200A1 (ja) * | 2013-04-16 | 2014-10-23 | ソニー株式会社 | 情報処理装置及び情報処理方法、表示装置及び表示方法、並びに情報処理システム |
| US10269180B2 (en) | 2013-04-16 | 2019-04-23 | Sony Corporation | Information processing apparatus and information processing method, display apparatus and display method, and information processing system |
| CN105144248A (zh) * | 2013-04-16 | 2015-12-09 | 索尼公司 | 信息处理设备和信息处理方法、显示设备和显示方法与信息处理系统 |
| JPWO2014171200A1 (ja) * | 2013-04-16 | 2017-02-16 | ソニー株式会社 | 情報処理装置及び情報処理方法、表示装置及び表示方法、並びに情報処理システム |
| JP2016529589A (ja) * | 2013-06-18 | 2016-09-23 | ウー ソク ケー, | 仮想空間における物理的効果制御装置及びその方法 |
| JP2015064868A (ja) * | 2013-08-29 | 2015-04-09 | キヤノンマーケティングジャパン株式会社 | 情報処理システムとその処理方法及びプログラム |
| JP2016139416A (ja) * | 2013-08-29 | 2016-08-04 | キヤノンマーケティングジャパン株式会社 | 情報処理システムとその処理方法及びプログラム |
| US9946336B2 (en) | 2014-05-05 | 2018-04-17 | Immersion Corporation | Systems and methods for viewport-based augmented reality haptic effects |
| US10444829B2 (en) | 2014-05-05 | 2019-10-15 | Immersion Corporation | Systems and methods for viewport-based augmented reality haptic effects |
| JP2020030845A (ja) * | 2014-05-19 | 2020-02-27 | イマージョン コーポレーションImmersion Corporation | 没入型環境における非コロケートな触覚キュー |
| JP2017010387A (ja) * | 2015-06-24 | 2017-01-12 | キヤノン株式会社 | システム、複合現実表示装置、情報処理方法及びプログラム |
| JP2017033299A (ja) * | 2015-07-31 | 2017-02-09 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、情報処理システム、その制御方法及びプログラム |
| US12474788B2 (en) | 2015-10-20 | 2025-11-18 | Magic Leap, Inc. | Selecting virtual objects in a three-dimensional space |
| JP2023052243A (ja) * | 2016-03-31 | 2023-04-11 | マジック リープ, インコーポレイテッド | 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用 |
| US12051167B2 (en) | 2016-03-31 | 2024-07-30 | Magic Leap, Inc. | Interactions with 3D virtual objects using poses and multiple-DOF controllers |
| JP7549681B2 (ja) | 2016-03-31 | 2024-09-11 | マジック リープ, インコーポレイテッド | 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用 |
| US12406454B2 (en) | 2016-03-31 | 2025-09-02 | Magic Leap, Inc. | Interactions with 3D virtual objects using poses and multiple-dof controllers |
| US12014464B2 (en) | 2016-05-20 | 2024-06-18 | Magic Leap, Inc. | Contextual awareness of user interface menus |
| JP2018013936A (ja) * | 2016-07-20 | 2018-01-25 | 株式会社コロプラ | 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体 |
| US10198855B2 (en) | 2016-07-20 | 2019-02-05 | Colopl, Inc. | Method of providing virtual space, method of providing virtual experience, system and medium for implementing the methods |
| US10776991B2 (en) | 2016-07-20 | 2020-09-15 | Colopl, Inc. | Method of providing virtual space, method of providing virtual experience, system and medium for implementing the methods |
| WO2018016553A1 (ja) * | 2016-07-20 | 2018-01-25 | 株式会社コロプラ | 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体 |
| US11157131B2 (en) | 2017-02-24 | 2021-10-26 | Vrad Inc. | Virtual reality-based radiology practice apparatus and method |
| KR102343387B1 (ko) * | 2017-02-24 | 2021-12-29 | 주식회사 브이알애드 | 가상현실 기반 방사선학 실습 장치 및 방법 |
| KR20180098174A (ko) * | 2017-02-24 | 2018-09-03 | 주식회사 브이알애드 | 가상현실 기반 방사선학 실습 장치 및 방법 |
| JP2018185567A (ja) * | 2017-04-24 | 2018-11-22 | 株式会社コロプラ | 情報処理方法、情報処理プログラム、情報処理システムおよび情報処理装置 |
| JP2018205974A (ja) * | 2017-06-01 | 2018-12-27 | 株式会社日立ドキュメントソリューションズ | 空間表示装置、および、空間表示方法 |
| JP2019219492A (ja) * | 2018-06-19 | 2019-12-26 | ニチアス株式会社 | 締付体験システム |
| US11922797B2 (en) | 2018-06-28 | 2024-03-05 | Sony Corporation | Encoding device, encoding method, decoding device, decoding method, and program |
| US12176927B2 (en) | 2018-06-28 | 2024-12-24 | Sony Corporation | Decoding apparatus, decoding method, and program |
| US12206438B2 (en) | 2018-06-28 | 2025-01-21 | Sony Group Corporation | Decoding apparatus, decoding method, and program |
| US11823557B2 (en) | 2018-07-03 | 2023-11-21 | Sony Corporation | Encoding apparatus, encoding method, decoding apparatus, decoding method, transmission system, receiving apparatus, and program |
| WO2020008716A1 (ja) * | 2018-07-03 | 2020-01-09 | ソニー株式会社 | 符号化装置、符号化方法、復号装置、復号方法、伝送システム、受信装置、プログラム |
| US12230124B2 (en) | 2018-07-03 | 2025-02-18 | Sony Group Corporation | Encoding apparatus, encoding method, decoding apparatus, decoding method, transmission system, receiving apparatus, and program |
| WO2022065120A1 (ja) * | 2020-09-28 | 2022-03-31 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| US20090066725A1 (en) | 2009-03-12 |
| EP2034390A2 (en) | 2009-03-11 |
| US8553049B2 (en) | 2013-10-08 |
| EP2034390A3 (en) | 2011-11-02 |
| CN101387908B (zh) | 2010-10-06 |
| CN101387908A (zh) | 2009-03-18 |
| JP4989383B2 (ja) | 2012-08-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4989383B2 (ja) | 情報処理装置、情報処理方法 | |
| JP4926799B2 (ja) | 情報処理装置、情報処理方法 | |
| JP2009276996A (ja) | 情報処理装置、情報処理方法 | |
| JP4921113B2 (ja) | 接触提示装置及び方法 | |
| US10248210B2 (en) | Systems and methods for haptically-enabled conformed and multifaceted displays | |
| US10220317B2 (en) | Haptic sensations as a function of eye gaze | |
| US10317997B2 (en) | Selection of optimally positioned sensors in a glove interface object | |
| CN105094311B (zh) | 用于基于视口的增强现实触觉效果的系统和方法 | |
| US9417106B2 (en) | Wearable computing device | |
| CA2675999C (en) | System and method for the interactive display of data in a motion capture environment | |
| US11467668B2 (en) | System and method for representing virtual object information with haptic stimulation | |
| KR100812624B1 (ko) | 입체영상 기반 가상현실장치 | |
| KR20220012990A (ko) | 인공 현실 시스템들을 위한 팔 응시-구동 사용자 인터페이스 요소 게이팅 | |
| KR20220018562A (ko) | 인공 현실 시스템을 위한 모서리-식별 제스처-구동 사용자 인터페이스 요소 게이팅 | |
| JP2018136938A (ja) | 自動局所触覚生成システム | |
| KR20220018561A (ko) | 사용자 인터페이스 요소들을 게이팅하기 위한 개인 어시스턴트 요소를 갖는 인공 현실 시스템들 | |
| CN109478089A (zh) | 多模态触觉效果 | |
| EP3489804A1 (en) | Haptic accessory apparatus | |
| KR20220140498A (ko) | 휴먼 인터페이스 시스템 | |
| CN107479687A (zh) | 用于伺机显示器的触觉反馈 | |
| CN119440281A (zh) | 手持式输入设备 | |
| Yong et al. | Stereo‐Vision‐Based Human‐Computer Interaction with Tactile Stimulation | |
| JP2015153387A (ja) | 仮想現実体感装置、仮想現実体感方法、及びプログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100910 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100910 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111220 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120116 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120314 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120402 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120427 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150511 Year of fee payment: 3 |
|
| LAPS | Cancellation because of no payment of annual fees |