JP7118007B2 - 視野周辺の視覚的背光 - Google Patents
視野周辺の視覚的背光 Download PDFInfo
- Publication number
- JP7118007B2 JP7118007B2 JP2018554039A JP2018554039A JP7118007B2 JP 7118007 B2 JP7118007 B2 JP 7118007B2 JP 2018554039 A JP2018554039 A JP 2018554039A JP 2018554039 A JP2018554039 A JP 2018554039A JP 7118007 B2 JP7118007 B2 JP 7118007B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- backlight
- fov
- eye
- objects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Ophthalmology & Optometry (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Optics & Photonics (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
- Materials For Medical Uses (AREA)
- Dental Preparations (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Mechanical Optical Scanning Systems (AREA)
- Architecture (AREA)
- Pens And Brushes (AREA)
Description
本願は、2016年4月21日に出願され、“RENDERING AURAS FOR OBJECTS IN AN AUGMENTED OR VIRTUAL REALITY ENVIRONMENT”と題された米国仮出願第62/325,685号に対する35 U.S.C. § 119(e)の下での優先権の利益を主張するものであり、該米国仮出願は、その全体が参照により本明細書中に援用される。
例えば、本願は以下の項目を提供する。
(項目1)
ユーザの3次元(3D)環境内の相互作用可能オブジェクトのインジケーションを提供するためのシステムであって、前記方法は、
3次元ビューをユーザに提示し、ユーザの動眼視野(FOR)内のオブジェクトとのユーザ相互作用を可能にするように構成される、ウェアラブルデバイスのディスプレイシステムであって、前記FORは、前記ディスプレイシステムを介して前記ユーザによって知覚可能な前記ユーザの周囲の環境の一部を含む、ディスプレイシステムと、
前記ユーザの姿勢と関連付けられたデータを入手するように構成されるセンサと、
前記センサおよび前記ディスプレイシステムと通信するハードウェアプロセッサであって、前記ハードウェアプロセッサは、
前記センサによって入手されたデータに基づいて、前記ユーザの姿勢を決定することと、
少なくとも部分的に前記ユーザの姿勢に基づいて、前記ユーザの視野(FOV)を決定することであって、前記FOVは、前記ディスプレイシステムを介して前記ユーザによって所与の時間に知覚可能な前記FORの一部を含む、ことと、
前記ユーザのFOV外に位置する相互作用可能オブジェクトを識別することと、
前記相互作用可能オブジェクトと関連付けられたコンテキスト情報にアクセスすることと、
前記コンテキスト情報に基づいて、背光の視覚的表現を決定することと、
前記ユーザによって知覚可能な前記視覚的背光の少なくとも一部が前記ユーザのFOVの縁にあるように、前記背光の視覚的表現をレンダリングすることと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、システム。
(項目2)
前記ディスプレイシステムは、前記ユーザの第1の眼のための第1のライトフィールドディスプレイと、前記ユーザの第2の眼のための第2のライトフィールドディスプレイとを備え、前記背光の視覚的表現をレンダリングするために、前記ハードウェアプロセッサは、
前記背光の第1の視覚的表現を前記第1のライトフィールドディスプレイによって前記第1の眼と関連付けられた第1のFOVの第1の縁にレンダリングすることと、
前記背光の第2の視覚的表現を前記第2のライトフィールドディスプレイによって前記第2の眼と関連付けられた第2のFOVの第2の縁にレンダリングすることと
を行うようにプログラムされる、項目1に記載のシステム。
(項目3)
前記背光の第1の表現および前記背光の第2の表現は、前記ユーザの周辺視覚に合致するように各眼に対して別個にレンダリングされる、項目2に記載のシステム。
(項目4)
前記コンテキスト情報は、前記ユーザ、前記3D環境、または前記相互作用可能オブジェクトの特性と関連付けられた情報を含む、項目1に記載のシステム。
(項目5)
前記3D環境と関連付けられた情報は、前記ユーザの環境の光条件を含み、前記背光の設置は、前記光条件下の前記相互作用可能オブジェクトの光学効果をシミュレートすることによって決定される、項目4に記載のシステム。
(項目6)
前記ハードウェアプロセッサはさらに、
前記ユーザの姿勢の変化を検出することと、
前記ユーザの姿勢の変化に基づいて、前記3D環境内の前記相互作用可能オブジェクトの更新された場所を決定することと、
前記相互作用可能オブジェクトの更新された場所に基づいて、前記背光の視覚的表現を更新することと
を行うようにプログラムされる、項目1-5のいずれか1項に記載のシステム。
(項目7)
前記更新された場所が前記ユーザのFOV内にあることの決定に応答して、前記ハードウェアプロセッサは、前記背光の内縁と前記ユーザの少なくとも1つの眼を共線形に整合させることによって、前記背光の設置を決定するようにプログラムされる、項目6に記載のシステム。
(項目8)
前記背光の視覚的表現は、位置、形状、色、サイズ、または明るさのうちの少なくとも1つを含む、項目1-5のいずれか1項に記載のシステム。
(項目9)
前記背光のサイズは、前記相互作用可能オブジェクトの近接度または切迫度のうちの少なくとも1つを示す、項目8に記載のシステム。
(項目10)
前記ユーザの姿勢は、頭部姿勢または視線の方向のうちの少なくとも1つを含む、項目1-5のいずれか1項に記載のシステム。
(項目11)
ユーザの3次元(3D)環境内の相互作用可能オブジェクトのインジケーションを提供するための方法であって、前記方法は、
ウェアラブルデバイスであって、3次元(3D)ビューをユーザに提示し、ユーザの動眼視野(FOR)内のオブジェクトとのユーザ相互作用を可能にするように構成されるディスプレイシステムであって、前記FORは、前記ディスプレイシステムを介して前記ユーザによって知覚可能な前記ユーザの周囲の環境の一部を含む、ディスプレイシステムと、前記ユーザの姿勢と関連付けられたデータを入手するように構成されるセンサと、前記センサおよび前記ディスプレイシステムと通信するハードウェアプロセッサとを有する、ウェアラブルデバイスの制御下で、
少なくとも部分的に、前記ユーザの姿勢に基づいて、ユーザの視野(FOV)を決定することであって、前記FOVは、前記ディスプレイシステムを介して前記ユーザによって所与の時間に知覚可能な前記FORの一部を含む、ことと、
前記ユーザのFOV外に位置する相互作用可能オブジェクトを識別することと、
前記相互作用可能オブジェクトと関連付けられたコンテキスト情報にアクセスすることと、
前記コンテキスト情報に基づいて、背光の視覚的表現を決定することと、
前記ユーザによって知覚可能な前記視覚的背光の少なくとも一部が前記ユーザのFOVの縁にあるように、前記背光の視覚的表現をレンダリングすることと
を含む、方法。
(項目12)
前記背光の第1の視覚的表現を前記ユーザの第1の眼と関連付けられた第1のFOVの第1の縁にレンダリングすることと、
前記背光の第2の視覚的表現を前記ユーザの第2の眼と関連付けられた第2のFOVの第2の縁にレンダリングすることと
をさらに含む、項目11に記載の方法。
(項目13)
前記背光の第1の表現および前記背光の第2の表現は、前記ユーザの周辺視覚に合致するように各眼に対して別個にレンダリングされる、項目12に記載の方法。
(項目14)
前記コンテキスト情報は、前記ユーザ、前記3D環境、または前記相互作用可能オブジェクトの特性と関連付けられた情報を含む、項目11に記載の方法。
(項目15)
前記3D環境内と関連付けられた情報は、前記ユーザの環境の光条件を含み、前記背光の視覚的表現は、前記光条件下の前記相互作用可能オブジェクトの光学効果をシミュレートすることによって決定される、項目14に記載の方法。
(項目16)
前記ユーザの姿勢の変化を検出することと、
前記ユーザの姿勢の変化に基づいて、前記3D環境内の前記相互作用可能オブジェクトの更新された場所を決定することと、
前記相互作用可能オブジェクトの更新された場所に基づいて、前記背光の視覚的表現を更新することと
をさらに含む、項目15に記載の方法。
(項目17)
前記更新された場所が前記ユーザのFOV内にあることの決定に応答して、前記背光の内縁と前記ユーザの少なくとも1つの眼を共線形に整合させる、項目16に記載の方法。
(項目18)
前記背光の視覚的表現は、位置、形状、色、サイズ、または明るさのうちの少なくとも1つを含む、項目16-17のいずれか1項に記載の方法。
(項目19)
前記背光のサイズは、前記相互作用可能オブジェクトの近接度または切迫度のうちの少なくとも1つを示す、項目18に記載の方法。
(項目20)
前記ユーザの姿勢は、頭部姿勢または視線の方向のうちの少なくとも1つを含む、項目11-17のいずれか1項に記載の方法。
ウェアラブルシステムは、拡張または仮想現実コンテンツを表示するように構成されることができる。故に、ユーザの視覚的コンピューティング体験は、ユーザを囲繞する3D環境まで延長されることができる。しかしながら、ウェアラブルシステムを通して知覚されるユーザ視野(FOV)(ユーザのFOVとも称される)は、ヒトの眼の自然なFOVより小さくあり得るかまたはユーザを囲繞する環境全体より小さくあり得る。したがって、ユーザの環境内には、最初は、ユーザのFOV外にあるが、続いて、ユーザのFOVの中に移動し得る、または、続いて、ユーザの姿勢が変化する(ユーザのFOVを変化させるであろう)場合に知覚可能になり得る、物理的または仮想オブジェクトが存在し得る。例えば、ゲームの状況では、ユーザは、ロボットのアバタを見つけようとし得る。ロボットが、ユーザの現在のFOVのわずかに外にある場合、ユーザは、ロボットが近傍にあることのキューをウェアラブルシステムから受信しないであろう。ユーザが、その頭部を若干移動させる場合、ロボットは、突然、ユーザのFOVに進入し得、これは、ユーザを驚かせ得る。さらに、ウェアラブルシステムを通したユーザのFOVが、比較的に小さい場合、ユーザがその頭部または視線を直接ロボットに方向転換しない限り、ユーザがロボットを見つけることは、困難であることが証明され得る。
ウェアラブルシステムの3Dディスプレイの実施例
導波管スタックアセンブリ
ウェアラブルシステムの他のコンポーネント
例示的ウェアラブルシステム、環境、およびインターフェース
動眼視野(FOR)および視野(FOV)内の例示的オブジェクト
ユーザにFOR内のオブジェクトを通知する実施例
背光の例示的視覚的提示
視覚的背光を伴う例示的ユーザ体験
背光の視覚的表現を決定する例示的プロセス
付加的実施形態
コンピュータハードウェアを備える拡張現実(AR)システムであって、ARシステムは、ユーザの動眼視野(FOR)内の仮想オブジェクトとのユーザ相互作用を可能にするように構成され、FORは、ARシステムを介してユーザによって知覚可能なユーザの周囲の環境の一部を備える、ARシステムの制御下で、
ユーザのFOR内の仮想オブジェクトのグループを決定することと、ユーザの姿勢を決定することと、少なくとも部分的に、ユーザの姿勢に基づいて、ユーザの視野(FOV)を決定することであって、FOVは、ARシステムを介してユーザによって所与の時間に知覚可能なFORの一部を含む、ことと、ユーザのFOR内であるが、ユーザのFOV外に位置する、仮想オブジェクトのグループのサブグループを識別することと、仮想オブジェクトのサブグループ内の仮想オブジェクトの少なくともいくつかに関して、ユーザのFOVに対する仮想オブジェクトの場所を決定することと、少なくとも部分的に、場所に基づいて、ユーザのFOVに対する仮想オブジェクトと関連付けられた視覚的背光の設置を決定することと、視覚的背光の少なくとも一部がユーザのFOVの縁上においてユーザによって知覚可能であるように、視覚的背光を表示することとを含む、方法。いくつかの実施形態では、視覚的背光の設置は、視覚的背光の視覚的表現とも称される。
イメージングシステムを備える拡張現実(AR)システムであって、該ARシステムは、ユーザの動眼視野(FOR)内の仮想オブジェクトとのユーザ相互作用を可能にするように構成され、FORは、ARシステムを介してユーザによって知覚可能なユーザの周囲の環境の一部を含む、ARシステムの制御下で、
ユーザのFOR内のオブジェクトのグループを決定することと、ユーザの視野(FOV)を決定することであって、FOVは、ARシステムを介してユーザによって所与の時間に知覚可能なFORの一部を含む、ことと、ユーザのFOR内であるが、ユーザのFOV外に位置する、オブジェクトのグループのサブグループを識別することと、視覚的背光の少なくとも一部がユーザのFOV内で知覚可能であるように、オブジェクトのグループのサブグループ内のオブジェクトのうちの1つ以上のものに関する視覚的背光を表示することとを含む、方法。
ウェアラブルデバイスであって、該ウェアラブルデバイスは、3次元(3D)ビューをユーザに提示し、ユーザの動眼視野(FOR)内のオブジェクトとのユーザ相互作用を可能にするように構成されるディスプレイシステムであって、FORは、ディスプレイシステムを介してユーザによって知覚可能なユーザの周囲の環境の一部を含む、ディスプレイシステムと、ユーザの姿勢と関連付けられたデータを入手するように構成されるセンサと、センサおよびディスプレイシステムと通信するハードウェアプロセッサとを有する、ウェアラブルデバイスの制御下で、
少なくとも部分的に、ユーザの姿勢に基づいて、ユーザの視野(FOV)を決定することであって、FOVは、ディスプレイシステムを介してユーザによって所与の時間に知覚可能なFORの一部を含む、ことと、ユーザのFOV外に位置する相互作用可能オブジェクトを識別することと、相互作用可能オブジェクトと関連付けられたコンテキスト情報にアクセスすることと、コンテキスト情報に基づいて、背光の視覚的表現を決定し、ユーザによって知覚可能な視覚的背光の少なくとも一部がユーザのFOVの縁にあるように、背光の視覚的表現をレンダリングすることとを含む、方法。
結論
Claims (16)
- ユーザの3次元(3D)環境内の相互作用可能なオブジェクトのインジケーションを提供するためのシステムであって、前記システムは、
3次元ビューをユーザに提示し、ユーザの動眼視野(FOR)内のオブジェクトとのユーザ相互作用を可能にするように構成されているウェアラブルデバイスのディスプレイシステムであって、前記FORは、前記ディスプレイシステムを介して前記ユーザによって知覚可能な前記ユーザの周囲の環境の一部を含み、前記ディスプレイシステムは、前記ユーザの第1の眼のための第1のライトフィールドディスプレイと前記ユーザの第2の眼のための第2のライトフィールドディスプレイとを備える、ディスプレイシステムと、
前記ユーザの姿勢に関連付けられたデータを入手するように構成されているセンサと、
前記センサおよび前記ディスプレイシステムと通信するハードウェアプロセッサと
を備え、
前記ハードウェアプロセッサは、
前記センサによって入手されたデータに基づいて、前記ユーザの姿勢を決定することと、
前記ユーザの姿勢に少なくとも部分的に基づいて、前記ユーザの視野(FOV)を決定することであって、前記FOVは、前記ディスプレイシステムを介して前記ユーザによって所与の時間に知覚可能な前記FORの一部を含む、ことと、
前記ユーザの前記FOV外に位置する相互作用可能なオブジェクトを識別することと、
前記相互作用可能なオブジェクトに関連付けられたコンテキスト情報にアクセスすることと、
前記コンテキスト情報に基づいて、背光の視覚的表現を決定することと、
前記ユーザによって知覚可能な前記背光の少なくとも一部が前記ユーザのFOVの縁にあるように、前記背光の視覚的表現をレンダリングすることであって、前記背光の視覚的表現をレンダリングすることは、
前記第1のライトフィールドディスプレイによって、前記背光の第1の視覚的表現を前記第1の眼に関連付けられた第1のFOVの第1の縁にレンダリングすることと、
前記第2のライトフィールドディスプレイによって、前記背光の第2の視覚的表現を前記第2の眼に関連付けられた第2のFOVの第2の縁にレンダリングすることと
によって行われ、前記背光の第1の表現および前記背光の第2の表現は、各眼に対して別個にレンダリングされる、ことと
を行うようにプログラムされている、システム。 - 前記コンテキスト情報は、前記ユーザ、前記3D環境、または、前記相互作用可能なオブジェクトの特性に関連付けられた情報を含む、請求項1に記載のシステム。
- 前記3D環境に関連付けられた情報は、前記ユーザの環境の光条件を含み、前記背光の設置は、前記光条件下の前記相互作用可能なオブジェクトの光学効果をシミュレートすることによって決定される、請求項2に記載のシステム。
- 前記ハードウェアプロセッサは、
前記ユーザの姿勢の変化を検出することと、
前記ユーザの姿勢の変化に基づいて、前記3D環境内の前記相互作用可能なオブジェクトの更新された場所を決定することと、
前記相互作用可能なオブジェクトの更新された場所に基づいて、前記背光の視覚的表現を更新することと
を行うようにさらにプログラムされている、請求項1~3のいずれか1項に記載のシステム。 - 前記更新された場所が前記ユーザのFOV内にあるという決定に応答して、前記ハードウェアプロセッサは、前記背光の内縁と前記ユーザの少なくとも1つの眼を共線形に整合させることによって、前記背光の設置を決定するようにプログラムされている、請求項4に記載のシステム。
- 前記背光の視覚的表現は、位置、形状、色、サイズ、または、明るさのうちの少なくとも1つを含む、請求項1~3のいずれか1項に記載のシステム。
- 前記背光のサイズは、前記相互作用可能なオブジェクトの近接度または切迫度のうちの少なくとも1つを示す、請求項6に記載のシステム。
- 前記ユーザの姿勢は、頭部姿勢または視線の方向のうちの少なくとも1つを含む、請求項1~3のいずれか1項に記載のシステム。
- ユーザの3次元(3D)環境内の相互作用可能なオブジェクトのインジケーションを提供するための方法であって、前記方法は、
3次元(3D)ビューをユーザに提示し、ユーザの動眼視野(FOR)内のオブジェクトとのユーザ相互作用を可能にするように構成されているディスプレイシステムであって、前記FORは、前記ディスプレイシステムを介して前記ユーザによって知覚可能な前記ユーザの周囲の環境の一部を含む、ディスプレイシステムと、前記ユーザの姿勢に関連付けられたデータを入手するように構成されているセンサと、前記センサおよび前記ディスプレイシステムと通信するハードウェアプロセッサとを有するウェアラブルデバイスの制御下で、
前記ユーザの姿勢に少なくとも部分的に基づいて、ユーザの視野(FOV)を決定することであって、前記FOVは、前記ディスプレイシステムを介して前記ユーザによって所与の時間に知覚可能な前記FORの一部を含む、ことと、
前記ユーザの前記FOV外に位置する相互作用可能なオブジェクトを識別することと、
前記相互作用可能なオブジェクトに関連付けられたコンテキスト情報にアクセスすることと、
前記コンテキスト情報に基づいて、背光の視覚的表現を決定することと、
前記ユーザによって知覚可能な前記背光の少なくとも一部が前記ユーザのFOVの縁にあるように、前記背光の視覚的表現をレンダリングすることと
前記背光の第1の視覚的表現を前記ユーザの第1の眼に関連付けられた第1のFOVの第1の縁にレンダリングすることと、
前記背光の第2の視覚的表現を前記ユーザの第2の眼に関連付けられた第2のFOVの第2の縁にレンダリングすることと
を含み、
前記背光の第1の表現および前記背光の第2の表現は、各眼に対して別個にレンダリングされる、方法。 - 前記コンテキスト情報は、前記ユーザ、前記3D環境、または、前記相互作用可能なオブジェクトの特性に関連付けられた情報を含む、請求項9に記載の方法。
- 前記3D環境内に関連付けられた情報は、前記ユーザの環境の光条件を含み、前記背光の視覚的表現は、前記光条件下の前記相互作用可能なオブジェクトの光学効果をシミュレートすることによって決定される、請求項10に記載の方法。
- 前記方法は、
前記ユーザの姿勢の変化を検出することと、
前記ユーザの姿勢の変化に基づいて、前記3D環境内の前記相互作用可能なオブジェクトの更新された場所を決定することと、
前記相互作用可能なオブジェクトの更新された場所に基づいて、前記背光の視覚的表現を更新することと
をさらに含む、請求項11に記載の方法。 - 前記更新された場所が前記ユーザのFOV内にあるという決定に応答して、前記背光の内縁と前記ユーザの少なくとも1つの眼を共線形に整合させる、請求項12に記載の方法。
- 前記背光の視覚的表現は、位置、形状、色、サイズ、または、明るさのうちの少なくとも1つを含む、請求項12~13のいずれか1項に記載の方法。
- 前記背光のサイズは、前記相互作用可能なオブジェクトの近接度または切迫度のうちの少なくとも1つを示す、請求項14に記載の方法。
- 前記ユーザの姿勢は、頭部姿勢または視線の方向のうちの少なくとも1つを含む、請求項9~13のいずれか1項に記載の方法。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022123239A JP7492558B2 (ja) | 2016-04-21 | 2022-08-02 | 視野周辺の視覚的背光 |
| JP2024080910A JP7540112B2 (ja) | 2016-04-21 | 2024-05-17 | 視野周辺の視覚的背光 |
| JP2024135324A JP2024159778A (ja) | 2016-04-21 | 2024-08-14 | 視野周辺の視覚的背光 |
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201662325685P | 2016-04-21 | 2016-04-21 | |
| US62/325,685 | 2016-04-21 | ||
| PCT/US2017/028297 WO2017184694A1 (en) | 2016-04-21 | 2017-04-19 | Visual aura around field of view |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022123239A Division JP7492558B2 (ja) | 2016-04-21 | 2022-08-02 | 視野周辺の視覚的背光 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019519020A JP2019519020A (ja) | 2019-07-04 |
| JP7118007B2 true JP7118007B2 (ja) | 2022-08-15 |
Family
ID=60089681
Family Applications (4)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018554039A Active JP7118007B2 (ja) | 2016-04-21 | 2017-04-19 | 視野周辺の視覚的背光 |
| JP2022123239A Active JP7492558B2 (ja) | 2016-04-21 | 2022-08-02 | 視野周辺の視覚的背光 |
| JP2024080910A Active JP7540112B2 (ja) | 2016-04-21 | 2024-05-17 | 視野周辺の視覚的背光 |
| JP2024135324A Pending JP2024159778A (ja) | 2016-04-21 | 2024-08-14 | 視野周辺の視覚的背光 |
Family Applications After (3)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022123239A Active JP7492558B2 (ja) | 2016-04-21 | 2022-08-02 | 視野周辺の視覚的背光 |
| JP2024080910A Active JP7540112B2 (ja) | 2016-04-21 | 2024-05-17 | 視野周辺の視覚的背光 |
| JP2024135324A Pending JP2024159778A (ja) | 2016-04-21 | 2024-08-14 | 視野周辺の視覚的背光 |
Country Status (10)
| Country | Link |
|---|---|
| US (4) | US10838484B2 (ja) |
| EP (1) | EP3446168B1 (ja) |
| JP (4) | JP7118007B2 (ja) |
| KR (4) | KR102666960B1 (ja) |
| CN (2) | CN109313509B (ja) |
| AU (2) | AU2017252557B2 (ja) |
| CA (1) | CA3021079A1 (ja) |
| IL (3) | IL311131A (ja) |
| NZ (1) | NZ747128A (ja) |
| WO (1) | WO2017184694A1 (ja) |
Families Citing this family (36)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102641655B1 (ko) | 2015-10-20 | 2024-02-27 | 매직 립, 인코포레이티드 | 3차원 공간에서 가상 객체들 선택 |
| EP3436863B1 (en) | 2016-03-31 | 2024-07-10 | Magic Leap, Inc. | Interactions with 3d virtual objects using poses and multiple-dof controllers |
| AU2017252557B2 (en) | 2016-04-21 | 2022-01-27 | Magic Leap, Inc. | Visual aura around field of view |
| US10401954B2 (en) * | 2017-04-17 | 2019-09-03 | Intel Corporation | Sensory enhanced augmented reality and virtual reality device |
| KR102572675B1 (ko) | 2017-11-22 | 2023-08-30 | 삼성전자주식회사 | 사용자 인터페이스를 적응적으로 구성하기 위한 장치 및 방법 |
| US20190212828A1 (en) * | 2018-01-10 | 2019-07-11 | Facebook Technologies, Llc | Object enhancement in artificial reality via a near eye display interface |
| EP4339692B1 (en) | 2018-01-17 | 2025-11-12 | Magic Leap, Inc. | Display systems and methods for determining registration between a display and a user's eyes |
| JP7121518B2 (ja) * | 2018-03-30 | 2022-08-18 | 株式会社コロプラ | プログラム、情報処理装置、及び情報処理方法 |
| WO2020023542A1 (en) * | 2018-07-24 | 2020-01-30 | Magic Leap, Inc. | Display systems and methods for determining registration between a display and eyes of a user |
| JP7443332B2 (ja) * | 2018-08-03 | 2024-03-05 | マジック リープ, インコーポレイテッド | ユーザカテゴリ化による多深度平面ディスプレイシステムのための深度平面選択 |
| US11861899B2 (en) | 2018-11-23 | 2024-01-02 | Geenee Gmbh | Systems and methods for augmented reality using web browsers |
| CN113366538B (zh) * | 2019-01-28 | 2025-08-01 | 佩里多特打印有限责任公司 | 装填待增材制造的部件的方法、包括3d打印设备的装置和计算机可读介质 |
| WO2020179027A1 (ja) * | 2019-03-06 | 2020-09-10 | マクセル株式会社 | ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム |
| DE112020002063T5 (de) * | 2019-04-23 | 2022-03-17 | Apple Inc. | Generieren einer semantischen Konstruktion einer physischen Umgebung |
| WO2020219380A1 (en) * | 2019-04-23 | 2020-10-29 | Raitonsa Dynamics Llc | Perceptual property vector for an object |
| US11934579B2 (en) | 2019-05-30 | 2024-03-19 | Hewlett-Packard Development Company, L.P. | Haptic device activation for virtual events that exceed view boundary |
| US11151967B2 (en) | 2019-06-06 | 2021-10-19 | Honeywell International Inc. | Method and system for spawning attention pointers (ATP) for drawing attention of an user in a virtual screen display with augmented and virtual reality |
| KR102694110B1 (ko) * | 2019-08-12 | 2024-08-12 | 엘지전자 주식회사 | Ar 모드 및 vr 모드를 제공하는 xr 디바이스 및 그 제어 방법 |
| US11816757B1 (en) * | 2019-12-11 | 2023-11-14 | Meta Platforms Technologies, Llc | Device-side capture of data representative of an artificial reality environment |
| US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
| JP7455985B2 (ja) | 2020-02-10 | 2024-03-26 | マジック リープ, インコーポレイテッド | 複合現実環境における3次元コンテナに対する身体中心コンテンツ位置付け |
| KR102721682B1 (ko) * | 2020-02-21 | 2024-10-25 | 삼성전자주식회사 | 적어도 하나의 객체를 공유하는 전자 장치 및 그 제어 방법 |
| US11506890B2 (en) * | 2020-02-24 | 2022-11-22 | Lenovo (Singapore) Pte. Ltd. | Adjustment of luminance within an augmented reality scene |
| US20230135993A1 (en) * | 2020-03-06 | 2023-05-04 | Sony Group Corporation | Information processing apparatus, information processing method, and information processing program |
| US11106915B1 (en) | 2020-03-26 | 2021-08-31 | International Business Machines Corporation | Generating in a gaze tracking device augmented reality representations for objects in a user line-of-sight |
| WO2022046926A1 (en) * | 2020-08-26 | 2022-03-03 | Immersive Wisdom, Inc. | Real-time geospatial collaboration system |
| US11270672B1 (en) * | 2020-11-02 | 2022-03-08 | Microsoft Technology Licensing, Llc | Display of virtual assistant in augmented reality |
| CN112329643B (zh) * | 2020-11-06 | 2021-06-04 | 重庆第二师范学院 | 一种学习效率检测方法、系统、电子设备及介质 |
| US20240176459A1 (en) * | 2021-03-29 | 2024-05-30 | Kyocera Corporation | Wearable terminal device, program, and display method |
| KR20240034246A (ko) * | 2021-08-20 | 2024-03-13 | 애플 인크. | 디지털 어시스턴트 객체 배치 |
| WO2023086084A1 (en) * | 2021-11-10 | 2023-05-19 | Hewlett-Packard Development Company, L.P. | Build volume portions |
| US12361661B1 (en) | 2022-12-21 | 2025-07-15 | Meta Platforms Technologies, Llc | Artificial reality (XR) location-based displays and interactions |
| US12072501B1 (en) | 2023-02-14 | 2024-08-27 | Google Llc | Decreasing size of user interface element in display of head-mounted device |
| EP4657208A1 (en) | 2023-07-06 | 2025-12-03 | Samsung Electronics Co., Ltd. | Electronic device and method for providing notification information based on gaze of user |
| GB2636982A (en) * | 2023-12-15 | 2025-07-09 | Bae Systems Plc | Head worn augmented reality display |
| GB2640721A (en) * | 2024-05-03 | 2025-11-05 | Nokia Technologies Oy | Virtual space modification |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20120127284A1 (en) | 2010-11-18 | 2012-05-24 | Avi Bar-Zeev | Head-mounted display device which provides surround video |
| JP2015155959A (ja) | 2014-02-20 | 2015-08-27 | ヤフー株式会社 | 情報通知装置、情報通知方法および情報通知プログラム |
| WO2016013272A1 (ja) | 2014-07-23 | 2016-01-28 | ソニー株式会社 | 情報処理装置及び情報処理方法、並びに画像表示システム |
| WO2016031358A1 (ja) | 2014-08-27 | 2016-03-03 | ソニー株式会社 | 表示制御装置、表示制御方法およびプログラム |
Family Cites Families (91)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
| US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
| US6010221A (en) | 1997-05-22 | 2000-01-04 | Nikon Corporation | Projection type display apparatus |
| JP2000113220A (ja) | 1998-09-30 | 2000-04-21 | Sony Corp | 情報処理装置および方法、並びに提供媒体 |
| US20050275626A1 (en) * | 2000-06-21 | 2005-12-15 | Color Kinetics Incorporated | Entertainment lighting system |
| TW522256B (en) | 2000-12-15 | 2003-03-01 | Samsung Electronics Co Ltd | Wearable display system |
| US7259747B2 (en) | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
| US6776480B2 (en) * | 2001-07-18 | 2004-08-17 | Sola International Holdings, Ltd. | Spectacle frames for shaped lenses defined by monoformal carrier surfaces |
| US8292433B2 (en) * | 2003-03-21 | 2012-10-23 | Queen's University At Kingston | Method and apparatus for communication between humans and devices |
| WO2004109349A2 (en) | 2003-06-10 | 2004-12-16 | Elop Electro-Optics Industries Ltd. | Method and system for displaying an informative image against a background image |
| WO2005043218A1 (ja) * | 2003-10-30 | 2005-05-12 | Brother Kogyo Kabushiki Kaisha | 画像表示装置 |
| USD514570S1 (en) | 2004-06-24 | 2006-02-07 | Microsoft Corporation | Region of a fingerprint scanning device with an illuminated ring |
| US7561717B2 (en) * | 2004-07-09 | 2009-07-14 | United Parcel Service Of America, Inc. | System and method for displaying item information |
| US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
| US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
| US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
| JP4463227B2 (ja) * | 2006-03-15 | 2010-05-19 | 株式会社バンダイナムコゲームス | プログラム、情報記憶媒体及びゲーム装置 |
| US20100277803A1 (en) | 2006-12-14 | 2010-11-04 | Nokia Corporation | Display Device Having Two Operating Modes |
| JP5184801B2 (ja) * | 2007-03-20 | 2013-04-17 | 株式会社バンダイナムコゲームス | プログラム及びサーバ |
| US8466931B2 (en) | 2008-04-24 | 2013-06-18 | International Business Machines Corporation | Color modification of objects in a virtual universe |
| US20110251954A1 (en) * | 2008-05-17 | 2011-10-13 | David H. Chin | Access of an online financial account through an applied gesture on a mobile device |
| EP2196729A1 (en) | 2008-12-12 | 2010-06-16 | BAE Systems PLC | Improvements in or relating to waveguides |
| US9064023B2 (en) | 2008-12-29 | 2015-06-23 | Avaya Inc. | Providing web content in the context of a virtual environment |
| US9176579B2 (en) | 2008-12-29 | 2015-11-03 | Avaya Inc. | Visual indication of user interests in a computer-generated virtual environment |
| US20100177117A1 (en) | 2009-01-14 | 2010-07-15 | International Business Machines Corporation | Contextual templates for modifying objects in a virtual universe |
| US20100240988A1 (en) * | 2009-03-19 | 2010-09-23 | Kenneth Varga | Computer-aided system for 360 degree heads up display of safety/mission critical data |
| US20100238161A1 (en) * | 2009-03-19 | 2010-09-23 | Kenneth Varga | Computer-aided system for 360º heads up display of safety/mission critical data |
| US9542010B2 (en) * | 2009-09-15 | 2017-01-10 | Palo Alto Research Center Incorporated | System for interacting with objects in a virtual environment |
| US9619104B2 (en) * | 2010-10-01 | 2017-04-11 | Smart Technologies Ulc | Interactive input system having a 3D input space |
| US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
| US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
| KR101997852B1 (ko) | 2010-12-24 | 2019-10-01 | 매직 립, 인코포레이티드 | 인체공학적 머리 장착식 디스플레이 장치 및 광학 시스템 |
| JP2012212351A (ja) * | 2011-03-31 | 2012-11-01 | Mazda Motor Corp | 車両用情報提供装置 |
| WO2012154620A2 (en) | 2011-05-06 | 2012-11-15 | Magic Leap, Inc. | Massive simultaneous remote digital presence world |
| USD658094S1 (en) * | 2011-06-18 | 2012-04-24 | Dunn Scott E | Rounded square display device for a cord |
| US9417754B2 (en) * | 2011-08-05 | 2016-08-16 | P4tents1, LLC | User interface system, method, and computer program product |
| WO2013049861A1 (en) | 2011-09-29 | 2013-04-04 | Magic Leap, Inc. | Tactile glove for human-computer interaction |
| US20130104085A1 (en) | 2011-10-21 | 2013-04-25 | Digital Artforms, Inc. | Systems and methods for human-computer interaction using a two handed interface |
| JP6110866B2 (ja) * | 2011-10-28 | 2017-04-05 | マジック リープ, インコーポレイテッド | 拡張現実および仮想現実のためのシステムおよび方法 |
| KR102440195B1 (ko) | 2011-11-23 | 2022-09-02 | 매직 립, 인코포레이티드 | 3차원 가상 및 증강 현실 디스플레이 시스템 |
| US9135511B2 (en) * | 2012-03-01 | 2015-09-15 | Nissan Motor Co., Ltd. | Three-dimensional object detection device |
| EP3608717B1 (en) | 2012-04-05 | 2023-09-27 | Magic Leap, Inc. | Wide-field of view (fov) imaging devices with active foveation capability |
| US20130285885A1 (en) | 2012-04-25 | 2013-10-31 | Andreas G. Nowatzyk | Head-mounted light-field display |
| US8989535B2 (en) * | 2012-06-04 | 2015-03-24 | Microsoft Technology Licensing, Llc | Multiple waveguide imaging structure |
| US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
| NZ702897A (en) | 2012-06-11 | 2017-03-31 | Magic Leap Inc | Multiple depth plane three-dimensional display using a wave guide reflector array projector |
| US9389682B2 (en) * | 2012-07-02 | 2016-07-12 | Sony Interactive Entertainment Inc. | Methods and systems for interaction with an expanded information space |
| US8754829B2 (en) * | 2012-08-04 | 2014-06-17 | Paul Lapstun | Scanning light field camera and display |
| US8885997B2 (en) | 2012-08-31 | 2014-11-11 | Microsoft Corporation | NED polarization system for wavelength pass-through |
| US8836768B1 (en) * | 2012-09-04 | 2014-09-16 | Aquifi, Inc. | Method and system enabling natural user interface gestures with user wearable glasses |
| CN104813218A (zh) | 2012-09-11 | 2015-07-29 | 奇跃公司 | 人机工程学的头戴显示设备和光学系统 |
| CN108681065B (zh) | 2013-01-15 | 2021-11-23 | 奇跃公司 | 超高分辨率扫描光纤显示器 |
| US20150262424A1 (en) | 2013-01-31 | 2015-09-17 | Google Inc. | Depth and Focus Discrimination for a Head-mountable device using a Light-Field Display System |
| EP2767953A1 (en) * | 2013-02-13 | 2014-08-20 | BlackBerry Limited | Device with enhanced augmented reality functionality |
| KR102516124B1 (ko) | 2013-03-11 | 2023-03-29 | 매직 립, 인코포레이티드 | 증강 및 가상 현실을 위한 시스템 및 방법 |
| NZ712192A (en) | 2013-03-15 | 2018-11-30 | Magic Leap Inc | Display system and method |
| KR102019125B1 (ko) * | 2013-03-18 | 2019-09-06 | 엘지전자 주식회사 | 3d 디스플레이 디바이스 장치 및 제어 방법 |
| JP2016521480A (ja) * | 2013-03-22 | 2016-07-21 | セイコーエプソン株式会社 | 赤外線ビデオ表示アイウェア |
| EP2983138A4 (en) | 2013-04-04 | 2017-02-22 | Sony Corporation | Display control device, display control method and program |
| US9443354B2 (en) | 2013-04-29 | 2016-09-13 | Microsoft Technology Licensing, Llc | Mixed reality interactions |
| US9245388B2 (en) * | 2013-05-13 | 2016-01-26 | Microsoft Technology Licensing, Llc | Interactions of virtual objects with surfaces |
| US9908048B2 (en) * | 2013-06-08 | 2018-03-06 | Sony Interactive Entertainment Inc. | Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display |
| US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
| US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
| US9129430B2 (en) * | 2013-06-25 | 2015-09-08 | Microsoft Technology Licensing, Llc | Indicating out-of-view augmented reality images |
| DE102013107855B4 (de) | 2013-07-23 | 2021-09-23 | Pictiva Displays International Limited | Optoelektronische Bauelementevorrichtung, Verfahren zum Herstellen einer optoelektronischen Bauelementevorrichtung und Verfahren zum Betreiben einer optoelektronischen Bauelementevorrichtung |
| KR102165444B1 (ko) | 2013-08-28 | 2020-10-14 | 엘지전자 주식회사 | 증강현실 이미지를 디스플레이하는 포터블 디바이스 및 그 제어 방법 |
| US10272780B2 (en) * | 2013-09-13 | 2019-04-30 | Maxell, Ltd. | Information display system and information display device |
| US10217284B2 (en) | 2013-09-30 | 2019-02-26 | Qualcomm Incorporated | Augmented virtuality |
| KR20150037254A (ko) * | 2013-09-30 | 2015-04-08 | 엘지전자 주식회사 | 착용형 디스플레이 디바이스 및 레이어 제어 방법 |
| CA2927818C (en) | 2013-10-16 | 2021-11-30 | Magic Leap, Inc. | Virtual or augmented reality headsets having adjustable interpupillary distance |
| US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
| CN113568175B (zh) | 2013-11-27 | 2023-06-27 | 奇跃公司 | 虚拟和增强现实系统与方法 |
| US10291907B2 (en) * | 2014-01-23 | 2019-05-14 | Telefonaktiebolaget Lm Ericsson (Publ) | Multi-view display control for channel selection |
| NZ722904A (en) | 2014-01-31 | 2020-05-29 | Magic Leap Inc | Multi-focal display system and method |
| CN111552079B (zh) | 2014-01-31 | 2022-04-15 | 奇跃公司 | 多焦点显示系统和方法 |
| JP6303550B2 (ja) * | 2014-02-03 | 2018-04-04 | ブラザー工業株式会社 | 表示プログラムおよび表示装置 |
| US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
| US9681122B2 (en) * | 2014-04-21 | 2017-06-13 | Zspace, Inc. | Modifying displayed images in the coupled zone of a stereoscopic display based on user comfort |
| JP2015213226A (ja) * | 2014-05-02 | 2015-11-26 | コニカミノルタ株式会社 | ウエアラブルディスプレイ及びその表示制御プログラム |
| WO2015172124A1 (en) | 2014-05-09 | 2015-11-12 | Eyefluence, Inc. | Systems and methods for using eye signals with secure mobile communications |
| USD759657S1 (en) | 2014-05-19 | 2016-06-21 | Microsoft Corporation | Connector with illumination region |
| CN106662754B (zh) | 2014-05-30 | 2021-05-25 | 奇跃公司 | 用于采用虚拟或增强现实装置生成虚拟内容显示的方法和系统 |
| USD752529S1 (en) | 2014-06-09 | 2016-03-29 | Comcast Cable Communications, Llc | Electronic housing with illuminated region |
| CN106937531B (zh) * | 2014-06-14 | 2020-11-06 | 奇跃公司 | 用于产生虚拟和增强现实的方法和系统 |
| US20160027218A1 (en) * | 2014-07-25 | 2016-01-28 | Tom Salter | Multi-user gaze projection using head mounted display devices |
| US9766460B2 (en) * | 2014-07-25 | 2017-09-19 | Microsoft Technology Licensing, Llc | Ground plane adjustment in a virtual reality environment |
| USD758367S1 (en) | 2015-05-14 | 2016-06-07 | Magic Leap, Inc. | Virtual reality headset |
| USD805734S1 (en) | 2016-03-04 | 2017-12-26 | Nike, Inc. | Shirt |
| USD794288S1 (en) | 2016-03-11 | 2017-08-15 | Nike, Inc. | Shoe with illuminable sole light sequence |
| AU2017252557B2 (en) | 2016-04-21 | 2022-01-27 | Magic Leap, Inc. | Visual aura around field of view |
-
2017
- 2017-04-19 AU AU2017252557A patent/AU2017252557B2/en active Active
- 2017-04-19 NZ NZ747128A patent/NZ747128A/en unknown
- 2017-04-19 WO PCT/US2017/028297 patent/WO2017184694A1/en not_active Ceased
- 2017-04-19 JP JP2018554039A patent/JP7118007B2/ja active Active
- 2017-04-19 US US15/491,571 patent/US10838484B2/en active Active
- 2017-04-19 KR KR1020237021271A patent/KR102666960B1/ko active Active
- 2017-04-19 CN CN201780037987.6A patent/CN109313509B/zh active Active
- 2017-04-19 IL IL311131A patent/IL311131A/en unknown
- 2017-04-19 IL IL298181A patent/IL298181B2/en unknown
- 2017-04-19 KR KR1020247015672A patent/KR102712505B1/ko active Active
- 2017-04-19 EP EP17786528.4A patent/EP3446168B1/en active Active
- 2017-04-19 IL IL262279A patent/IL262279B2/en unknown
- 2017-04-19 KR KR1020187033481A patent/KR102445364B1/ko active Active
- 2017-04-19 CA CA3021079A patent/CA3021079A1/en active Pending
- 2017-04-19 KR KR1020227031789A patent/KR102548818B1/ko active Active
- 2017-04-19 CN CN202111632683.9A patent/CN114296552A/zh active Pending
-
2020
- 2020-09-30 US US17/038,734 patent/US11340694B2/en active Active
-
2022
- 2022-04-21 US US17/726,390 patent/US12293013B2/en active Active
- 2022-04-26 AU AU2022202722A patent/AU2022202722A1/en not_active Abandoned
- 2022-08-02 JP JP2022123239A patent/JP7492558B2/ja active Active
-
2024
- 2024-05-17 JP JP2024080910A patent/JP7540112B2/ja active Active
- 2024-08-14 JP JP2024135324A patent/JP2024159778A/ja active Pending
-
2025
- 2025-04-02 US US19/098,834 patent/US20250231614A1/en active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20120127284A1 (en) | 2010-11-18 | 2012-05-24 | Avi Bar-Zeev | Head-mounted display device which provides surround video |
| JP2015155959A (ja) | 2014-02-20 | 2015-08-27 | ヤフー株式会社 | 情報通知装置、情報通知方法および情報通知プログラム |
| WO2016013272A1 (ja) | 2014-07-23 | 2016-01-28 | ソニー株式会社 | 情報処理装置及び情報処理方法、並びに画像表示システム |
| WO2016031358A1 (ja) | 2014-08-27 | 2016-03-03 | ソニー株式会社 | 表示制御装置、表示制御方法およびプログラム |
Also Published As
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7540112B2 (ja) | 視野周辺の視覚的背光 | |
| JP7186913B2 (ja) | 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200410 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210625 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210924 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220107 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220204 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220704 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220802 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7118007 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |