JP7611385B2 - ウェアラブルデバイスを用いた制御可能デバイスの位置の特定 - Google Patents
ウェアラブルデバイスを用いた制御可能デバイスの位置の特定 Download PDFInfo
- Publication number
- JP7611385B2 JP7611385B2 JP2023528595A JP2023528595A JP7611385B2 JP 7611385 B2 JP7611385 B2 JP 7611385B2 JP 2023528595 A JP2023528595 A JP 2023528595A JP 2023528595 A JP2023528595 A JP 2023528595A JP 7611385 B2 JP7611385 B2 JP 7611385B2
- Authority
- JP
- Japan
- Prior art keywords
- map
- controllable device
- controllable
- computing system
- examples
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Computer Hardware Design (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
Description
本明細書は、一般に、ウェアラブルデバイスを用いた制御可能デバイスの位置の取得に関する。
ウェアラブルデバイスは、メディアストリーミングデバイス、ホームスピーカ、スマート電球などの1つ以上の制御可能デバイスを制御するために使用することができる。いくつかの例では、ウェアラブルデバイスは、視覚データをキャプチャするカメラと、画像データを処理してウェアラブルデバイスのカメラの視野内のデバイスを検出するための画像認識ソフトウェアとを備え、デバイスの2次元(2D)位置を取得することができる。しかしながら、2D位置は、ユーザがインタラクティブなユーザインターフェイス(user interface:UI)でデバイスを制御できるように、またはデバイスに関する追加情報をユーザに提示できるように、3D空間におけるデバイスの位置に近接した位置で、ウェアラブルデバイスのディスプレイ上にUIコントロールをレンダリングするには十分ではない場合がある。また、従来技術によっては、ユーザが複数の類似した外観のデバイス(たとえば、同じように見える2つのスマート電球)を持っている場合、ユーザが意図するデバイスを制御するために、ウェアラブルデバイスが複数のデバイスを区別することができない場合がある。
ある態様によると、ウェアラブルデバイスを用いて制御可能デバイスの位置を特定する方法は、ウェアラブルデバイス上の画像センサから視覚データを受信することと、オブジェクト認識モジュールが、視覚データに基づいて識別データを生成することと、識別データを用いて、第1の3次元(3D)マップと第2の3Dマップとを含む複数の3Dマップを格納するマップデータベースから、第1の3Dマップを特定することとを含み、第1の3Dマップは第1の制御可能デバイスに関連付けられ、第2の3Dマップは第2の制御可能デバイスに関連付けられている。方法は、第1の3Dマップの視覚的位置決めデータに基づいて、物理空間における第1の制御可能デバイスの位置を取得することと、第1の制御可能デバイスの位置の閾値距離以内の位置で、ウェアラブルデバイスのディスプレイ上にユーザインターフェイス(UI)オブジェクトをレンダリングすることとを含む。いくつかの例において、UIオブジェクトは、第1の制御可能デバイスの位置に対応する位置において、ディスプレイ上にレンダリングされる。
本開示は、視覚データをキャプチャし、視覚データに基づいて、マップデータベースからあらかじめ格納された3次元(3D)マップ(たとえば、3Dメッシュ、3D特徴マップ、仮想クラウドアンカーなど)を特定するウェアラブルデバイスに関し、3Dマップは、視覚データによって少なくとも部分的に表現される物理空間内の制御可能デバイスの場所に印を付ける。マップデータベースは、複数の3Dマップを格納することができ、各3Dマップは、別々の制御可能デバイスに関する視覚的位置決めデータを含む。マップデータベースは、ローカルに格納されてもよく、サーバコンピュータにリモートに格納されてもよい。3Dマップからの情報は、制御可能デバイスの6自由度(degree of freedom:DoF)位置を検出するために使用される。次に、ウェアラブルデバイスは、3D空間における制御可能デバイスの位置の閾値距離以内の場所で、ウェアラブルデバイスのディスプレイ上にユーザインターフェイス(UI)オブジェクトをレンダリングできる。いくつかの例では、UIオブジェクトは、制御可能デバイスの位置(たとえば、6DoF位置)に対応する位置でディスプレイ上にレンダリングされる。UIオブジェクトは、制御可能デバイスを制御するための1つ以上のコントロールおよび/または制御可能デバイスに関する追加情報を、ユーザに提供し得る。
Claims (22)
- ウェアラブルデバイスを用いて制御可能デバイスの位置を特定する方法であって、
ウェアラブルデバイス上の画像センサから視覚データを受信することと、
オブジェクト認識モジュールが、前記視覚データに基づいて識別データを生成することと、
前記識別データを用いて、第1の3次元(3D)マップと第2の3Dマップとを含む複数の3Dマップを格納するマップデータベースから、前記第1の3Dマップを特定することとを含み、前記第1の3Dマップは第1の制御可能デバイスに関連付けられ、前記第2の3Dマップは第2の制御可能デバイスに関連付けられ、前記方法はさらに、
前記第1の3Dマップの視覚的位置決めデータに基づいて、物理空間における前記第1の制御可能デバイスの位置を取得することと、
前記第1の制御可能デバイスの前記位置の閾値距離以内の位置で、前記ウェアラブルデバイスのディスプレイ上にユーザインターフェイス(UI)オブジェクトをレンダリングすることとを含む、方法。 - 前記位置は、前記制御可能デバイスの6自由度位置を含む、請求項1に記載の方法。
- 前記識別データは、前記第1の制御可能デバイスのデバイス名またはデバイスタイプの少なくとも1つを含む、請求項1または2に記載の方法。
- 前記識別データは、前記第1の制御可能デバイスに関連付けられた前記物理空間の空間タイプを含む、請求項1~3のいずれか1項に記載の方法。
- 前記識別データは、前記マップデータベースに、前記第1の3Dマップに関連付けて格納される、請求項1~4のいずれか1項に記載の方法。
- 前記視覚データを、前記第1の3Dマップと比較することをさらに含む、請求項1~5のいずれか1項に記載の方法。
- 前記第1の制御可能デバイスに関連付けられたセットアップ手順中に、前記第1の3Dマップを生成することをさらに含む、請求項1~6のいずれか1項に記載の方法。
- 前記第1の3Dマップは、1人以上の他のユーザと共有するように構成された仮想クラウドアンカーに対応する特徴点マップを含む、請求項1~7のいずれか1項に記載の方法。
- 前記UIオブジェクトは、ユーザが前記第1の制御可能デバイスを制御することを許可する1つ以上のコントロールを含む、請求項1~8のいずれか1項に記載の方法。
- 命令を有したプログラムであって、前記命令は、少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに、
ウェアラブルデバイス上の画像センサから視覚データを受信させ、
オブジェクト認識モジュールによって、前記視覚データに基づいて識別データを生成させ、
前記識別データを用いて、第1の3次元(3D)マップと第2の3Dマップとを含む複数の3Dマップを格納するマップデータベースから、前記第1の3Dマップを特定させるように構成され、前記第1の3Dマップは第1の制御可能デバイスに関連付けられ、前記第2の3Dマップは第2の制御可能デバイスに関連付けられ、前記命令はさらに、
前記第1の3Dマップの視覚的位置決めデータに基づいて、前記視覚データによって少なくとも部分的に表現される物理空間における前記第1の制御可能デバイスの位置を取得させ、
前記第1の制御可能デバイスの前記位置の閾値距離以内の位置で、前記ウェアラブルデバイスのディスプレイ上にユーザインターフェイス(UI)オブジェクトをレンダリングさせるように構成され、前記UIオブジェクトは、前記第1の制御可能デバイスを制御するための1つ以上の対話型コントロールを含む、プログラム。 - 前記マップデータベースはサーバコンピュータに格納され、前記命令は、前記少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに、前記サーバコンピュータと通信して前記マップデータベースにアクセスさせるように構成されている、請求項10に記載のプログラム。
- 前記マップデータベースは、前記ウェアラブルデバイスまたは前記ウェアラブルデバイスに通信可能に結合されたコンピューティングデバイスに格納され、前記命令は、前記少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに、前記ウェアラブルデバイスまたは前記コンピューティングデバイスとそれぞれ通信して、前記マップデータベースにアクセスさせるように構成されている、請求項10に記載のプログラム。
- 前記UIオブジェクトは、前記第1の制御可能デバイスに関する情報を提供するように構成されている、請求項10~12のいずれか1項に記載のプログラム。
- 前記識別データは、前記第1の制御可能デバイスに関連付けられたデバイス名、デバイスタイプ、または空間タイプの少なくとも1つを含む、請求項10~13のいずれか1項に記載のプログラム。
- 前記命令は、前記少なくとも1つのプロセッサに、
前記第1の制御可能デバイスに関連付けられたセットアップ手順の間に、前記第1の3Dマップを生成させ、
前記第2の制御可能デバイスに関連付けられたセットアップ手順中に、前記第2の3Dマップを生成させる命令を含む、請求項10~14のいずれか1項に記載のプログラム。 - 前記第1の3Dマップは、1人以上の他のユーザと共有されるように構成された仮想クラウドアンカーに対応する特徴点マップを含む、請求項10~15のいずれか1項に記載のプログラム。
- 制御可能デバイスの位置を特定するためのコンピューティングシステムであって、
視覚データを受信するように構成された画像センサと、
前記視覚データに基づいて識別データを生成するように構成されたオブジェクト認識モジュールと、
前記識別データを用いて、第1の3次元(3D)マップと第2の3Dマップとを含む複数の3Dマップを格納するマップデータベースから、前記第1の3Dマップを特定するように構成された位置特定器とを備え、前記第1の3Dマップは第1の制御可能デバイスに関連付けられ、前記第2の3Dマップは第2の制御可能デバイスに関連付けられ、前記位置特定器は、前記第1の3Dマップの視覚的位置決めデータに基づいて、物理空間における前記第1の制御可能デバイスの位置を取得するように構成され、前記コンピューティン
グシステムはさらに、
前記第1の制御可能デバイスの前記位置の閾値距離以内の位置で、ウェアラブルデバイスのディスプレイ上にUIオブジェクトをレンダリングするように構成されたユーザインターフェイス(UI)オブジェクトレンダラーを備える、コンピューティングシステム。 - 前記コンピューティングシステムは、前記ウェアラブルデバイスとコンピューティングデバイスとを備え、前記コンピューティングデバイスは、無線接続を介して前記ウェアラブルデバイスに通信可能に結合される、請求項17に記載のコンピューティングシステム。
- 前記マップデータベースは、前記コンピューティングシステムのメモリデバイスに格納されている、請求項17または18に記載のコンピューティングシステム。
- 前記マップデータベースは、サーバコンピュータに関連付けられたメモリデバイスに格納され、前記コンピューティングシステムはさらに、
前記サーバコンピュータにおいて前記第1の3Dマップを特定するために、前記識別データを前記サーバコンピュータに送信するように構成されたアンテナを備え、前記アンテナは、前記サーバコンピュータから前記視覚的位置決めデータを受信するように構成されている、請求項17または18に記載のコンピューティングシステム。 - 前記コンピューティングシステムは前記ウェアラブルデバイスを含み、前記ウェアラブルデバイスはスマートグラスを含む、請求項17~20のいずれか1項に記載のコンピューティングシステム。
- 請求項1~9のいずれか1項に記載の方法をプロセッサに実行させるためのプログラム。
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/US2020/070792 WO2022103420A1 (en) | 2020-11-16 | 2020-11-16 | Identifying a position of a controllable device using a wearable device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023549842A JP2023549842A (ja) | 2023-11-29 |
| JP7611385B2 true JP7611385B2 (ja) | 2025-01-09 |
Family
ID=73835850
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2023528595A Active JP7611385B2 (ja) | 2020-11-16 | 2020-11-16 | ウェアラブルデバイスを用いた制御可能デバイスの位置の特定 |
Country Status (7)
| Country | Link |
|---|---|
| US (1) | US12333759B2 (ja) |
| EP (1) | EP4244703A1 (ja) |
| JP (1) | JP7611385B2 (ja) |
| KR (1) | KR20230070308A (ja) |
| CN (1) | CN116324675B (ja) |
| TW (1) | TWI813068B (ja) |
| WO (1) | WO2022103420A1 (ja) |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20240020374A1 (en) * | 2022-07-15 | 2024-01-18 | Hewlett-Packard Development Company, L.P. | Actions based on locations in environments |
| WO2024112185A1 (ko) * | 2022-11-27 | 2024-05-30 | 삼성전자주식회사 | 외부 객체에 대응하는 시각적 객체의 표시를 제어하기 위한 웨어러블 장치 및 그 방법 |
| KR102765161B1 (ko) * | 2023-11-28 | 2025-02-11 | 주식회사 딥파인 | 사용자 자세 추정 및 ai 기반 신뢰도 분석을 적용한 이미지 기반 vps 기술을 활용한 3차원 맵 기반 서비스 제공 방법 및 시스템 |
| WO2025244289A1 (ko) * | 2024-05-23 | 2025-11-27 | 삼성전자주식회사 | 사용자 인터페이스를 표시하기 위한 웨어러블 장치, 방법, 및 비일시적 컴퓨터 판독 가능 저장 매체 |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011164666A (ja) | 2010-02-04 | 2011-08-25 | Sony Corp | 通信制御装置、通信制御方法及びプログラム |
| JP2015213212A (ja) | 2014-05-01 | 2015-11-26 | セイコーエプソン株式会社 | 頭部装着型表示装置、制御システム、および、頭部装着型表示装置の制御方法 |
| JP2016533565A (ja) | 2013-06-18 | 2016-10-27 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 仮想オブジェクトの方向付け及び可視化 |
| US20180157398A1 (en) | 2016-12-05 | 2018-06-07 | Magic Leap, Inc. | Virtual user input controls in a mixed reality environment |
| JP2020098451A (ja) | 2018-12-18 | 2020-06-25 | 川崎重工業株式会社 | 情報投影システム、制御装置、及び情報投影方法 |
| JP2020135679A (ja) | 2019-02-25 | 2020-08-31 | 富士通株式会社 | データセット作成方法、データセット作成装置、及びデータセット作成プログラム |
Family Cites Families (34)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004166193A (ja) | 2002-09-27 | 2004-06-10 | Matsushita Electric Ind Co Ltd | リモコン装置 |
| US20150070319A1 (en) | 2013-09-09 | 2015-03-12 | Timothy R. Pryor | Human interfaces for homes, medical devices and vehicles |
| JP2008299619A (ja) * | 2007-05-31 | 2008-12-11 | Toshiba Corp | モバイル機器、データ転送方法、およびデータ転送システム |
| US8077157B2 (en) * | 2008-03-31 | 2011-12-13 | Intel Corporation | Device, system, and method of wireless transfer of files |
| US8150384B2 (en) * | 2010-06-16 | 2012-04-03 | Qualcomm Incorporated | Methods and apparatuses for gesture based remote control |
| US9477302B2 (en) | 2012-08-10 | 2016-10-25 | Google Inc. | System and method for programing devices within world space volumes |
| US11334037B2 (en) | 2013-03-01 | 2022-05-17 | Comcast Cable Communications, Llc | Systems and methods for controlling devices |
| IN2014DE00899A (ja) * | 2014-03-28 | 2015-10-02 | Samsung Electronics Co Ltd | |
| KR102332752B1 (ko) * | 2014-11-24 | 2021-11-30 | 삼성전자주식회사 | 지도 서비스를 제공하는 전자 장치 및 방법 |
| CN104699244B (zh) | 2015-02-26 | 2018-07-06 | 小米科技有限责任公司 | 智能设备的操控方法及装置 |
| US9927892B2 (en) | 2015-03-27 | 2018-03-27 | International Business Machines Corporation | Multiple touch selection control |
| US9880695B2 (en) | 2015-05-01 | 2018-01-30 | International Business Machines Corporation | Changing a controlling device interface based on device orientation |
| US9536421B2 (en) | 2015-06-02 | 2017-01-03 | Qualcomm Technologies International, Ltd. | Intuitive way to point, access and control appliances and other objects in building interiors |
| US10347118B2 (en) | 2015-06-04 | 2019-07-09 | Griffin Innovation | Device and method for controlling a plurality of targeted devices |
| EP3176766B1 (en) | 2015-12-03 | 2019-07-17 | Sony Mobile Communications, Inc. | Remote controlling a plurality of controllable devices |
| US10295972B2 (en) * | 2016-04-29 | 2019-05-21 | Brain Corporation | Systems and methods to operate controllable devices with gestures and/or noises |
| WO2017201162A1 (en) | 2016-05-17 | 2017-11-23 | Google Llc | Virtual/augmented reality input device |
| US9972134B2 (en) | 2016-06-30 | 2018-05-15 | Microsoft Technology Licensing, Llc | Adaptive smoothing based on user focus on a target object |
| CN106774848B (zh) | 2016-11-24 | 2019-10-18 | 京东方科技集团股份有限公司 | 遥控设备及遥控系统 |
| US10592000B2 (en) | 2017-03-22 | 2020-03-17 | Daqri, Llc | Gesture-based GUI for computing devices |
| US10466953B2 (en) * | 2017-03-30 | 2019-11-05 | Microsoft Technology Licensing, Llc | Sharing neighboring map data across devices |
| TWI628631B (zh) | 2017-05-08 | 2018-07-01 | 和碩聯合科技股份有限公司 | 遙控系統、遙控方法與閘道器 |
| WO2019100108A1 (en) | 2017-11-21 | 2019-05-31 | Immersive Robotics Pty Ltd | Image compression for digital reality |
| WO2019118679A1 (en) * | 2017-12-13 | 2019-06-20 | Aurelius, Inc. | Systems, devices, and methods for augmented reality |
| US11126846B2 (en) * | 2018-01-18 | 2021-09-21 | Ebay Inc. | Augmented reality, computer vision, and digital ticketing systems |
| US10620721B2 (en) * | 2018-01-29 | 2020-04-14 | Google Llc | Position-based location indication and device control |
| GB2572786B (en) * | 2018-04-10 | 2022-03-09 | Advanced Risc Mach Ltd | Image processing for augmented reality |
| WO2019217443A1 (en) | 2018-05-07 | 2019-11-14 | Google Llc | Systems and methods for anchoring virtual objects to physical locations |
| US11528582B2 (en) * | 2018-05-29 | 2022-12-13 | Apprentice FS, Inc. | Assisting execution of manual protocols at production equipment |
| US10701661B1 (en) | 2019-04-02 | 2020-06-30 | Google Llc | Location determination for device control and configuration |
| US11082249B2 (en) * | 2019-04-02 | 2021-08-03 | Google Llc | Location determination for device control and configuration |
| TWM584455U (zh) | 2019-05-10 | 2019-10-01 | 黃誌聲 | 穿戴式電子裝置 |
| CN110413719A (zh) | 2019-07-25 | 2019-11-05 | Oppo广东移动通信有限公司 | 信息处理方法及装置、设备、存储介质 |
| US20220083631A1 (en) * | 2020-09-15 | 2022-03-17 | Facebook Technologies, Llc | Systems and methods for facilitating access to distributed reconstructed 3d maps |
-
2020
- 2020-11-16 CN CN202080106474.8A patent/CN116324675B/zh active Active
- 2020-11-16 KR KR1020237013866A patent/KR20230070308A/ko active Pending
- 2020-11-16 WO PCT/US2020/070792 patent/WO2022103420A1/en not_active Ceased
- 2020-11-16 JP JP2023528595A patent/JP7611385B2/ja active Active
- 2020-11-16 US US18/246,464 patent/US12333759B2/en active Active
- 2020-11-16 EP EP20824876.5A patent/EP4244703A1/en active Pending
-
2021
- 2021-11-15 TW TW110142337A patent/TWI813068B/zh active
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011164666A (ja) | 2010-02-04 | 2011-08-25 | Sony Corp | 通信制御装置、通信制御方法及びプログラム |
| JP2016533565A (ja) | 2013-06-18 | 2016-10-27 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 仮想オブジェクトの方向付け及び可視化 |
| JP2015213212A (ja) | 2014-05-01 | 2015-11-26 | セイコーエプソン株式会社 | 頭部装着型表示装置、制御システム、および、頭部装着型表示装置の制御方法 |
| US20180157398A1 (en) | 2016-12-05 | 2018-06-07 | Magic Leap, Inc. | Virtual user input controls in a mixed reality environment |
| JP2020513618A (ja) | 2016-12-05 | 2020-05-14 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 複合現実環境における仮想ユーザ入力制御 |
| JP2020098451A (ja) | 2018-12-18 | 2020-06-25 | 川崎重工業株式会社 | 情報投影システム、制御装置、及び情報投影方法 |
| JP2020135679A (ja) | 2019-02-25 | 2020-08-31 | 富士通株式会社 | データセット作成方法、データセット作成装置、及びデータセット作成プログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20230070308A (ko) | 2023-05-22 |
| TW202221467A (zh) | 2022-06-01 |
| US12333759B2 (en) | 2025-06-17 |
| JP2023549842A (ja) | 2023-11-29 |
| WO2022103420A1 (en) | 2022-05-19 |
| TWI813068B (zh) | 2023-08-21 |
| EP4244703A1 (en) | 2023-09-20 |
| CN116324675A (zh) | 2023-06-23 |
| US20230360264A1 (en) | 2023-11-09 |
| CN116324675B (zh) | 2025-07-15 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10922889B2 (en) | Directing user attention | |
| US10007349B2 (en) | Multiple sensor gesture recognition | |
| US10198874B2 (en) | Methods and apparatus to align components in virtual reality environments | |
| JP7611385B2 (ja) | ウェアラブルデバイスを用いた制御可能デバイスの位置の特定 | |
| KR20230025914A (ko) | 음성 및 텍스트 캡션들을 사용한 증강 현실 경험들 | |
| US11558711B2 (en) | Precision 6-DoF tracking for wearable devices | |
| KR20230016209A (ko) | 포지션 추적을 사용한 인터랙티브 증강 현실 경험들 | |
| CN108697935B (zh) | 虚拟环境中的化身 | |
| US12014466B2 (en) | Triggering a collaborative augmented reality environment using an ultrasound signal | |
| US20220375172A1 (en) | Contextual visual and voice search from electronic eyewear device | |
| CN119421763A (zh) | 使用增强现实进行机器人任务学习 | |
| KR102736100B1 (ko) | 움직이는 객체들의 레이턴시를 최소화하기 위한 늦은 워핑 | |
| EP4244744B1 (en) | Triggering a collaborative augmented reality environment using an ultrasound signal | |
| JP7669492B2 (ja) | 認証におけるクラウドアンカーの活用 | |
| CN119816801A (zh) | 用于创建交互式ar体验的创作工具 | |
| CN119816871A (zh) | 用于创建交互式ar故事的交互记录工具 | |
| HK1183134A (en) | Multiple sensor gesture recognition |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231114 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231114 |
|
| TRDD | Decision of grant or rejection written | ||
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20241030 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20241112 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20241212 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20241223 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7611385 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |