JP7703181B2 - 情報提供システム、方法、及びプログラム - Google Patents
情報提供システム、方法、及びプログラム Download PDFInfo
- Publication number
- JP7703181B2 JP7703181B2 JP2021131009A JP2021131009A JP7703181B2 JP 7703181 B2 JP7703181 B2 JP 7703181B2 JP 2021131009 A JP2021131009 A JP 2021131009A JP 2021131009 A JP2021131009 A JP 2021131009A JP 7703181 B2 JP7703181 B2 JP 7703181B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- unit
- data
- mobile terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R27/00—Public address systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Circuit For Audible Band Transducer (AREA)
Description
本開示の一形態によれば、情報提供システムが提供される。この情報提供システムは、複数のユーザがそれぞれ携帯する携帯端末と、少なくとも1つのサーバと、を含み、音声により情報を提供する。前記携帯端末はそれぞれ、ユーザがいる位置を示す位置情報と、前記ユーザの顔が向いている方向である視線方向を示す視線方向情報と、を取得する位置方向取得部と、前記ユーザの視認対象となり得る複数の対象それぞれの位置を表す対象位置情報と、それぞれの前記対象を説明する説明情報と、を予め記憶する記憶部と、前記ユーザの前記位置情報及び前記視線方向情報と、前記対象位置情報と、から、前記ユーザが視認している前記対象を推定し、前記ユーザが視認していると推定した前記対象を識別する情報と、推定した日付及び時刻を示す情報と、前記ユーザを識別する情報と、を含む視認データを前記サーバに供給する推定部と、推定された前記対象についての前記説明情報を前記音声により出力する情報出力部と、を備える。前記サーバは、前記推定部から供給された前記視認データを蓄積するデータ蓄積部と、前記ユーザの属性を表す属性データと前記視認データとから、前記ユーザの属性の分布を示す統計データを前記対象毎に生成し、前記統計データを出力する統計データ生成部と、を備える。
本開示の形態は、情報提供システム以外の種々の形態で実現することも可能である。例えば、ユーザにより携帯されるコンピュータが音声により情報を提供する方法、その方法を実現するコンピュータプログラムで実現することができる。
この形態によれば、ユーザが視認している対象を推定してから、対象の説明情報をユーザに提供する。よって、ユーザが興味を持っていると考えられる対象について、音声による情報を提供することができる。
(2)上記形態の情報提供システムにおいて、音声は、ユーザの頭部に装着される音声出力装置から出力されてもよい。記憶部は、対象それぞれに対応付けられた音源の仮想的な位置を表す情報を予め記憶していてもよい。情報出力部は、ユーザの現在位置から見た音源の仮想的な位置に応じて、説明情報を表す音声に立体音響処理を施した音声を出力してもよい。
この形態によれば、ユーザに臨場感を感じさせながら、視認している対象についての情報をユーザに提供することができる。
(3)上記形態の情報提供システムにおいて、記憶部は、ユーザの眼が見ることができる範囲を予め設定した視野の設定情報を記憶していてもよい。推定部は、予め設定された視野の範囲内において、ユーザが視認している対象を推定してもよい。
このような形態によれば、ユーザが顔の真正面を注視している場合でなくても、ユーザが視認している対象を推定できる。ユーザは、視認対象と必ずしも正対している必要はない。ユーザは、視認対象と正対していない場合であっても、ユーザは、視認対象について音声による情報提供を受けることができる。
(4)上記形態の情報提供システムにおいて、ユーザが視認している対象が変わってから予め定められた時間が経過したことを推定部が検出すると、情報出力部は、ユーザが直前に視認していた対象の説明情報についての音声による出力を停止してもよい。
このような形態によれば、ユーザにとって不要な情報を、ユーザに提供しない。よって、効率的にユーザに情報を提供できる。
(5)上記形態の情報提供システムは、複数のユーザがそれぞれ携帯する携帯端末と、少なくとも1つのサーバと、を含んでいてもよい。携帯端末はそれぞれ、位置方向取得部と、記憶部と、推定部と、情報出力部と、を備える。推定部は、ユーザが視認していると推定した対象を識別する情報と、推定した日付及び時刻を示す情報と、ユーザを識別する情報と、を含む視認データをサーバに供給してもよい。サーバは、推定部から供給された視認データを蓄積するデータ蓄積部と、ユーザの属性を表す属性データと視認データとから、ユーザの属性の分布を示す統計データを対象毎に生成し、統計データを出力する統計データ生成部と、を備えていてもよい。
このような形態によれば、情報の提供者側は、視認の対象毎の統計データを使用して、ユーザに対する物品及びサービスの販売を促進する企画を考えることができる。
本開示の形態は、情報提供システム以外の種々の形態で実現することも可能である。例えば、ユーザにより携帯されるコンピュータが音声により情報を提供する方法、その方法を実現するコンピュータプログラムで実現することができる。
図1は、実施形態に係る情報提供システム1000の構成を示す図である。本実施形態において、情報提供システム1000が、観光地を回るユーザに、史跡、寺社等の観光資源、観光地における商品等に関する情報を提供する例を説明する。情報提供システム1000は、携帯端末100と、音声出力装置200と、サーバ300と、を含む。
B1.他の実施形態1
実施形態においては、ユーザの視線方向にある対象を、ユーザが視認している対象であると推定した。あるいは、ユーザの視認対象の推定を下記のように行ってもよい。視野の設定情報を記憶部120に予め格納しておく。視野の設定情報は、有効視野を予め設定した情報である。説明の簡便化のため、両眼視における視野の範囲が設定されているとする。設定された視野は、例えば、中心視野だけを含んでもよい。あるいは、設定された視野は、中心視野と、有効視野とを含んでもよい。また、あるいは、設定された視野は、中心視野と、有効視野と、周辺視野の一部の範囲とを含んでもよい。この場合、例えば、水平方向における視野を、固視点を中心として両側にそれぞれ30度の範囲と設定してもよい。垂直方向における視野を、固視点を中心から上下にそれぞれ30度の範囲と設定してもよい。
実施形態においては、ユーザが視認している対象を推定すると説明情報の音声の出力を開始した。音声の出力している間に、ユーザの視認対象が変わることがある。このため、携帯端末100は下記のような構成を備えていてもよい。
実施形態では、屋内において、位置方向取得部110が、複数のWi-Fi(登録商標)基地局から受信した電波強度に基づいて、携帯端末100の現在位置を示す情報を取得する例を説明した。あるいは、屋内における携帯端末100の位置情報の取得を次のように行ってもよい。携帯端末100は、地磁気センサを備えているものとする。この場合、位置方向取得部110は、地磁気センサを使用して、携帯端末100の位置情報を取得してもよい。
実施形態においては、ユーザが視認していると推定した対象の説明情報を音声により出力する例を説明した。さらに、携帯端末100は、次のような機能を備えていてもよい。推定部130は、位置方向取得部110が取得した携帯端末100の位置情報から、ユーザが予め設定された領域にいるか否かを判定する。情報出力部140は、ユーザがいる場所について予め設定された説明情報を音声により出力する。
推定部130は、さらに、ユーザの購入履歴を示す情報を取得するように構成を備えてもよい。例えば、ユーザが、商品又はサービスの対価を、携帯端末100を使用して、電子マネーにより支払ったとする。あるいは、ユーザが、商品又はサービスの対価を、携帯端末100を使用して、クレジットカードにより支払ったとする。この場合、携帯端末100の推定部130は、ユーザを識別する情報、ユーザが購入した商品を識別する情報、商品が購入された日付及び時刻、購入された個数、購入金額を含む購入履歴データを、サーバ300に送信してもよい。サーバ300のデータ蓄積部310は、携帯端末100から供給されたデータを蓄積する。
推定部130は、ユーザが視認している対象を2つ以上推定してもよい。例えば、ユーザが並べて陳列されている2つの商品を視認していることがある。この場合、情報出力部140は、一方の商品の説明情報を音声出力した後、他方の商品の説明情報を音声出力するようにしてもよい。
実施形態においては、携帯端末100がスマートフォンである例を説明した。しかしながら、携帯端末100は、タブレット端末、あるいは、スマートウォッチであってもよい。
Claims (6)
- 複数のユーザがそれぞれ携帯する携帯端末と、少なくとも1つのサーバと、を含み、音声により情報を提供する情報提供システムであって、
前記携帯端末はそれぞれ、
ユーザがいる位置を示す位置情報と、前記ユーザの顔が向いている方向である視線方向を示す視線方向情報と、を取得する位置方向取得部と、
前記ユーザの視認対象となり得る複数の対象それぞれの位置を表す対象位置情報と、それぞれの前記対象を説明する説明情報と、を予め記憶する記憶部と、
前記ユーザの前記位置情報及び前記視線方向情報と、前記対象位置情報と、から、前記ユーザが視認している前記対象を推定し、前記ユーザが視認していると推定した前記対象を識別する情報と、推定した日付及び時刻を示す情報と、前記ユーザを識別する情報と、を含む視認データを前記サーバに供給する推定部と、
推定された前記対象についての前記説明情報を前記音声により出力する情報出力部と、
を備え、
前記サーバは、
前記推定部から供給された前記視認データを蓄積するデータ蓄積部と、
前記ユーザの属性を表す属性データと前記視認データとから、前記ユーザの属性の分布を示す統計データを前記対象毎に生成し、前記統計データを出力する統計データ生成部と、
を備える情報提供システム。 - 請求項1に記載の情報提供システムであって、
前記音声は、前記ユーザの頭部に装着される音声出力装置から出力され、
前記記憶部は、前記対象それぞれに対応付けられた音源の仮想的な位置を表す情報を予め記憶しており、
前記情報出力部は、前記ユーザの現在位置から見た前記音源の前記仮想的な位置に応じて、前記説明情報を表す前記音声に立体音響処理を施した音声を出力する、
情報提供システム。 - 請求項1または2に記載の情報提供システムであって、
前記記憶部は、前記ユーザの眼が見ることができる範囲を予め設定した視野の設定情報を記憶しており、
前記推定部は、
予め設定された前記視野の範囲内において、前記ユーザが視認している前記対象を推定する、
情報提供システム。 - 請求項1から3のいずれか1項に記載の情報提供システムであって、
前記ユーザが視認している前記対象が変わってから予め定められた時間が経過したことを前記推定部が検出すると、前記情報出力部は、前記ユーザが直前に視認していた前記対象の前記説明情報についての前記音声による出力を停止する、
情報提供システム。 - 音声により情報を提供する方法であって、
ユーザにより携帯されるコンピュータが、前記ユーザがいる位置を示す位置情報と、前記ユーザの顔が向いている方向である視線方向を示す視線方向情報と、を取得するステップと、
前記コンピュータが、前記ユーザの前記位置情報及び前記視線方向情報と、前記ユーザの視認対象となり得る複数の対象それぞれについて予め設定された対象位置情報と、から、前記ユーザが視認している前記対象を推定するステップと、
前記コンピュータが、推定した前記対象についての説明情報を前記音声により出力するステップと、
前記コンピュータが、前記ユーザが視認していると推定した前記対象を識別する情報と、推定した日付及び時刻を示す情報と、前記ユーザを識別する情報と、を含む視認データをサーバに供給するステップと、
前記サーバが、前記視認データを蓄積するステップと、
前記サーバが、前記ユーザの属性を表す属性データと前記視認データとから、前記ユーザの属性の分布を示す統計データを前記対象毎に生成し、前記統計データを出力するステップと、
を含む方法。 - 複数のユーザがそれぞれ携帯する携帯端末と、少なくとも1つのサーバを含み、音声により情報を提供する情報提供システムにおいて実行されるプログラムであって、
前記携帯端末が、前記ユーザがいる位置を示す位置情報と、前記ユーザの顔が向いている方向である視線方向を示す視線方向情報と、を取得する機能と、
前記携帯端末が、前記ユーザの前記位置情報及び前記視線方向情報と、前記ユーザの視認対象となり得る複数の対象それぞれについて予め設定された対象位置情報と、から、前記ユーザが視認している前記対象を推定する機能と、
前記携帯端末が、推定した前記対象についての説明情報を音声により出力する機能と、
前記携帯端末が、前記ユーザが視認していると推定した前記対象を識別する情報と、推定した日付及び時刻を示す情報と、前記ユーザを識別する情報と、を含む視認データを前記サーバに送信する機能と、
前記サーバが、前記視認データを蓄積する機能と、
前記サーバが、前記ユーザの属性を表す属性データと前記視認データとから、前記ユーザの属性の分布を示す統計データを前記対象毎に生成し、前記統計データを出力する機能と、
を実現させるプログラム。
Priority Applications (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021131009A JP7703181B2 (ja) | 2021-08-11 | 2021-08-11 | 情報提供システム、方法、及びプログラム |
| DE112022003898.5T DE112022003898T5 (de) | 2021-08-11 | 2022-08-08 | Informationenbereitstellungssystem, Verfahren und Programm |
| US18/291,782 US20240371355A1 (en) | 2021-08-11 | 2022-08-08 | Information providing system, method, and program |
| CN202280055214.1A CN117859347A (zh) | 2021-08-11 | 2022-08-08 | 信息提供系统、方法、以及程序 |
| PCT/JP2022/030305 WO2023017808A1 (ja) | 2021-08-11 | 2022-08-08 | 情報提供システム、方法、及びプログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021131009A JP7703181B2 (ja) | 2021-08-11 | 2021-08-11 | 情報提供システム、方法、及びプログラム |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2023025724A JP2023025724A (ja) | 2023-02-24 |
| JP2023025724A5 JP2023025724A5 (ja) | 2024-08-05 |
| JP7703181B2 true JP7703181B2 (ja) | 2025-07-07 |
Family
ID=85200645
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021131009A Active JP7703181B2 (ja) | 2021-08-11 | 2021-08-11 | 情報提供システム、方法、及びプログラム |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US20240371355A1 (ja) |
| JP (1) | JP7703181B2 (ja) |
| CN (1) | CN117859347A (ja) |
| DE (1) | DE112022003898T5 (ja) |
| WO (1) | WO2023017808A1 (ja) |
Families Citing this family (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019118619A (ja) * | 2017-12-29 | 2019-07-22 | 株式会社三洋物産 | 遊技機 |
| JP2019118625A (ja) * | 2017-12-29 | 2019-07-22 | 株式会社三洋物産 | 遊技機 |
| JP2019118620A (ja) * | 2017-12-29 | 2019-07-22 | 株式会社三洋物産 | 遊技機 |
| WO2025229742A1 (ja) * | 2024-05-01 | 2025-11-06 | 株式会社ジェイテクト | 情報分析システム |
| WO2025229741A1 (ja) * | 2024-05-01 | 2025-11-06 | 株式会社ジェイテクト | 情報提供システム |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011197477A (ja) | 2010-03-19 | 2011-10-06 | Sony Corp | 情報処理装置、情報処理方法、およびプログラム |
| JP2015079310A (ja) | 2013-10-15 | 2015-04-23 | 富士通株式会社 | 音響装置、音響システム、音響処理方法及び音響処理プログラム |
| JP2016021169A (ja) | 2014-07-15 | 2016-02-04 | Kddi株式会社 | 仮想音源を提供情報位置に配置する携帯端末、音声提示プログラム及び音声提示方法 |
| WO2017168543A1 (ja) | 2016-03-29 | 2017-10-05 | 三菱電機株式会社 | 音声案内装置及び音声案内方法 |
| WO2018190099A1 (ja) | 2017-04-10 | 2018-10-18 | ヤマハ株式会社 | 音声提供装置、音声提供方法及びプログラム |
Family Cites Families (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH08160897A (ja) | 1994-12-09 | 1996-06-21 | Taiyo Yuden Co Ltd | 商品紹介装置 |
| JPH08221024A (ja) | 1995-02-08 | 1996-08-30 | Shoichiro Suzuki | 商品アピール方法およびその装置 |
| US6507802B1 (en) * | 2000-02-16 | 2003-01-14 | Hrl Laboratories, Llc | Mobile user collaborator discovery method and apparatus |
| US8077915B2 (en) * | 2007-10-12 | 2011-12-13 | Sony Ericsson Mobile Communications Ab | Obtaining information by tracking a user |
| US9024844B2 (en) * | 2012-01-25 | 2015-05-05 | Microsoft Technology Licensing, Llc | Recognition of image on external display |
| US9317113B1 (en) * | 2012-05-31 | 2016-04-19 | Amazon Technologies, Inc. | Gaze assisted object recognition |
| US8810604B2 (en) * | 2012-06-19 | 2014-08-19 | Mastercard International Incorporated | System and method for activating, actioning and providing feedback on interactive objects within line of sight |
| JP5949234B2 (ja) * | 2012-07-06 | 2016-07-06 | ソニー株式会社 | サーバ、クライアント端末、およびプログラム |
| KR101515484B1 (ko) * | 2013-05-31 | 2015-04-29 | 전자부품연구원 | 증강현실정보 제공 장치 및 그 방법 |
| JP6851133B2 (ja) * | 2014-01-03 | 2021-03-31 | ハーマン インターナショナル インダストリーズ インコーポレイテッド | ユーザに方向付けられた個人情報アシスタント |
| US20150379770A1 (en) * | 2014-06-27 | 2015-12-31 | David C. Haley, JR. | Digital action in response to object interaction |
| JP6326573B2 (ja) * | 2016-11-07 | 2018-05-23 | 株式会社ネイン | 多機能イヤホンによる自律型アシスタントシステム |
| US20190377538A1 (en) * | 2018-06-08 | 2019-12-12 | Curious Company, LLC | Information Presentation Through Ambient Sounds |
| US10970031B2 (en) * | 2018-09-25 | 2021-04-06 | Disney Enterprises, Inc. | Systems and methods configured to provide gaze-based audio in interactive experiences |
| US10782858B2 (en) * | 2019-02-12 | 2020-09-22 | Lenovo (Singapore) Pte. Ltd. | Extended reality information for identified objects |
| JP7587814B2 (ja) | 2019-11-08 | 2024-11-21 | 株式会社杉孝グループホールディングス | 仮設床材及びそのつかみ金具 |
| JP7768149B2 (ja) * | 2021-01-21 | 2025-11-12 | ソニーグループ株式会社 | 情報処理装置及び情報処理方法 |
-
2021
- 2021-08-11 JP JP2021131009A patent/JP7703181B2/ja active Active
-
2022
- 2022-08-08 WO PCT/JP2022/030305 patent/WO2023017808A1/ja not_active Ceased
- 2022-08-08 CN CN202280055214.1A patent/CN117859347A/zh active Pending
- 2022-08-08 DE DE112022003898.5T patent/DE112022003898T5/de active Pending
- 2022-08-08 US US18/291,782 patent/US20240371355A1/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011197477A (ja) | 2010-03-19 | 2011-10-06 | Sony Corp | 情報処理装置、情報処理方法、およびプログラム |
| JP2015079310A (ja) | 2013-10-15 | 2015-04-23 | 富士通株式会社 | 音響装置、音響システム、音響処理方法及び音響処理プログラム |
| JP2016021169A (ja) | 2014-07-15 | 2016-02-04 | Kddi株式会社 | 仮想音源を提供情報位置に配置する携帯端末、音声提示プログラム及び音声提示方法 |
| WO2017168543A1 (ja) | 2016-03-29 | 2017-10-05 | 三菱電機株式会社 | 音声案内装置及び音声案内方法 |
| WO2018190099A1 (ja) | 2017-04-10 | 2018-10-18 | ヤマハ株式会社 | 音声提供装置、音声提供方法及びプログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2023017808A1 (ja) | 2023-02-16 |
| JP2023025724A (ja) | 2023-02-24 |
| US20240371355A1 (en) | 2024-11-07 |
| CN117859347A (zh) | 2024-04-09 |
| DE112022003898T5 (de) | 2024-05-29 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7703181B2 (ja) | 情報提供システム、方法、及びプログラム | |
| US20160196603A1 (en) | Product augmentation and advertising in see through displays | |
| JP6263098B2 (ja) | 仮想音源を提供情報位置に配置する携帯端末、音声提示プログラム及び音声提示方法 | |
| JP2021121923A (ja) | バイオメトリックデータを追跡するための拡張現実システムおよび方法 | |
| US10257129B2 (en) | Information processing apparatus, information processing method, program, recording medium, and information processing system for selecting an information poster and displaying a view image of the selected information poster | |
| US9774978B2 (en) | Position determination apparatus, audio apparatus, position determination method, and program | |
| JP2018518778A (ja) | 購入のための拡張現実デバイス、システムおよび方法 | |
| WO2017094306A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
| US20200160378A1 (en) | Content output system, terminal device, content output method, and recording medium | |
| JP2015005175A (ja) | 情報処理装置、通信システムおよび情報処理方法 | |
| US10645525B2 (en) | Sharing geo-located information | |
| JP2019165295A (ja) | 情報処理装置 | |
| JP7176792B1 (ja) | 情報処理システム及び情報処理方法 | |
| WO2019054086A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
| CN116610825A (zh) | 信息提供系统、方法、以及存储介质 | |
| KR101678137B1 (ko) | 위치 공유 서비스 제공 방법 및 컴퓨터 프로그램 | |
| US20170213367A1 (en) | User data processing method, and device for displaying data acquired from a wearable device | |
| US20220163338A1 (en) | Information processing apparatus and non-transitory computer readable medium | |
| JP6463529B1 (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
| US20240013256A1 (en) | Information providing apparatus, information providing system, information providing method, and non-transitory computer readable medium | |
| US20240029109A1 (en) | Information providing apparatus, information providing system, information providing method, and non-transitory computer readable medium | |
| JP7501652B2 (ja) | 情報処理装置、制御方法、制御プログラム、及び情報処理システム | |
| US12160714B2 (en) | Sound processing apparatus, sound processing system, sound processing method, and non-transitory computer readable medium storing program | |
| CN119826815A (zh) | 头戴式设备的导航方法、装置、介质及头戴式设备 | |
| JP5211955B2 (ja) | 端末装置、ヘッドマウントディスプレイ装置及び配信システム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240726 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240726 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250318 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250516 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250603 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250617 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7703181 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |