[go: up one dir, main page]

JP7703181B2 - 情報提供システム、方法、及びプログラム - Google Patents

情報提供システム、方法、及びプログラム Download PDF

Info

Publication number
JP7703181B2
JP7703181B2 JP2021131009A JP2021131009A JP7703181B2 JP 7703181 B2 JP7703181 B2 JP 7703181B2 JP 2021131009 A JP2021131009 A JP 2021131009A JP 2021131009 A JP2021131009 A JP 2021131009A JP 7703181 B2 JP7703181 B2 JP 7703181B2
Authority
JP
Japan
Prior art keywords
information
user
unit
data
mobile terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021131009A
Other languages
English (en)
Other versions
JP2023025724A (ja
JP2023025724A5 (ja
Inventor
弥来 梅澤
由之 柴田
聡 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Connectome Design Inc
Original Assignee
Connectome Design Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Connectome Design Inc filed Critical Connectome Design Inc
Priority to JP2021131009A priority Critical patent/JP7703181B2/ja
Priority to DE112022003898.5T priority patent/DE112022003898T5/de
Priority to US18/291,782 priority patent/US20240371355A1/en
Priority to CN202280055214.1A priority patent/CN117859347A/zh
Priority to PCT/JP2022/030305 priority patent/WO2023017808A1/ja
Publication of JP2023025724A publication Critical patent/JP2023025724A/ja
Publication of JP2023025724A5 publication Critical patent/JP2023025724A5/ja
Application granted granted Critical
Publication of JP7703181B2 publication Critical patent/JP7703181B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R27/00Public address systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Circuit For Audible Band Transducer (AREA)

Description

本開示は、情報提供システム、方法、及びプログラムに関する。
商品を説明するための音声を装置が出力することにより、陳列した商品について顧客に説明が行われることがある。
特許文献1には、CDプレーヤとスピーカとを備える商品陳列棚について記載されている。この商品陳列棚においては、陳列された複数の商品それぞれの説明が録音されたCDがCDプレーヤにより再生され、再生された音声がスピーカから出力される。
特許文献2には、商品の近傍に、商品の説明内容のデータを保存した記憶媒体装置を配置する技術が記載されている。この記憶媒体装置は、所定時間毎に説明内容のデータを音声信号に変換して、変換した音声信号を、記憶媒体装置が備えるスピーカから出力する。
特開平8-160897号公報 特開平8-221024号公報
特許文献1に記載されている陳列棚においては、複数の商品の説明が予め定められた順番で再生される。この場合、複数の商品のうち顧客が興味を持っている商品の説明を、顧客がすぐ聞くことができない場合がある。特許文献2に記載されている記憶媒体装置は、所定期間毎に商品を説明する音声を出力する。この技術においては、多くの場合、顧客が、商品の近くに移動してきたときに、すでに音声の出力が開始されている商品の説明を途中から聞くことになる。このように、特許文献1、特許文献2に係る構成においては、顧客を考慮して、音声による情報を提供できないという問題があった。
本開示は、以下の形態として実現することが可能である。
本開示の一形態によれば、情報提供システムが提供される。この情報提供システムは、複数のユーザがそれぞれ携帯する携帯端末と、少なくとも1つのサーバと、を含み、音声により情報を提供する。前記携帯端末はそれぞれ、ユーザがいる位置を示す位置情報と、前記ユーザの顔が向いている方向である視線方向を示す視線方向情報と、を取得する位置方向取得部と、前記ユーザの視認対象となり得る複数の対象それぞれの位置を表す対象位置情報と、それぞれの前記対象を説明する説明情報と、を予め記憶する記憶部と、前記ユーザの前記位置情報及び前記視線方向情報と、前記対象位置情報と、から、前記ユーザが視認している前記対象を推定し、前記ユーザが視認していると推定した前記対象を識別する情報と、推定した日付及び時刻を示す情報と、前記ユーザを識別する情報と、を含む視認データを前記サーバに供給する推定部と、推定された前記対象についての前記説明情報を前記音声により出力する情報出力部と、を備える。前記サーバは、前記推定部から供給された前記視認データを蓄積するデータ蓄積部と、前記ユーザの属性を表す属性データと前記視認データとから、前記ユーザの属性の分布を示す統計データを前記対象毎に生成し、前記統計データを出力する統計データ生成部と、を備える。
本開示の形態は、情報提供システム以外の種々の形態で実現することも可能である。例えば、ユーザにより携帯されるコンピュータが音声により情報を提供する方法、その方法を実現するコンピュータプログラムで実現することができる。
(1)本開示の一形態によれば、情報提供システムが提供される。この情報提供システムは、音声により情報を提供する。この情報提供システムは、ユーザがいる位置を示す位置情報と、ユーザの顔が向いている方向である視線方向を示す視線方向情報と、を取得する位置方向取得部と、ユーザの視認対象となり得る複数の対象それぞれの位置を表す対象位置情報と、それぞれの対象を説明する説明情報と、を予め記憶する記憶部と、ユーザの位置情報及び視線方向情報と、対象位置情報と、から、ユーザが視認している対象を推定する推定部と、推定された対象についての説明情報を音声により出力する情報出力部と、を備える。
この形態によれば、ユーザが視認している対象を推定してから、対象の説明情報をユーザに提供する。よって、ユーザが興味を持っていると考えられる対象について、音声による情報を提供することができる。
(2)上記形態の情報提供システムにおいて、音声は、ユーザの頭部に装着される音声出力装置から出力されてもよい。記憶部は、対象それぞれに対応付けられた音源の仮想的な位置を表す情報を予め記憶していてもよい。情報出力部は、ユーザの現在位置から見た音源の仮想的な位置に応じて、説明情報を表す音声に立体音響処理を施した音声を出力してもよい。
この形態によれば、ユーザに臨場感を感じさせながら、視認している対象についての情報をユーザに提供することができる。
(3)上記形態の情報提供システムにおいて、記憶部は、ユーザの眼が見ることができる範囲を予め設定した視野の設定情報を記憶していてもよい。推定部は、予め設定された視野の範囲内において、ユーザが視認している対象を推定してもよい。
このような形態によれば、ユーザが顔の真正面を注視している場合でなくても、ユーザが視認している対象を推定できる。ユーザは、視認対象と必ずしも正対している必要はない。ユーザは、視認対象と正対していない場合であっても、ユーザは、視認対象について音声による情報提供を受けることができる。
(4)上記形態の情報提供システムにおいて、ユーザが視認している対象が変わってから予め定められた時間が経過したことを推定部が検出すると、情報出力部は、ユーザが直前に視認していた対象の説明情報についての音声による出力を停止してもよい。
このような形態によれば、ユーザにとって不要な情報を、ユーザに提供しない。よって、効率的にユーザに情報を提供できる。
(5)上記形態の情報提供システムは、複数のユーザがそれぞれ携帯する携帯端末と、少なくとも1つのサーバと、を含んでいてもよい。携帯端末はそれぞれ、位置方向取得部と、記憶部と、推定部と、情報出力部と、を備える。推定部は、ユーザが視認していると推定した対象を識別する情報と、推定した日付及び時刻を示す情報と、ユーザを識別する情報と、を含む視認データをサーバに供給してもよい。サーバは、推定部から供給された視認データを蓄積するデータ蓄積部と、ユーザの属性を表す属性データと視認データとから、ユーザの属性の分布を示す統計データを対象毎に生成し、統計データを出力する統計データ生成部と、を備えていてもよい。
このような形態によれば、情報の提供者側は、視認の対象毎の統計データを使用して、ユーザに対する物品及びサービスの販売を促進する企画を考えることができる。
本開示の形態は、情報提供システム以外の種々の形態で実現することも可能である。例えば、ユーザにより携帯されるコンピュータが音声により情報を提供する方法、その方法を実現するコンピュータプログラムで実現することができる。
実施形態に係る情報提供システムの構成を示す図である。 ユーザと、仮想的に配置された音源との位置関係を表した図である。 実施形態に係るデータ蓄積部に蓄積されるデータの一例を示す図である。 実施形態に係る情報提供処理のフローチャートである。 データ蓄積部に蓄積されるデータの他の例を示す図である。
A.実施形態
図1は、実施形態に係る情報提供システム1000の構成を示す図である。本実施形態において、情報提供システム1000が、観光地を回るユーザに、史跡、寺社等の観光資源、観光地における商品等に関する情報を提供する例を説明する。情報提供システム1000は、携帯端末100と、音声出力装置200と、サーバ300と、を含む。
携帯端末100は、ユーザが携帯する通信端末である。本実施形態においては、携帯端末100は、ユーザが保有するスマートフォンである。携帯端末100には、ユーザに観光地に関する情報を提供するためのアプリケーションソフトウェアがインストールされているものとする。以下、このアプリケーションソフトウェアを案内アプリケーションと呼ぶ。ユーザは、案内アプリケーションを実行することにより、情報提供システム1000から観光地に関する情報の提供を受けることができる。ユーザは、携帯端末100を持ち歩いて、観光地を回るものとする。案内アプリケーションは、ユーザの現在位置及びユーザが視認している対象を推定し、ユーザに、史跡、寺社等の観光資源、観光地における商品に関する情報を提供する機能を備える。
音声出力装置200は、ユーザが頭部に装着し、携帯端末100から受信した音声信号を出力する装置である。本実施形態においては、音声出力装置200は、ユーザが保有するワイヤレスのイヤホンである。ユーザは、観光地を回る際に、イヤホンを耳に装着しているものとする。
図1においては、説明の簡略化のため、携帯端末100及び音声出力装置200を1つずつ図示しているが、情報提供システム1000は、複数の携帯端末100及び音声出力装置200を含む。情報提供システム1000を利用するユーザはそれぞれ、携帯端末100及び音声出力装置200を携帯するためである。サーバ300は、複数の携帯端末100から収集したデータを蓄積し、蓄積したデータから統計データを生成する情報処理装置である。
携帯端末100は、ハードウェア構成として、プロセッサ101と、メモリ102と、通信部103と、を備える。メモリ102と、通信部103と、は、内部バス109を介してプロセッサ101に接続されている。
プロセッサ101は、例えば、CPU(Central Processing Unit)である。プロセッサ101が、メモリ102に格納されている各種プログラムを実行することにより、携帯端末100の各機能が実現される。
メモリ102は、RAM(Random Access Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)を含む。メモリ102は、プロセッサ101が実行するプログラム、プログラムの実行に使用される種々のデータを記憶する。また、メモリ102は、プロセッサ101のワークメモリとして使用される。
通信部103は、ネットワークインタフェース回路を含み、プロセッサ101の制御に従って、外部の装置と通信する。本実施形態においては、通信部103は、Wi-Fi(登録商標)の通信規格に則って、外部の装置と通信できるものとする。さらに、通信部103は、GPS(Global Positioning System)受信機を備え、プロセッサ101の制御に従って、GPS衛星から信号を受信する。
音声出力装置200は、プロセッサ201と、通信部202と、センサ203と、ドライバユニット204と、を備える。通信部202と、センサ203と、ドライバユニット204と、は、内部バス209を介して、プロセッサ201に接続されている。
プロセッサ201は、例えば、DSP(Digital Signal Processor)である。プロセッサ201は、通信部202と、センサ203と、ドライバユニット204と、を制御する。
通信部202は、ネットワークインタフェース回路を含み、プロセッサ201の制御に従って、外部の装置と通信する。通信部202は、例えば、Bluetooth(登録商標)規格に則って、携帯端末100と無線通信する。
センサ203は、加速度センサ、ジャイロセンサ、地磁気センサを含む。例えば、加速度センサとして、3軸加速度センサを使用することができる。また、角速度センサとして、3軸角速度センサを使用することができる。センサ203は、プロセッサ201の制御に従って、加速度センサにより音声出力装置200の加速度を測定する。センサ203は、プロセッサ201の制御に従って、ジャイロセンサにより音声出力装置200の角速度を測定する。センサ203は、プロセッサ201の制御に従って、地磁気センサにより地磁気強度を測定する。
ドライバユニット204は、プロセッサ201の制御に従って、供給された音声信号を音波に変換して出力する。ドライバユニット204には、携帯端末100が出力した音声信号が供給される。
サーバ300は、ハードウェア構成として、プロセッサ301と、メモリ302と、通信部303と、を備える。メモリ302と、通信部303と、は、内部バス309を介してプロセッサ301に接続されている。
プロセッサ301は、例えば、CPUである。プロセッサ301が、メモリ302に格納されている各種プログラムを実行することにより、携帯端末100の各機能が実現される。
メモリ302は、RAM、EEPROM、HDD(Hard Disk Drive)を含む。メモリ302は、プロセッサ301が実行するプログラム及びプログラムの実行に使用される種々のデータを記憶する。また、メモリ302は、プロセッサ301のワークメモリとして使用される。
通信部303は、ネットワークインタフェース回路を含み、プロセッサ301の制御に従って、外部の装置と通信する。
携帯端末100は、機能的には、位置方向取得部110と、記憶部120と、推定部130と、情報出力部140と、を備える。
位置方向取得部110は、ユーザの現在位置を示す情報を取得する。ユーザは、携帯端末100を持ち歩いているため、携帯端末100の現在位置はユーザの現在位置と一致する。よって、位置方向取得部110は、携帯端末100の現在位置を示す情報を取得することにより、ユーザの現在位置を示す情報を取得する。屋外においては、位置方向取得部110は、GPS衛星から受信した信号に基づいて、携帯端末100の現在位置を示す情報を取得する。屋内においては、位置方向取得部110は、複数のWi-Fi(登録商標)基地局から受信した電波強度に基づいて、携帯端末100の現在位置を示す情報を取得する。
さらに、位置方向取得部110は、ユーザの視線方向を示す情報を取得する。この情報を視線方向情報とも呼ぶ。本実施形態においては、ユーザの顔が向いている方向を、ユーザの視線方向とする。位置方向取得部110は、音声出力装置200から受信した加速度の測定値、角速度の測定値、及び地磁気強度の測定値に基づいて、ユーザの顔が向いている方向を特定する。位置方向取得部110の機能は、プロセッサ101が、メモリ102に格納されているプログラムを実行することにより実現される。
記憶部120は、ユーザが訪れる可能性がある場所の位置情報を記憶する。例えば、記憶部120は、史跡、寺社等の位置座標を記憶する。また、記憶部120は、土産店、飲食店等の位置座標を記憶する。
また、記憶部120は、ユーザの視認対象となり得る対象の位置を示す情報を記憶する。この情報を対象位置情報とも呼ぶ。例えば、記憶部120は、史跡における建物の位置の情報を記憶する。また、例えば、記憶部120は、土産店の店内において陳列されている商品それぞれの位置の情報を記憶する。さらに、記憶部120は、ユーザの視認対象となり得る対象を説明する説明情報を記憶する。説明情報は、例えば、史跡、寺社等を説明する情報である。また、説明情報は、飲食店、土産店を宣伝する情報、土産店において販売されている商品を説明する情報である。
さらに、記憶部120には、後述する音源が仮想的に配置される位置を表す情報が、視認対象となり得る対象毎に格納されている。
記憶部120の機能は、上記の位置情報、説明情報、音源の位置の情報のデータが格納されたメモリ102により実現される。位置情報、説明情報、音源の位置の情報のデータは、携帯端末100に案内アプリケーションがインストールされる際に、メモリ102に格納される案内アプリケーションの実行のためのデータの一部である。
さらに、推定部130は、位置方向取得部110により取得されたユーザの現在位置を示す情報及びユーザの視線方向を示す情報と、記憶部120に格納されているユーザが視認する可能性のある対象の位置情報と、から、ユーザが視認している対象を推定する。
推定部130は、推定した対象を識別する情報と、ユーザの現在位置を示す情報と、ユーザを識別する情報と、日付及び時刻を示す情報と、を含むデータを、サーバ300に送信する。このデータを視認データとも呼ぶ。実施形態において、対象を識別する情報は、対象に予め対応付けられた対象IDである。位置情報は、位置方向取得部110により取得されたユーザの位置を示す情報である。ユーザを識別する情報は、ユーザに予め対応付けられたユーザIDである。日付及び時刻は、推定を実行した日付及び時刻を示すものである。
また、ユーザが、対象IDが付されたいずれの対象も視認していない場合もある。この場合、推定部130は、ユーザの位置情報と、ユーザを識別する情報と、日付及び時刻を示す情報と、を含むデータを、サーバ300に送信する。このデータを位置データとも呼ぶ。推定部130の機能は、プロセッサ101が、メモリ102に格納されているプログラムを実行することにより実現される。
情報出力部140は、推定部130がユーザの視認対象を推定すると、推定された対象を説明する説明情報を記憶部120から読み出す。情報出力部140は、説明情報を音声信号として音声出力装置200に送信する。
本実施形態においては、情報出力部140は、音声出力装置200を介して、立体音響により音声を出力する。よって、ユーザは、広がりと奥行きを持った音を音声出力装置200から聞くことができる。また、情報出力部140は、仮想的に設定された位置に音源があるかのように、音声出力装置200を介して、音声を出力する。音源が仮想的に配置される位置は、視認されている対象毎に設定されている。音源が仮想的に配置される位置は、例えば、店内において陳列されている商品の位置、史跡における建物の内外の予め決められた位置である。よって、ユーザは、例えば、視認している対象の近傍から説明情報の音声が出力されているに感じることができる。このように本実施形態においては、ユーザに臨場感を感じさせながら、視認している対象についての情報をユーザに提供することができる。
図2は、ユーザPと仮想的に配置された音源SSとの位置関係を表した図である。図2においては、ユーザPと音源SSとを上から見た様子を表している。情報出力部140は、立体音響による音声の出力のため、以下のような処理を行う。情報出力部140は、記憶部120から、推定された視認対象について、音源SSが仮想的に配置される位置の情報を読み出す。情報出力部140は、ユーザPの視線方向に対する、ユーザPからみた音源SSの方向の相対的な角度を求める。以下、この角度を相対角度とも呼ぶ。
図2において、ユーザPは、視線方向Dを向いているとする。水平面内において、視線方向Dが、基準方位Nに対してなす角の大きさは、角度r1であるとする。基準方位Nは、例えば、北を向く方向である。ユーザPからみた音源SSの方向が、基準方位Nに対してなす角の大きさは、角度r2であるとする。情報出力部140は、視線方向Dと、基準方位Nとから、角度r1を求める。情報出力部140は、記憶部120に格納されている音源SSの位置と、ユーザPの位置と、基準方位Nとから、角度r2を求める。情報出力部140は、角度r1と、角度r2との差である角度r3を、相対角度として求める。次に、情報出力部140は、ユーザPの位置と、音源SSの位置とから、ユーザPと音源SSとの間の距離を求める。情報出力部140は、求めた相対角度及び距離に基づいて、立体音響処理を施した音声を出力する。立体音響処理には、例えば、既存の立体音響の生成のためのアルゴリズムを使用して、立体音響処理を施した音声を出力する。
基準方位Nの設定のため、携帯端末100の地磁気センサを利用してキャリブレーションを行ってもよい。なお、携帯端末100は地磁気センサを備えているものとする。例えば、案内アプリケーションの起動直後に、ユーザに、頭部に音声出力装置200を装着した状態で、ユーザの向く方向と、ユーザが手に持った携帯端末100の向きとを揃えるように通知する。音声出力装置200の向きと、携帯端末100の向きと、が揃えられた状態で、携帯端末100の地磁気センサから取得した方角から、イヤホンの地磁気センサをキャリブレーションする。
また、ユーザの位置情報の変化をユーザの視線方向の推定のため用いることができる。例えば、携帯端末100の位置を示す座標の一定期間における変化の履歴から、ユーザが継続して同じ方向に向かって移動していることを検出した場合、ユーザの視線がその方向を向いていると推定してもよい。例えば、携帯端末100の位置座標の変化から、ユーザが地図上において東に向かって移動していると判定される場合、ユーザの視線方向Dは東であると推定することができる。
実施形態において、ユーザの頭の高さ方向における位置と、音源SSの高さ方向における位置とは、ほぼ同じであるとする。このため、情報出力部140は、水平面内における相対角度及び距離のみを考慮した。しかし、ユーザの頭の高さ方向における位置と、音源SSの高さ方向における位置とが異なる場合には、センサ230の加速度センサにより、仰角また俯角を検出する。情報出力部140は検出された仰角又は俯角から、垂直面内における相対角度と距離とを求め、求めた相対角度と距離とに基づいて、立体音響処理を施した音声を出力すればよい。
情報出力部140の機能は、プロセッサ101が、メモリ102に格納されているプログラムを実行することにより実現される。
サーバ300は、機能的には、データ蓄積部310と、統計データ生成部320と、を備える。
図3は、データ蓄積部310に蓄積された視認データの一例を示す図である。データ蓄積部310は、携帯端末100の推定部130から供給された視認データを蓄積する。図3に示す例では、データ蓄積部310には、推定された対象を識別する対象IDと、ユーザの位置を示す位置情報と、ユーザを識別するユーザIDと、日付及び時刻を示す情報と、が蓄積されている。
さらに、図示していないが、データ蓄積部310は、推定部130から供給された、ユーザの位置を表す位置データを蓄積する。また、データ蓄積部310には、情報提供システム1000を利用するユーザの属性を表すデータが予め格納されている。このデータを属性データとも呼ぶ。ユーザの属性は、例えば、ユーザの年齢、性別、職業である。データ蓄積部310の機能は、メモリ302により実現される。例えば、案内アプリケーションの初回の起動時に、ユーザが携帯端末100を使用して、自身の属性を示す情報を入力する。入力されたデータは、データ蓄積部310に格納される。
統計データ生成部320は、データ蓄積部310に格納されている視認データと属性データと、から、統計データを生成する。例えば、視認される対象が商品Aであるとする。統計データ生成部320は、商品Aを視認したユーザの属性による分布を示す統計データを生成してもよい。例えば、商品Aを視認したユーザの年齢層別の分布を示す統計データを生成する。また、商品Aを視認したユーザの性別の分布を示す統計データを生成する。
さらに、統計データ生成部320は、データ蓄積部310に格納された視認データから、特定の対象の視認を継続していた期間をユーザ毎に求めてもよい。統計データ生成部320は、データ蓄積部310に蓄積されたデータが、ユーザが特定の対象を予め設定された期間より長い間視認していることを示す場合、ユーザが特定の対象の視認を継続していたと判定する。
例えば、視認対象が史跡にある石碑Bであるとする。統計データ生成部320は、石碑Bの視認を継続したユーザの年齢分布を示す統計データを生成してもよい。また、統計データ生成部320は、石碑Bの視認を継続したユーザの性別分布を示す統計データを生成してもよい。また、統計データ生成部320は、石碑Bが視認された時間帯の分布を示す統計データを生成してもよい。
例えば、情報提供システム1000の管理者は、視認の対象毎の統計データを使用して、ユーザに対する物品及びサービスの販売を促進する企画を考えることができる。
さらに、統計データ生成部320は、データ蓄積部310に蓄積された位置データから、設定された期間内における、複数のユーザそれぞれの移動の履歴を示すデータを生成する。よって、情報提供システム1000の管理者は、ユーザに対する物品及びサービスの販売を促進する企画を考える際に、ユーザの移動の履歴に関する統計データを使用することができる。
統計データ生成部320の機能は、プロセッサ301が、メモリ302に格納されているプログラムを実行することにより実現される。
図4は、情報提供システム1000が、携帯端末100を介して、ユーザに情報を提供する情報提供処理のフローチャートである。携帯端末100は、決められた時間間隔で、情報提供処理を開始するものとする。例えば、携帯端末100は、10秒ごとに、情報提供処理を開始する。
ステップS11において、位置方向取得部110は、携帯端末100の位置情報を取得する。具体的には、まず、位置方向取得部110は、GPS衛星から受信したGPS信号に基づいて、携帯端末100の現在位置を示す位置座標を取得する。位置方向取得部110は、GPS信号を受信できなかった場合、複数のWi-Fi(登録商標)基地局から受信した電波強度に基づいて、携帯端末100の現在位置を示す位置座標を取得する。
ステップS12において、位置方向取得部110は、ユーザの動き情報を取得する。具体的には、位置方向取得部110は、音声出力装置200に対して、加速度、角速度、及び、地磁気強度の測定を指示する。これに応答して、音声出力装置200のプロセッサ201は、センサ203に、加速度、角速度、及び、地磁気強度を測定させる。音声出力装置200のプロセッサ201は、センサ203から取得した加速度、角速度、及び、地磁気強度の測定値を、携帯端末100の位置方向取得部110に送信する。
位置方向取得部110は、音声出力装置200から受信した加速度及び角速度の測定値から、ユーザが何かを注視しているか否かを判定する。例えば、位置方向取得部110は、加速度の測定値が予め決められた条件を満たし、かつ、角速度の測定値が予め決められた条件を満たしたときに、ユーザが何かを注視していると判定する。
ユーザが何かを注視していると判定すると、位置方向取得部110は、加速度、角速度、及び、地磁気強度の測定値からユーザの視線方向を特定する。位置方向取得部110は、特定したユーザの視線方向を示す情報を推定部130に供給する。一方、位置方向取得部110は、ユーザが何かを注視していないと判定すると、その旨を推定部130に通知する。
ステップS13において、推定部130は、ユーザが視認している対象を推定する。推定部130は、位置方向取得部110により取得されたユーザの現在位置を示す情報と、位置方向取得部110により特定されたユーザの視線方向と、記憶部120に格納されているユーザが視認する可能性のある対象の位置情報と、から、ユーザが視認している対象を推定する。
また、ユーザの視線方向に、記憶部120に登録された対象のデータがない場合、推定部130は、視認対象を推定できないと判定する。
一方、位置方向取得部110から、ユーザが注視していない旨が通知された場合、ステップS13において、推定部130は視認対象を推定できないと判定する。
ステップS14において、視認対象を推定できた場合(ステップS14;YES)、推定部130は、推定した対象を示す情報を情報出力部140に供給する。さらに、推定部130は、視認データをサーバ300に送信する。
一方、視認対象を推定できなかった場合(ステップS14;NO)、推定部130は、位置データをサーバ300に送信する。その後、情報提供処理は終了される。
ステップS15において、情報出力部140は、推定部130により推定された対象の説明情報を音声により出力する。まず、情報出力部140は、推定された対象の説明情報と、推定された対象に設定された仮想的な音源の位置の情報と、を記憶部120から読み出す。情報出力部140は、ユーザの視線方向に対する、ユーザからみた音源の方向の相対的な角度である相対角度と、ユーザと推定された視認対象について仮想的に音源が配置される位置との間の距離と、を求める。情報出力部140は、求めた相対角度及び距離に基づいて、説明情報を表す音声信号を立体音響として出力するため、音声の出力値を演算する。情報出力部140は、演算した出力値の音声信号を、音声出力装置200に供給する。従って、音声出力装置200は、説明情報の音声を出力する。以上が、情報提供システム1000による情報提供処理の一連の流れである。
以上説明したように、実施形態に係る態様によれば、情報提供システム1000は、ユーザが視認している対象を推定してから、対象の説明情報をユーザに提供する。よって、ユーザは、注目している対象についての情報を即座に得ることができる。このように、ユーザが興味を持っていると考えられる対象について、音声による情報を提供することができる。
B.他の実施形態
B1.他の実施形態1
実施形態においては、ユーザの視線方向にある対象を、ユーザが視認している対象であると推定した。あるいは、ユーザの視認対象の推定を下記のように行ってもよい。視野の設定情報を記憶部120に予め格納しておく。視野の設定情報は、有効視野を予め設定した情報である。説明の簡便化のため、両眼視における視野の範囲が設定されているとする。設定された視野は、例えば、中心視野だけを含んでもよい。あるいは、設定された視野は、中心視野と、有効視野とを含んでもよい。また、あるいは、設定された視野は、中心視野と、有効視野と、周辺視野の一部の範囲とを含んでもよい。この場合、例えば、水平方向における視野を、固視点を中心として両側にそれぞれ30度の範囲と設定してもよい。垂直方向における視野を、固視点を中心から上下にそれぞれ30度の範囲と設定してもよい。
推定部130は、位置方向取得部110により取得されたユーザの現在位置を示す情報と、視野の設定情報と、記憶部120に格納されているユーザが視認する可能性のある対象の位置情報と、から、ユーザが視認している対象を推定する。
このような形態によれば、ユーザが顔の真正面を注視している場合でなくても、推定部130は、設定された視野の範囲でユーザが視認している対象を推定する。ユーザは、視認対象と必ずしも正対している必要はない。よって、ユーザは、自然な体勢でリラックスして、視認対象について音声による情報提供を受けることができる。
B2.他の実施形態2
実施形態においては、ユーザが視認している対象を推定すると説明情報の音声の出力を開始した。音声の出力している間に、ユーザの視認対象が変わることがある。このため、携帯端末100は下記のような構成を備えていてもよい。
位置方向取得部110は、音声の出力を開始した後も、決められた時間毎に、ユーザの位置とユーザの視線方向とを取得し、取得した位置情報と視線方向情報とを推定部130に供給する。推定部130は、情報出力部140に音声の出力を開始させた時刻を記憶しておく。推定部130は、ユーザの位置が変化した、あるいは、ユーザの視線方向が変化した場合に、ユーザの視認対象が変化したと判定する。推定部130は、ユーザの視認対象が変化してから予め定められた時間が経過したことを検出すると、情報出力部140に音声の出力を停止させる。
このように、ユーザが視認をやめた対象の説明情報の音声出力を停止することで、ユーザにとって不要な情報を、ユーザに提供しない。よって、効率的にユーザに情報を提供できる。
さらに、推定部130は、音声出力を途中で停止させたことを表す情報と、直前に視認されていた対象を識別する情報と、ユーザを識別する情報と、を含むデータをサーバ300に送信してもよい。また、推定部130は、音声出力を途中で停止させなかった場合であっても、そのことを、サーバ300に通知してもよい。この場合、推定部130は、音声出力を最後まで完了したことを表す情報と、直前に視認されていた対象を識別する情報と、ユーザを識別する情報と、を含むデータをサーバ300に送信してもよい。このデータを出力履歴データとも呼ぶ。
推定部130は、音声を途中で停止させた場合、サーバ300に次のようなデータを供給してもよい。推定部130は、情報出力部140が直前の視認対象について説明情報の音声出力を開始した時刻から、情報出力部140が音声出力を停止した時刻までの時間を求める。記憶部120には、説明情報を最後まで音声出力するのに要する時間を表す情報を視認対象毎に記憶されているものとする。推定部130は、直前の視認対象の説明情報について、最後まで音声出力するのに要する時間に対して、実際に音声出力された時間の割合を求める。推定部130は、音声出力を途中で停止させたことを表す情報と、求めた割合と、直前に視認されていた対象を識別する情報と、ユーザを識別する情報と、を含む蓄積された出力履歴データをサーバ300に送信する。
サーバ300のデータ蓄積部310は、推定部130から供給された出力履歴データを蓄積する。統計データ生成部320は、蓄積された出力履歴データから、例えば、特定の商品を視認し、その商品の説明情報の音声を最後まで聞いたユーザの属性による分布を示す統計データを生成してもよい。また、統計データ生成部320は、蓄積された出力履歴データから、特定の商品を視認したが、その商品の説明情報の音声を最後まで聞かなかったユーザの属性による分布を示す統計データを生成してもよい。
また、推定部130は、音声を途中で停止させた場合、新たな視認対象を推定し、推定した新たな視認対象を示す情報を情報出力部140に供給する。これに応答して、情報出力部140は、新たな視認対象の説明情報についての音声の出力を開始する。
B3.他の実施形態3
実施形態では、屋内において、位置方向取得部110が、複数のWi-Fi(登録商標)基地局から受信した電波強度に基づいて、携帯端末100の現在位置を示す情報を取得する例を説明した。あるいは、屋内における携帯端末100の位置情報の取得を次のように行ってもよい。携帯端末100は、地磁気センサを備えているものとする。この場合、位置方向取得部110は、地磁気センサを使用して、携帯端末100の位置情報を取得してもよい。
また、あるいは、位置方向取得部110は、まず、Wi-Fi(登録商標)基地局から受信した電波強度に基づいて、携帯端末100の位置情報を取得する。位置方向取得部110は、位置情報を取得できなかった場合に、地磁気センサを使用して、携帯端末100の位置情報を取得するようにしてもよい。
実施形態では、屋外において、位置方向取得部110が、携帯端末100の現在位置を取得するため、GPSを利用する例を説明した。あるいは、位置方向取得部110は、準天頂衛星システムといった他の衛星測位システムを利用してもよい。また、あるいは、位置方向取得部110は、GPS及び準天頂衛星システムを利用して、携帯端末100の現在位置を取得してもよい。
B4.他の実施形態4
実施形態においては、ユーザが視認していると推定した対象の説明情報を音声により出力する例を説明した。さらに、携帯端末100は、次のような機能を備えていてもよい。推定部130は、位置方向取得部110が取得した携帯端末100の位置情報から、ユーザが予め設定された領域にいるか否かを判定する。情報出力部140は、ユーザがいる場所について予め設定された説明情報を音声により出力する。
例えば、推定部130は、ユーザが土産店あるいは飲食店の近傍の、予め設定された領域にいると判定する。情報出力部140は、土産店あるいは飲食店を宣伝する情報を音声により出力する。音源が仮想的に配置される位置が、土産店あるいは飲食店の入り口となるよう設定されているとする。この場合、推定部130は、位置方向取得部110を介して取得したユーザの視線方向を示す情報から、ユーザが、音源が仮想的に配置された土産店あるいは飲食店の入り口を向いたか否かを判定してもよい。さらに、推定部130は、ユーザの位置情報と、ユーザを識別する情報と、日付及び時刻を示す情報と、ユーザが音声による説明の提供に反応したかを示す情報と、をサーバ300に送信する。
サーバ300のデータ蓄積部310は、携帯端末100から供給されたデータを蓄積する。統計データ生成部320は、例えば、音声に反応したユーザの属性による分布を示す統計データを生成してもよい。あるいは、統計データ生成部320は、音声に反応したユーザの時間帯毎の比率を示す統計データを生成してもよい。
B5.他の実施形態5
推定部130は、さらに、ユーザの購入履歴を示す情報を取得するように構成を備えてもよい。例えば、ユーザが、商品又はサービスの対価を、携帯端末100を使用して、電子マネーにより支払ったとする。あるいは、ユーザが、商品又はサービスの対価を、携帯端末100を使用して、クレジットカードにより支払ったとする。この場合、携帯端末100の推定部130は、ユーザを識別する情報、ユーザが購入した商品を識別する情報、商品が購入された日付及び時刻、購入された個数、購入金額を含む購入履歴データを、サーバ300に送信してもよい。サーバ300のデータ蓄積部310は、携帯端末100から供給されたデータを蓄積する。
図5は、データ蓄積部310に蓄積された購入履歴データの一例を示す図である。図5に示す例では、データ蓄積部310には、ユーザを識別するユーザIDと、購入された商品を識別する対象IDと、商品が購入された日付及び時刻を示す情報と、商品の購入個数と、購入金額を示す情報と、が格納されている。統計データ生成部320は、データ蓄積部310に蓄積された購入履歴データと視認データと、から、例えば、視認された対象の説明情報について実際に音声出力された時間の割合に応じた商品又はサービスの購入の有無を示す統計データを出力してもよい。また、視認された対象の説明情報について実際に音声出力された時間の割合に応じた購入金額を示す統計データを出力してもよい。視認した対象を購入したユーザの属性による分布を示す統計データを出力してもよい。よって、例えば、情報提供システム1000の管理者は、ユーザ行動履歴と購入履歴とから、ユーザの消費動向を分析することができる。
サーバ300の統計データ生成部320は、さらに、生成した統計データを解析する機能を備えてもよい。また、統計データ生成部320は、例えば、機械学習モデルを使用して、データを分析してもよい。
B6.他の実施形態6
推定部130は、ユーザが視認している対象を2つ以上推定してもよい。例えば、ユーザが並べて陳列されている2つの商品を視認していることがある。この場合、情報出力部140は、一方の商品の説明情報を音声出力した後、他方の商品の説明情報を音声出力するようにしてもよい。
B7.他の実施形態7
実施形態においては、携帯端末100がスマートフォンである例を説明した。しかしながら、携帯端末100は、タブレット端末、あるいは、スマートウォッチであってもよい。
実施形態においては、音声出力装置200が、ワイヤレスのイヤホンである例を説明した。しかしながら、音声出力装置200は、有線で携帯端末100に接続されるイヤホンであってもよい。あるいは、音声出力装置200は、有線又は無線で携帯端末100と通信可能なヘッドフォンであってもよい。また、音声出力装置200は、立体音響で音声を出力しなくてもよい。
また、実施形態においては、音声出力装置200が、ユーザの保有するイヤホンである例を説明した。あるいは、音声出力装置200が、ユーザに貸し出されたイヤホンあるいはヘッドフォンであってもよい。この場合、ユーザは、例えば、観光案内所でイヤホンあるいはヘッドフォンを借りることができる。
また、説明情報を音声により出力する装置は、ユーザの頭部に装着される音声出力装置200でなくてもよい。例えば、携帯端末100が、携帯端末100に内蔵されているスピーカから、音声を出力してもよい。この場合、携帯端末100は、立体音響で音声を出力しなくてもよい。
実施形態においては、情報提供システム1000が1つのサーバ300を含む例を説明したが、情報提供システム1000は、2以上のサーバを含んでいてもよい。
実施形態においては、携帯端末100が、記憶部120を備える例を説明した。しかし、携帯端末100ではなく、サーバ300が記憶部120を備えてもよい。この場合、携帯端末100は、必要なタイミングで、サーバ300にデータを要求する。サーバ300は、これに応答してデータを携帯端末100に提供する。
上記の携帯端末100及びサーバ300の機能を実現するプログラムを記録する記録媒体としては、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ、半導体メモリ、磁気テープを含むコンピュータ読取可能な記録媒体を使用することができる。
また、携帯端末100及びサーバ300の機能を実現する手段は、ソフトウェアに限られず、その一部又は全部を、専用のハードウェアによって実現してもよい。例えば、専用のハードウェアとして、FPGA(Field Programmable Gate Array)又はASIC(Application Specific Integrated Circuit)に代表される回路を使用してもよい。
実施形態においては、通信部103が、Wi-Fi(登録商標)の通信規格に則って、外部の装置と通信する例を説明した。しかし、通信部103は、例えば、Bluetooth(登録商標)といった他の通信規格に則って外部の装置と通信してもよい。通信部103は、複数の通信規格に対応していてもよい。
本開示は、上述の実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
100…携帯端末、101…プロセッサ、102…メモリ、103…通信部、109…内部バス、110…位置方向取得部、120…記憶部、130…推定部、140…情報出力部、200…音声出力装置、201…プロセッサ、202…通信部、203…センサ、204…ドライバユニット、209…内部バス、300…サーバ、301…プロセッサ、302…メモリ、303…通信部、309…内部バス、310…データ蓄積部、320…統計データ生成部、1000…情報提供システム、D…視線方向、P…ユーザ、SS…音源、r1,r2,r3…角度

Claims (6)

  1. 複数のユーザがそれぞれ携帯する携帯端末と、少なくとも1つのサーバと、を含み、音声により情報を提供する情報提供システムであって、
    前記携帯端末はそれぞれ、
    ユーザがいる位置を示す位置情報と、前記ユーザの顔が向いている方向である視線方向を示す視線方向情報と、を取得する位置方向取得部と、
    前記ユーザの視認対象となり得る複数の対象それぞれの位置を表す対象位置情報と、それぞれの前記対象を説明する説明情報と、を予め記憶する記憶部と、
    前記ユーザの前記位置情報及び前記視線方向情報と、前記対象位置情報と、から、前記ユーザが視認している前記対象を推定し、前記ユーザが視認していると推定した前記対象を識別する情報と、推定した日付及び時刻を示す情報と、前記ユーザを識別する情報と、を含む視認データを前記サーバに供給する推定部と、
    推定された前記対象についての前記説明情報を前記音声により出力する情報出力部と、
    を備え、
    前記サーバは、
    前記推定部から供給された前記視認データを蓄積するデータ蓄積部と、
    前記ユーザの属性を表す属性データと前記視認データとから、前記ユーザの属性の分布を示す統計データを前記対象毎に生成し、前記統計データを出力する統計データ生成部と、
    を備える情報提供システム。
  2. 請求項1に記載の情報提供システムであって、
    前記音声は、前記ユーザの頭部に装着される音声出力装置から出力され、
    前記記憶部は、前記対象それぞれに対応付けられた音源の仮想的な位置を表す情報を予め記憶しており、
    前記情報出力部は、前記ユーザの現在位置から見た前記音源の前記仮想的な位置に応じて、前記説明情報を表す前記音声に立体音響処理を施した音声を出力する、
    情報提供システム。
  3. 請求項1または2に記載の情報提供システムであって、
    前記記憶部は、前記ユーザの眼が見ることができる範囲を予め設定した視野の設定情報を記憶しており、
    前記推定部は、
    予め設定された前記視野の範囲内において、前記ユーザが視認している前記対象を推定する、
    情報提供システム。
  4. 請求項1から3のいずれか1項に記載の情報提供システムであって、
    前記ユーザが視認している前記対象が変わってから予め定められた時間が経過したことを前記推定部が検出すると、前記情報出力部は、前記ユーザが直前に視認していた前記対象の前記説明情報についての前記音声による出力を停止する、
    情報提供システム。
  5. 声により情報を提供する方法であって、
    ユーザにより携帯されるコンピュータが、前記ユーザがいる位置を示す位置情報と、前記ユーザの顔が向いている方向である視線方向を示す視線方向情報と、を取得するステップと、
    前記コンピュータが、前記ユーザの前記位置情報及び前記視線方向情報と、前記ユーザの視認対象となり得る複数の対象それぞれについて予め設定された対象位置情報と、から、前記ユーザが視認している前記対象を推定するステップと、
    前記コンピュータが、推定た前記対象についての説明情報を前記音声により出力するステップと、
    前記コンピュータが、前記ユーザが視認していると推定した前記対象を識別する情報と、推定した日付及び時刻を示す情報と、前記ユーザを識別する情報と、を含む視認データをサーバに供給するステップと、
    前記サーバが、前記視認データを蓄積するステップと、
    前記サーバが、前記ユーザの属性を表す属性データと前記視認データとから、前記ユーザの属性の分布を示す統計データを前記対象毎に生成し、前記統計データを出力するステップと、
    を含む方法。
  6. 複数のユーザがそれぞれ携帯する携帯端末と、少なくとも1つのサーバを含み、音声により情報を提供する情報提供システムにおいて実行されるプログラムであって、
    前記携帯端末が、前記ユーザがいる位置を示す位置情報と、前記ユーザの顔が向いている方向である視線方向を示す視線方向情報と、を取得する機能と、
    前記携帯端末が、前記ユーザの前記位置情報及び前記視線方向情報と、前記ユーザの視認対象となり得る複数の対象それぞれについて予め設定された対象位置情報と、から、前記ユーザが視認している前記対象を推定する機能と、
    前記携帯端末が、推定た前記対象についての説明情報を音声により出力する機能と、
    前記携帯端末が、前記ユーザが視認していると推定した前記対象を識別する情報と、推定した日付及び時刻を示す情報と、前記ユーザを識別する情報と、を含む視認データを前記サーバに送信する機能と、
    前記サーバが、前記視認データを蓄積する機能と、
    前記サーバが、前記ユーザの属性を表す属性データと前記視認データとから、前記ユーザの属性の分布を示す統計データを前記対象毎に生成し、前記統計データを出力する機能と、
    を実現させるプログラム。
JP2021131009A 2021-08-11 2021-08-11 情報提供システム、方法、及びプログラム Active JP7703181B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2021131009A JP7703181B2 (ja) 2021-08-11 2021-08-11 情報提供システム、方法、及びプログラム
DE112022003898.5T DE112022003898T5 (de) 2021-08-11 2022-08-08 Informationenbereitstellungssystem, Verfahren und Programm
US18/291,782 US20240371355A1 (en) 2021-08-11 2022-08-08 Information providing system, method, and program
CN202280055214.1A CN117859347A (zh) 2021-08-11 2022-08-08 信息提供系统、方法、以及程序
PCT/JP2022/030305 WO2023017808A1 (ja) 2021-08-11 2022-08-08 情報提供システム、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021131009A JP7703181B2 (ja) 2021-08-11 2021-08-11 情報提供システム、方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2023025724A JP2023025724A (ja) 2023-02-24
JP2023025724A5 JP2023025724A5 (ja) 2024-08-05
JP7703181B2 true JP7703181B2 (ja) 2025-07-07

Family

ID=85200645

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021131009A Active JP7703181B2 (ja) 2021-08-11 2021-08-11 情報提供システム、方法、及びプログラム

Country Status (5)

Country Link
US (1) US20240371355A1 (ja)
JP (1) JP7703181B2 (ja)
CN (1) CN117859347A (ja)
DE (1) DE112022003898T5 (ja)
WO (1) WO2023017808A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019118619A (ja) * 2017-12-29 2019-07-22 株式会社三洋物産 遊技機
JP2019118625A (ja) * 2017-12-29 2019-07-22 株式会社三洋物産 遊技機
JP2019118620A (ja) * 2017-12-29 2019-07-22 株式会社三洋物産 遊技機
WO2025229742A1 (ja) * 2024-05-01 2025-11-06 株式会社ジェイテクト 情報分析システム
WO2025229741A1 (ja) * 2024-05-01 2025-11-06 株式会社ジェイテクト 情報提供システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011197477A (ja) 2010-03-19 2011-10-06 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2015079310A (ja) 2013-10-15 2015-04-23 富士通株式会社 音響装置、音響システム、音響処理方法及び音響処理プログラム
JP2016021169A (ja) 2014-07-15 2016-02-04 Kddi株式会社 仮想音源を提供情報位置に配置する携帯端末、音声提示プログラム及び音声提示方法
WO2017168543A1 (ja) 2016-03-29 2017-10-05 三菱電機株式会社 音声案内装置及び音声案内方法
WO2018190099A1 (ja) 2017-04-10 2018-10-18 ヤマハ株式会社 音声提供装置、音声提供方法及びプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08160897A (ja) 1994-12-09 1996-06-21 Taiyo Yuden Co Ltd 商品紹介装置
JPH08221024A (ja) 1995-02-08 1996-08-30 Shoichiro Suzuki 商品アピール方法およびその装置
US6507802B1 (en) * 2000-02-16 2003-01-14 Hrl Laboratories, Llc Mobile user collaborator discovery method and apparatus
US8077915B2 (en) * 2007-10-12 2011-12-13 Sony Ericsson Mobile Communications Ab Obtaining information by tracking a user
US9024844B2 (en) * 2012-01-25 2015-05-05 Microsoft Technology Licensing, Llc Recognition of image on external display
US9317113B1 (en) * 2012-05-31 2016-04-19 Amazon Technologies, Inc. Gaze assisted object recognition
US8810604B2 (en) * 2012-06-19 2014-08-19 Mastercard International Incorporated System and method for activating, actioning and providing feedback on interactive objects within line of sight
JP5949234B2 (ja) * 2012-07-06 2016-07-06 ソニー株式会社 サーバ、クライアント端末、およびプログラム
KR101515484B1 (ko) * 2013-05-31 2015-04-29 전자부품연구원 증강현실정보 제공 장치 및 그 방법
JP6851133B2 (ja) * 2014-01-03 2021-03-31 ハーマン インターナショナル インダストリーズ インコーポレイテッド ユーザに方向付けられた個人情報アシスタント
US20150379770A1 (en) * 2014-06-27 2015-12-31 David C. Haley, JR. Digital action in response to object interaction
JP6326573B2 (ja) * 2016-11-07 2018-05-23 株式会社ネイン 多機能イヤホンによる自律型アシスタントシステム
US20190377538A1 (en) * 2018-06-08 2019-12-12 Curious Company, LLC Information Presentation Through Ambient Sounds
US10970031B2 (en) * 2018-09-25 2021-04-06 Disney Enterprises, Inc. Systems and methods configured to provide gaze-based audio in interactive experiences
US10782858B2 (en) * 2019-02-12 2020-09-22 Lenovo (Singapore) Pte. Ltd. Extended reality information for identified objects
JP7587814B2 (ja) 2019-11-08 2024-11-21 株式会社杉孝グループホールディングス 仮設床材及びそのつかみ金具
JP7768149B2 (ja) * 2021-01-21 2025-11-12 ソニーグループ株式会社 情報処理装置及び情報処理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011197477A (ja) 2010-03-19 2011-10-06 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2015079310A (ja) 2013-10-15 2015-04-23 富士通株式会社 音響装置、音響システム、音響処理方法及び音響処理プログラム
JP2016021169A (ja) 2014-07-15 2016-02-04 Kddi株式会社 仮想音源を提供情報位置に配置する携帯端末、音声提示プログラム及び音声提示方法
WO2017168543A1 (ja) 2016-03-29 2017-10-05 三菱電機株式会社 音声案内装置及び音声案内方法
WO2018190099A1 (ja) 2017-04-10 2018-10-18 ヤマハ株式会社 音声提供装置、音声提供方法及びプログラム

Also Published As

Publication number Publication date
WO2023017808A1 (ja) 2023-02-16
JP2023025724A (ja) 2023-02-24
US20240371355A1 (en) 2024-11-07
CN117859347A (zh) 2024-04-09
DE112022003898T5 (de) 2024-05-29

Similar Documents

Publication Publication Date Title
JP7703181B2 (ja) 情報提供システム、方法、及びプログラム
US20160196603A1 (en) Product augmentation and advertising in see through displays
JP6263098B2 (ja) 仮想音源を提供情報位置に配置する携帯端末、音声提示プログラム及び音声提示方法
JP2021121923A (ja) バイオメトリックデータを追跡するための拡張現実システムおよび方法
US10257129B2 (en) Information processing apparatus, information processing method, program, recording medium, and information processing system for selecting an information poster and displaying a view image of the selected information poster
US9774978B2 (en) Position determination apparatus, audio apparatus, position determination method, and program
JP2018518778A (ja) 購入のための拡張現実デバイス、システムおよび方法
WO2017094306A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20200160378A1 (en) Content output system, terminal device, content output method, and recording medium
JP2015005175A (ja) 情報処理装置、通信システムおよび情報処理方法
US10645525B2 (en) Sharing geo-located information
JP2019165295A (ja) 情報処理装置
JP7176792B1 (ja) 情報処理システム及び情報処理方法
WO2019054086A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN116610825A (zh) 信息提供系统、方法、以及存储介质
KR101678137B1 (ko) 위치 공유 서비스 제공 방법 및 컴퓨터 프로그램
US20170213367A1 (en) User data processing method, and device for displaying data acquired from a wearable device
US20220163338A1 (en) Information processing apparatus and non-transitory computer readable medium
JP6463529B1 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
US20240013256A1 (en) Information providing apparatus, information providing system, information providing method, and non-transitory computer readable medium
US20240029109A1 (en) Information providing apparatus, information providing system, information providing method, and non-transitory computer readable medium
JP7501652B2 (ja) 情報処理装置、制御方法、制御プログラム、及び情報処理システム
US12160714B2 (en) Sound processing apparatus, sound processing system, sound processing method, and non-transitory computer readable medium storing program
CN119826815A (zh) 头戴式设备的导航方法、装置、介质及头戴式设备
JP5211955B2 (ja) 端末装置、ヘッドマウントディスプレイ装置及び配信システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240726

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250318

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250603

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250617

R150 Certificate of patent or registration of utility model

Ref document number: 7703181

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150