JP2023134110A - Broadcasting system, receiver, receiving method, and program - Google Patents
Broadcasting system, receiver, receiving method, and program Download PDFInfo
- Publication number
- JP2023134110A JP2023134110A JP2022039467A JP2022039467A JP2023134110A JP 2023134110 A JP2023134110 A JP 2023134110A JP 2022039467 A JP2022039467 A JP 2022039467A JP 2022039467 A JP2022039467 A JP 2022039467A JP 2023134110 A JP2023134110 A JP 2023134110A
- Authority
- JP
- Japan
- Prior art keywords
- audio
- broadcasting
- receiver
- application
- adjustment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、放送システム、受信機、受信方法、及びプログラムに関する。 The present invention relates to a broadcasting system, a receiver, a receiving method, and a program.
地上デジタル放送では、放送局から送信された音声の調整は、受信機ごとに固有の調整メニューによって行う必要があった。次世代の地上波デジタル放送では、MPEG-Hオーディオ等のオブジェクトベースの音声信号を用いることが検討されている。
MPEG-Hオーディオ等のオブジェクトベースの音声信号では、ユーザが調整可能な音声パラメータが放送局から送出され、当該音声パラメータを用いてユーザに音声調整機能が提供される。当該音声調整機能は、GUIにより調整可能である。
特許文献1には、複数の楽曲等の音声を同時かつ選択的に聞き分け可能に提供することが記載されている。
In digital terrestrial broadcasting, it is necessary to adjust the audio transmitted from the broadcasting station using a unique adjustment menu for each receiver. In the next generation of terrestrial digital broadcasting, the use of object-based audio signals such as MPEG-H audio is being considered.
In object-based audio signals such as MPEG-H audio, user-adjustable audio parameters are transmitted from a broadcast station and are used to provide audio adjustment functionality to the user. The audio adjustment function can be adjusted using the GUI.
Patent Document 1 describes providing sounds such as a plurality of songs simultaneously and selectively so that they can be heard.
特許文献1では、複数の楽曲などの音声を合成して提供することが開示されているが、MPEG-Hオーディオ等のオブジェクトベースの音声信号では、オブジェクト単位での音声調整が求められる。
ここで、音声調整機能のためのGUIを受信機ごとに実装すると、コンテンツ制作者の意図が正確に反映されなかったり、受信機の製造者や受信機の機種によってGUIのデザインや操作方法が変わってしまったりする恐れがある。そのため、音声調整機能に関するユーザの利便性が十分でないことがあった。
Patent Document 1 discloses that the sounds of a plurality of songs are synthesized and provided, but object-based audio signals such as MPEG-H audio require sound adjustment on an object-by-object basis.
If a GUI for the audio adjustment function is implemented for each receiver, the intentions of the content creator may not be accurately reflected, or the GUI design and operation method may differ depending on the receiver manufacturer or receiver model. There is a risk that it may be damaged. Therefore, the user's convenience regarding the audio adjustment function may not be sufficient.
本発明は上記の点に鑑みてなされたものであり、操作性やデザインを統一したGUIでの音声調整機能を提供することができる放送システム、受信機、受信方法、及びプログラムを提供する。 The present invention has been made in view of the above points, and provides a broadcasting system, a receiver, a receiving method, and a program that can provide an audio adjustment function on a GUI with unified operability and design.
(1)本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、MPEG-Hオーディオを含む放送を行う放送システムであって、ユーザが音声調整を行うためのアプリケーションを、データ放送で受信する受信部、を備える、放送システムである。 (1) The present invention has been made to solve the above problems, and one aspect of the present invention is a broadcasting system that performs broadcasting including MPEG-H audio, which allows a user to adjust audio. This is a broadcasting system including a receiving unit that receives an application via data broadcasting.
(2)また、本発明の一態様は、MMPEG-Hオーディオを含む放送を行う放送システムにおける受信機であって、ユーザが音声調整を行うためのアプリケーションを、データ放送で受信する受信部、を備える、受信機である。 (2) Further, one aspect of the present invention is a receiver in a broadcasting system that performs broadcasting including MMPEG-H audio, which includes a receiving unit that receives an application for a user to perform audio adjustment via data broadcasting. It is equipped with a receiver.
(3)また、本発明の一態様は、MPEG-Hオーディオを含む放送を行う放送システムにおける受信機の受信方法であって、受信機が、ユーザが音声調整を行うためのアプリケーションを、データ放送で受信する受信ステップ、を有する、受信方法である。 (3) Further, one aspect of the present invention is a reception method of a receiver in a broadcasting system that performs broadcasting including MPEG-H audio, in which the receiver receives an application for a user to perform audio adjustment for data broadcasting. A receiving method includes a receiving step of receiving at.
(4)また、本発明の一態様は、MPEG-Hオーディオを含む放送を行う放送システムにおける受信機に用いられるプログラムであって、受信機に、ユーザが音声調整を行うためのアプリケーションを、データ放送で受信する受信ステップ、を実行させるためのプログラムである。 (4) Further, one aspect of the present invention is a program used in a receiver in a broadcasting system that performs broadcasting including MPEG-H audio, the receiver having an application that allows a user to adjust audio. This is a program for executing a receiving step for receiving broadcasting.
本発明によれば、操作性やデザインを統一したGUIでの音声調整機能を提供することができる。 According to the present invention, it is possible to provide an audio adjustment function using a GUI with unified operability and design.
以下、図面を参照しながら本発明の実施形態について詳しく説明する。 Embodiments of the present invention will be described in detail below with reference to the drawings.
[システム構成]
図1は、本発明の実施形態に係る放送システムSysの構成の一例を示す図である。
放送システムSysは、放送局1の放送装置、受信機2、放送局サーバ3、及び事業者サーバ4を具備する。放送は、地上デジタル放送を利用した放送である。ただし本発明は、これらの放送に限られず、放送は、放送衛星を用いた放送であってもよい。放送衛星を用いた放送は、例えば高度BS(Broadcasting Satellites)デジタル放送又は高度広帯域CS(Communication Satellites)デジタル放送である。また放送は、ケーブルテレビ等の有線放送であってもよい。
[System configuration]
FIG. 1 is a diagram showing an example of the configuration of a broadcasting system Sys according to an embodiment of the present invention.
The broadcasting system Sys includes a broadcasting device of a broadcasting station 1, a
放送システムSysでは、放送局の放送局1から放送波によってデジタル放送信号、アプリケーション制御情報、提示に関する制御情報などを送出する。サービス事業者は、事業者サーバ4から、番組に関連するメタデータや動画コンテンツ等を提供する。
アプリケーション制御情報は、番組と連動するアプリケーション等を本システム対応受信機に周知するとともに起動・終了のためのコマンド、制御情報を送るものである。
提示に関する制御情報は、アプリケーションと放送番組の同一TV画面上での重ね合わせやアプリケーションの提示の可否に関する制御情報を送るものである。
放送局は、放送システムSysにおいて、放送局サーバ3を運営する。放送局サーバ3は、番組タイトル、番組ID、番組概要、出演者、放送日時などのメタデータの提供を行う。放送局がサービス事業者に提供する情報は、放送局サーバ3が備えるAPI(Application Programming Interface)を通して提供される。
In the broadcasting system Sys, a broadcasting station 1 transmits digital broadcasting signals, application control information, presentation-related control information, etc. via broadcast waves. The service provider provides metadata, video content, etc. related to the program from the
The application control information informs receivers compatible with this system of applications and the like that are linked with the program, and also sends commands and control information for starting and terminating the program.
The control information regarding presentation is to send control information regarding whether an application and a broadcast program can be superimposed on the same TV screen and whether the application can be presented.
The broadcasting station operates a broadcasting station server 3 in the broadcasting system Sys. The broadcast station server 3 provides metadata such as a program title, program ID, program summary, performers, and broadcast date and time. The information provided by the broadcast station to the service provider is provided through an API (Application Programming Interface) included in the broadcast station server 3.
サービス事業者は、放送システムSysによるサービスを提供する者であり、サービスを提供するためのコンテンツ、アプリケーションの制作・配信、個々のサービスを実現するための放送局サーバ3の運営を行う。ここで、サービスには、放送と通信を連携させる放送通信連携サービスが含まれる。
放送局サーバ3は、「アプリケーションの管理・配布」のため、受信機2に対してアプリケーションの送出を行う。放送局サーバ3は、「サービス毎のサーバ」として、個々のサービス(MPEG-Hサービス、VOD番組レコメンドサービス、多言語字幕サービス等)を実現するためのサーバ機能を提供する。
The service provider is a person who provides services by the broadcasting system Sys, and produces and distributes content and applications for providing services, and operates the broadcasting station server 3 to realize individual services. Here, the service includes a broadcast communication cooperation service that links broadcasting and communication.
The broadcast station server 3 sends applications to the
MPEG-Hは、デジタルコンテナ標準、動画圧縮標準、音声圧縮標準、そして2つの順応試験標準のため、ISO/IEC Moving Picture Experts Group(MPEG)の開発下にある一連の標準である。MPEG-Hオーディオでは、例えば、オブジェクトベース音響が可能である。オブジェクトベース音響の「オブジェクト」とは、音楽や人の声などの番組を構成する音の素材一つ一つである。オブジェクトベース音響では、音の素材ごとに音声信号が記録され、素材ごとの音声制御が可能である。また、受信機2で再生する時に、素材の再生位置情報を基に、実際に置かれているスピーカーの位置に合わせて番組を再生することも可能である。
MPEG-H is a series of standards under development by the ISO/IEC Moving Picture Experts Group (MPEG) for a digital container standard, a video compression standard, an audio compression standard, and two compliance test standards. MPEG-H audio, for example, allows object-based sound. An "object" in object-based audio is each sound material that makes up a program, such as music or human voices. In object-based audio, audio signals are recorded for each sound material, and audio can be controlled for each material. Furthermore, when playing back the program on the
放送局サーバ3は、こうしたサービスの機能面を実現するだけでなく、サービスを構成するコンテンツ(MPEG-Hオーディオデータ、VODコンテンツ、字幕データなど)の送出も行う。放送局サーバ3は、「リポジトリ」として、放送システムSysのアプリケーションを配布するために登録し、受信機2からの問い合わせに応じて提供可能なアプリケーションの一覧の提供や検索を行う。
The broadcasting station server 3 not only realizes the functional aspects of these services, but also sends out the contents (MPEG-H audio data, VOD contents, subtitle data, etc.) that constitute the services. The broadcasting station server 3 registers as a "repository" for distributing applications of the broadcasting system Sys, and provides a list of applications that can be provided or searches in response to an inquiry from the
受信機2には、既存デジタル放送の受信機能に加えて、放送通信連携サービスを実現するための機能を備えたものも含まれる。受信機2には、ブロードバンドネットワーク接続機能に加え、次の機能を有している。
・放送からのアプリケーション制御信号に応じてアプリケーションを受信する機能
・放送からのアプリケーション制御信号に応じてアプリケーションを実行する機能
・放送と通信間の連携による提示を行う機能
・端末連携機能
ここで、端末には、例えば、スマートフォンやスマートスピーカー等のユーザ端末が含まれる。受信機2の端末連携機能は、他の端末の要求に応じて番組情報などの放送リソースにアクセスしたり、再生制御当の受信機機能を呼び出したりする。
また、アプリケーションの例としては、MPEG-Hオーディオのデジタルミキサーが含まれる。ユーザ(「受信者」ともいう)は、事業者サーバ4から受信したデジタルミキサーを用いて、音の素材ごとの音声信号に対して音の強弱又はエフェクト等の調整や音の素材間のバランスを調整可能である。これらの調整は、スピーカーごとに行うことも可能である。
The
・Function to receive applications in response to application control signals from broadcasting ・Function to execute applications in response to application control signals from broadcasting ・Function to perform presentation through cooperation between broadcasting and communication ・Terminal cooperation function Here, terminal Examples include user terminals such as smartphones and smart speakers. The terminal coordination function of the
Examples of applications include MPEG-H audio digital mixers. The user (also referred to as the "receiver") uses the digital mixer received from the
より具体的には、受信機2は、次の機能を有する。
受信機2は、「放送受信再生」機能として、放送電波を受信し、特定の放送サービスを選局して、サービスを構成する映像、音声、字幕、データ放送を同期再生する機能を有する。
受信機2は、「通信コンテンツ受信再生」機能として、通信ネットワーク上のサーバ(例えば事業者サーバ4)に置かれた映像コンテンツにアクセスし、VODストリーミングとして受信し、コンテンツを構成する映像、音声、字幕を同期再生する機能を有する。
受信機2は、「アプリケーション制御」機能として、通信ネットワーク上のサーバあるいは放送信号から取得したアプリケーション制御情報に基づき、主にマネージドアプリケーションに関してアプリケーションエンジンに対して働きかけ、アプリケーション単位のライフサイクル及びイベントの制御・管理を行う機能を有する。
受信機2は、「アプリケーションエンジン」機能として、アプリケーションを取得し、実行する機能を有する。この機能は、例えばHTML5ブラウザで実現される。
受信機2は、「提示同期制御」機能として、放送受信による映像・音声等のストリームと、ストリーミング受信による映像・音声等のストリーム提示同期を制御する機能を有する。
受信機2は、「アプリケーションロンチャー」機能として、主に放送外マネージドアプリケーションをユーザが選択、起動するためのナビゲーション機能を有する。
More specifically, the
The
As a "communication content reception and playback" function, the
As an "application control" function, the
The
As a "presentation synchronization control" function, the
As an "application launcher" function, the
なお、以下の説明において、放送局1、放送局サーバ3、事業者サーバ4を特に区別しない場合には、これらのいずれかである場合を含むものとして放送局1として説明する。
In addition, in the following description, when the broadcasting station 1, the broadcasting station server 3, and the
図2は、本実施形態に係る受信機の機能構成の一例を示すブロック図である。
図2の受信機2は、MPEG-Hの音声に対応した受信機である。
FIG. 2 is a block diagram showing an example of the functional configuration of the receiver according to this embodiment.
The
放送局1は、映像信号A11と音声信号(「MPEG-Hオーディオ信号」A12とも称する)を送信する。放送局1は、オブジェクトベースの音声を音声コンポーネント(アセット)とし、この音声コンポーネントとチャンネルベースの各音声の音声コンポーネントとが多重化されたMPEG-Hオーディオ信号A12を、放送波に含めて送信する。
また、放送局1は、MPEG-Hオーディオ信号A12を、放送波に含めて送出すると場合に、ユーザが音声調整を行うためのアプリケーションである音声調整アプリケーションA13をデータ放送で同時に送出する。
Broadcasting station 1 transmits a video signal A11 and an audio signal (also referred to as "MPEG-H audio signal" A12). Broadcasting station 1 uses object-based audio as an audio component (asset), and transmits an MPEG-H audio signal A12 in which this audio component and audio components of each channel-based audio are multiplexed together in a broadcast wave. .
Furthermore, when transmitting the MPEG-H audio signal A12 in a broadcast wave, the broadcasting station 1 simultaneously transmits an audio adjustment application A13, which is an application for a user to perform audio adjustment, as a data broadcast.
受信機2は、チューナー21、Demux(デマルチプレクサ)22、映像デコーダー23、音声デコーダー24、映像調整部25、音声調整部26、ブラウザAPI部27、データ放送ブラウザ部28を含んで構成される。
The
チューナー21は、アンテナを介して放送波を受信し、ユーザ操作に基づいて選択されていているチャンネルに同調(選局)する。同調された信号は復調され、データとしてDemux22へ入力される。
The
Demux22は、入力されたデータを、映像データ列、音声データ列、文字スーパーデータ列、字幕データ列等に分離する。分離された音声データ列は、音声デコーダー24へ出力される。分離された映像データ列は、映像デコーダー23へ出力される。
The
Demux22から出力された映像データ列は、映像デコーダー23に入力される。
映像デコーダー23は、入力された映像データ列を復号化する。
The video data string output from the
The
また、Demux22に分離された文字スーパーデータ列及び字幕データ列は、それぞれ、文字スーパーデコーダー及び字幕デコーダー(不図示)で復号化され、復号かされた文字列は、映像に重畳される。
Further, the text super data string and the subtitle data string separated into the
Demux22から出力された各音声コンポーネントの音声データ列は、音声デコーダー24へ出力される。
音声デコーダー24は、音声コンポーネントの音声データ列を復号化する。また、音声デコーダー24は、Demux22から入力された音声データ列からメタデータを抽出する。音声デコーダー24は、ブラウザAPI部27からの要求に応じてメタデータをブラウザAPI部27に出力する。
The audio data string of each audio component output from the
The
映像調整部25は、復号化された映像データ列に対して色空間変換処理を行い、ディスプレイでの映像の表示に用いる。
The
音声調整部26は、音声デコーダー24によって復号化された音声データ列と、ブラウザAPI部27から出力される調整情報に基づいて、音の素材ごとの音声を合成して、ダウンミックス処理を行う。ダウンミックス処理をされた音声データ列は、音声に変換されてスピーカーから出力される。
The
ブラウザAPI部27は、データ放送ブラウザ部28による指示信号に基づいて、音声デコーダー24または/および本体情報記憶部29からAPIを用いてメタデータを取得する。ブラウザAPI部27は、データ放送ブラウザ部28からの指示信号に基づいて、APIを用いてメタデータの調整値を示す調整情報を音声調整部26へ出力する。
The
データ放送ブラウザ部28は、放送局1からデータ放送経由で送出された音声調整アプリケーションを起動する。
データ放送ブラウザ部28は、ブラウザAPI部27を介してメタデータを音声デコーダー24または/および本体情報記憶部29から取得する。データ放送ブラウザ部28は、メタデータに基づいて、ユーザによって音声調整可能なパラメータの初期値を取得する。データ放送ブラウザ部28は、音声調整アプリケーションに、音声調整可能なパラメータの初期値をセットする。
The data broadcast
The data broadcasting
例えば、データ放送ブラウザ部28は、音声調整アプリケーションの実行によりGUIを表示し、当該GUIに対するユーザ操作によって音声調整パラメータを取得する。
データ放送ブラウザ部28は、ブラウザAPI部27を介して、調整パラメータによってに基づく調整情報を音声調整部26へ出力する。
For example, the data broadcasting
The data broadcasting
本体情報記憶部29は、本体情報を記憶する。本体情報は、受信機2が予め記憶する情報であり、例えば、スピーカーの位置情報や、視聴者の向いている方向などの視聴シーンの設置情報などである。
The main body
以上のように、本実施形態に係る受信機2は、MPEG-Hオーディオを含む放送を行う放送システムであって、ユーザが音声調整を行うためのアプリケーションをデータ放送で受信する。受信したアプリケーションを実行することにより、受信機のメーカーや機種によらず、操作性やデザインを統一したGUIを介してユーザによる音声調整が可能となるため、ユーザの利便性を向上させることができる。
As described above, the
[メタデータの定義]
次いで、本実施形態で用いるMPEG-Hで定義される4つのメタデータの定義について説明する。
図3は、本実施形態で用いるメタデータの定義の一例を示す図である。
図示するように、本実施形態で用いるメタデータは、インタラクティブに関するデータ、個別の設定に関するデータ、MPEG-H全体の構成に関するデータ、オーディオシーンの設置データの4つのデータである。これらのメタデータは、mpegh3daElementInteraction()、mpegh3daLocalSetupInformation()、mpegh3daConfig()、mpegh3daSceneDisplacement()のように、API関数によって記述される。このうちmpegh3daElementInteraction()と、mpegh3daConfig()の2つのメタデータは、放送局から送られてくるMPEG-Hオーディオデータに含まれ、音声デコーダー24から取得可能である。また、mpegh3daLocalSetupInformation()と、mpegh3daSceneDisplacement()の2つメタデータは、受信機2の本体情報から取得可能である。
[Metadata definition]
Next, the definitions of four metadata defined by MPEG-H used in this embodiment will be explained.
FIG. 3 is a diagram showing an example of the definition of metadata used in this embodiment.
As shown in the figure, the metadata used in this embodiment includes four types of data: data related to interactivity, data related to individual settings, data related to the overall MPEG-H configuration, and data on audio scene installation. These metadata are described by API functions like mpegh3daElementInteraction(), mpegh3daLocalSetupInformation(), mpegh3daConfig(), mpegh3daSceneDisplacement(). . Two of these metadata, mpegh3daElementInteraction() and mpegh3daConfig(), are included in the MPEG-H audio data sent from the broadcasting station and can be obtained from the
[メタデータの取得]
次いで、ブラウザAPI部27によるメタデータの取得について説明する。図4~図7は、本実施形態に係るメタデータの取得指令の一例を示す図である。
図4~図7に図示する例では、メソッド名が「getMpegh3daElementInteraction()」とのメソッド名を有する。実行結果を示す戻り値の型は、「Mpegh3daElementInteractionオブジェクト」である。メソッド名が「getMpegh3daLocalSetupInformation()」とのメソッド名を有する。実行結果を示す戻り値の型は、「Mpegh3daLocalSetupInformationオブジェクト」である。メソッド名が「getMpegh3daConfig()」とのメソッド名を有する。実行結果を示す戻り値の型は、「Mpegh3daConfig()オブジェクト」である。メソッド名が「getMpegh3daSceneDisplacement()」とのメソッド名を有する。実行結果を示す戻り値の型は、「Mpegh3daSceneDisplacement()オブジェクト」である。
[Get metadata]
Next, acquisition of metadata by the
In the examples illustrated in FIGS. 4 to 7, the method name is "getMpegh3daElementInteraction()." The type of the return value indicating the execution result is "Mpegh3daElementInteraction object". The method name is "getMpegh3daLocalSetupInformation()". The type of return value indicating the execution result is "Mpegh3daLocalSetupInformation object". The method name is "getMpegh3daConfig()". The type of the return value indicating the execution result is "Mpegh3daConfig() object". The method name is "getMpegh3daSceneDisplacement()". The type of the return value indicating the execution result is "Mpegh3daSceneDisplacement() object".
ブラウザAPI部27は、データ放送ブラウザ部28による指示信号に基づいて、各「メソッド名」で定義される取得指令を実行し、音声デコーダー24または/および本体情報記憶部29からメタデータを取得する。
The
[メタデータの更新]
次いで、ブラウザAPI部27によるメタデータの更新について説明する。図8~図11は、本実施形態に係るメタデータの更新指令の一例を示す図である。
図8~図11に図示する例では、メソッド名が「putMpegh3daElementInteraction()」とのメソッド名を有する。実行結果を示す戻り値の型は、「Mpegh3daElementInteractionオブジェクト」である。メソッド名が「putMpegh3daLocalSetupInformation()」とのメソッド名を有する。実行結果を示す戻り値の型は、「Mpegh3daLocalSetupInformationオブジェクト」である。メソッド名が「putMpegh3daConfig()」とのメソッド名を有する。実行結果を示す戻り値の型は、「Mpegh3daConfig()オブジェクト」である。メソッド名が「putMpegh3daSceneDisplacement()」とのメソッド名を有する。実行結果を示す戻り値の型は、「Mpegh3daSceneDisplacement()オブジェクト」である。
[Update metadata]
Next, updating of metadata by the
In the examples illustrated in FIGS. 8 to 11, the method name is "putMpegh3daElementInteraction()." The type of the return value indicating the execution result is "Mpegh3daElementInteraction object". The method name is "putMpegh3daLocalSetupInformation()". The type of return value indicating the execution result is "Mpegh3daLocalSetupInformation object". The method name is "putMpegh3daConfig()". The type of the return value indicating the execution result is "Mpegh3daConfig() object". The method name is "putMpegh3daSceneDisplacement()". The type of the return value indicating the execution result is "Mpegh3daSceneDisplacement() object".
ブラウザAPI部27は、データ放送ブラウザ部28による指示信号に基づいて、各「メソッド名」で定義される更新指令を実行し、メタデータを更新する。
The
[処理の流れ]
次いで、本実施形態に係る音声調整処理の一例について説明する。
図12は、本実施形態に係る音声調整処理の一例を示すフローチャートである。
(ステップS101)
受信機2は、ユーザ操作による選局操作、電源操作に応じて、選局されているコンテンツに対応するデータ放送から、音声調整アプリケーションを受信し、起動する。
(ステップS102)
受信機2は、分離された音声データからメタデータを抽出する。
(ステップS103)
受信機2は、API取得指令によりメタデータを音声デコーダー24または/および本体情報記憶部29から取得する。
[Processing flow]
Next, an example of the audio adjustment process according to this embodiment will be described.
FIG. 12 is a flowchart illustrating an example of the audio adjustment process according to this embodiment.
(Step S101)
The
(Step S102)
The
(Step S103)
The
(ステップS104)
受信機2は、取得したメタデータに基づいて、音声調整可能な音声ごとのパラメータの初期値を、音声調整アプリケーションにセットする。
(ステップS105)
受信機2は、音声調整アプリケーションに対するユーザ操作を受け付ける。受信機2は、音声調整アプリケーションに対するユーザ操作を受け付けた場合、当該操作された音声ごとのパラメータを、API更新指令によってメタデータを更新する。
(ステップS106)
受信機2は、更新されたメタデータに基づいて、音声調整を実行する。
(Step S104)
Based on the acquired metadata, the
(Step S105)
The
(Step S106)
このように、本実施形態に係る受信機2は、MPEG-Hオーディオを含む放送を行う放送システムにおける受信機であって、ユーザが音声調整を行うためのアプリケーションを、データ放送で受信する。
As described above, the
これにより、各受信機にGUIを実装することなく、操作性やデザインを統一したGUIでの音声調整機能を提供することができる。また、受信機のメーカーや機種によらず統一したGUIを用いることでユーザの利便性を向上させることができる。 As a result, it is possible to provide an audio adjustment function using a GUI with unified operability and design without implementing a GUI in each receiver. Further, user convenience can be improved by using a unified GUI regardless of the manufacturer or model of the receiver.
なお、上述した実施形態における放送局1、受信機2、放送局サーバ3、事業者サーバ4の一部、例えば、受信機2のDemux22、音声デコーダー24、音声調整部26、映像デコーダー23、映像調整部25、ブラウザAPI部27、データ放送ブラウザ部28の少なくとも一部をコンピュータで実現するようにしてもよい。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、放送局1、受信機2、放送局サーバ3、又は事業者サーバ4に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
また、上述した実施形態における放送局1、受信機2、放送局サーバ3、及び事業者サーバ4の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。放送局1、受信機2、放送局サーバ3、及び事業者サーバ4の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
Note that some of the broadcasting station 1,
Furthermore, part or all of the broadcast station 1,
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 Although one embodiment of the present invention has been described above in detail with reference to the drawings, the specific configuration is not limited to that described above, and various design changes etc. may be made without departing from the gist of the present invention. It is possible to
Sys 放送システム
1 放送局
2 受信機
3 放送局サーバ
4 事業者サーバ
21 チューナー
22 Demux
23 映像デコーダー
24 音声デコーダー
25 映像調整部
26 音声調整部
27 ブラウザAPI部
28 データ放送ブラウザ部
29 本体情報記憶部
Sys Broadcasting system 1
23
Claims (6)
ユーザが音声調整を行うためのアプリケーションを、データ放送で受信する受信部、
を備える、
放送システム。 A broadcasting system that performs broadcasting including MPEG-H audio,
a receiving unit that receives an application for audio adjustment by a user via data broadcasting;
Equipped with
broadcast system.
前記実行部は、MPEG-Hオーディオのメタデータを取得するためのAPIを規定する規定部と、
をさらに備え、
前記実行部は、前記メタデータをブラウザに受け渡すことで音声調整を行う
請求項1に記載の放送システム。 an execution unit that executes the application;
The execution unit includes a regulation unit that defines an API for acquiring MPEG-H audio metadata;
Furthermore,
The broadcasting system according to claim 1, wherein the execution unit performs audio adjustment by passing the metadata to a browser.
請求項1または2に記載の放送システム。 The audio adjustment is performed on an object-by-object basis.
The broadcasting system according to claim 1 or 2.
ユーザが音声調整を行うためのアプリケーションを、データ放送で受信する受信部、
を備える、
受信機。 A receiver in a broadcasting system that performs broadcasting including MPEG-H audio,
a receiving unit that receives an application for audio adjustment by a user via data broadcasting;
Equipped with
Receiving machine.
ユーザが音声調整を行うためのアプリケーションを、データ放送で受信する受信ステップ、
を有する、受信方法。 A receiving method for a receiver in a broadcasting system that performs broadcasting including MPEG-H audio, the receiver comprising:
a receiving step of receiving an application for a user to perform audio adjustment via data broadcasting;
A reception method having.
ユーザが音声調整を行うためのアプリケーションを、データ放送で受信する受信ステップ、
を実行させるためのプログラム。 A program used in a receiver in a broadcasting system that performs broadcasting including MPEG-H audio, the program includes:
a receiving step of receiving an application for a user to perform audio adjustment via data broadcasting;
A program to run.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022039467A JP2023134110A (en) | 2022-03-14 | 2022-03-14 | Broadcasting system, receiver, receiving method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022039467A JP2023134110A (en) | 2022-03-14 | 2022-03-14 | Broadcasting system, receiver, receiving method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2023134110A true JP2023134110A (en) | 2023-09-27 |
Family
ID=88143721
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022039467A Pending JP2023134110A (en) | 2022-03-14 | 2022-03-14 | Broadcasting system, receiver, receiving method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2023134110A (en) |
-
2022
- 2022-03-14 JP JP2022039467A patent/JP2023134110A/en active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8341670B2 (en) | Method and system for providing application service | |
| JP6043089B2 (en) | Broadcast communication cooperative receiver | |
| JP3731554B2 (en) | Signal processing apparatus and signal processing method | |
| KR102630037B1 (en) | Information processing device, information processing method, transmission device, and transmission method | |
| JP2000358201A (en) | Method and apparatus for controlling operation time of application in digital data broadcasting | |
| US20020010924A1 (en) | Push method and system | |
| JP2023130333A (en) | Time-shifted playback | |
| KR101371016B1 (en) | Method and apparatus for transmitting/receiving broadcasting information using reserved channels | |
| JP2022507914A (en) | Equipment and methods for Advanced Television Systems Commission (ATSC) 3.0 applications running on non-ATSC 3.0 services. | |
| JP2023134110A (en) | Broadcasting system, receiver, receiving method, and program | |
| JP2023145144A (en) | Broadcasting system, receiver, reception method, and program | |
| JP2023183745A (en) | Broadcasting system, receiver, reception method, and program | |
| US11343588B2 (en) | Information processing apparatus, information processing method, transmission apparatus, and transmission method | |
| JP7737586B1 (en) | Receiving device and receiving method | |
| JP7634763B1 (en) | Receiving device and receiving method | |
| JP7738407B2 (en) | Receiving device, client terminal device, and program | |
| JP2024069092A (en) | Receiving device, receiving method, and program | |
| JP2025104727A (en) | Receiving device, broadcasting system, receiving method, and program | |
| JP2024099992A (en) | Receiving device and program | |
| JP2024017228A (en) | Broadcasting system, receiver, reception method, and program | |
| JP2024034712A (en) | Receiving device, broadcasting system, receiving method, and program | |
| CN114286168A (en) | Program list processing method, display device and storage medium | |
| KR20010042543A (en) | Method and apparatus for presenting a program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20250310 |