[go: up one dir, main page]

JP2023134110A - Broadcasting system, receiver, receiving method, and program - Google Patents

Broadcasting system, receiver, receiving method, and program Download PDF

Info

Publication number
JP2023134110A
JP2023134110A JP2022039467A JP2022039467A JP2023134110A JP 2023134110 A JP2023134110 A JP 2023134110A JP 2022039467 A JP2022039467 A JP 2022039467A JP 2022039467 A JP2022039467 A JP 2022039467A JP 2023134110 A JP2023134110 A JP 2023134110A
Authority
JP
Japan
Prior art keywords
audio
broadcasting
receiver
application
adjustment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022039467A
Other languages
Japanese (ja)
Inventor
智夫 西垣
Tomoo Nishigaki
秀樹 鈴木
Hideki Suzuki
裕史 川添
Hirofumi Kawazoe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2022039467A priority Critical patent/JP2023134110A/en
Publication of JP2023134110A publication Critical patent/JP2023134110A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

To provide a sound adjustment function in GUI with unified operability and design.SOLUTION: A broadcasting system, which executes broadcasting including MPEG-H audio, comprises a receiving unit for receiving an application for a user to adjust sounds, by data broadcasting.SELECTED DRAWING: Figure 2

Description

本発明は、放送システム、受信機、受信方法、及びプログラムに関する。 The present invention relates to a broadcasting system, a receiver, a receiving method, and a program.

地上デジタル放送では、放送局から送信された音声の調整は、受信機ごとに固有の調整メニューによって行う必要があった。次世代の地上波デジタル放送では、MPEG-Hオーディオ等のオブジェクトベースの音声信号を用いることが検討されている。
MPEG-Hオーディオ等のオブジェクトベースの音声信号では、ユーザが調整可能な音声パラメータが放送局から送出され、当該音声パラメータを用いてユーザに音声調整機能が提供される。当該音声調整機能は、GUIにより調整可能である。
特許文献1には、複数の楽曲等の音声を同時かつ選択的に聞き分け可能に提供することが記載されている。
In digital terrestrial broadcasting, it is necessary to adjust the audio transmitted from the broadcasting station using a unique adjustment menu for each receiver. In the next generation of terrestrial digital broadcasting, the use of object-based audio signals such as MPEG-H audio is being considered.
In object-based audio signals such as MPEG-H audio, user-adjustable audio parameters are transmitted from a broadcast station and are used to provide audio adjustment functionality to the user. The audio adjustment function can be adjusted using the GUI.
Patent Document 1 describes providing sounds such as a plurality of songs simultaneously and selectively so that they can be heard.

特開2013-62652号公報Japanese Patent Application Publication No. 2013-62652

特許文献1では、複数の楽曲などの音声を合成して提供することが開示されているが、MPEG-Hオーディオ等のオブジェクトベースの音声信号では、オブジェクト単位での音声調整が求められる。
ここで、音声調整機能のためのGUIを受信機ごとに実装すると、コンテンツ制作者の意図が正確に反映されなかったり、受信機の製造者や受信機の機種によってGUIのデザインや操作方法が変わってしまったりする恐れがある。そのため、音声調整機能に関するユーザの利便性が十分でないことがあった。
Patent Document 1 discloses that the sounds of a plurality of songs are synthesized and provided, but object-based audio signals such as MPEG-H audio require sound adjustment on an object-by-object basis.
If a GUI for the audio adjustment function is implemented for each receiver, the intentions of the content creator may not be accurately reflected, or the GUI design and operation method may differ depending on the receiver manufacturer or receiver model. There is a risk that it may be damaged. Therefore, the user's convenience regarding the audio adjustment function may not be sufficient.

本発明は上記の点に鑑みてなされたものであり、操作性やデザインを統一したGUIでの音声調整機能を提供することができる放送システム、受信機、受信方法、及びプログラムを提供する。 The present invention has been made in view of the above points, and provides a broadcasting system, a receiver, a receiving method, and a program that can provide an audio adjustment function on a GUI with unified operability and design.

(1)本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、MPEG-Hオーディオを含む放送を行う放送システムであって、ユーザが音声調整を行うためのアプリケーションを、データ放送で受信する受信部、を備える、放送システムである。 (1) The present invention has been made to solve the above problems, and one aspect of the present invention is a broadcasting system that performs broadcasting including MPEG-H audio, which allows a user to adjust audio. This is a broadcasting system including a receiving unit that receives an application via data broadcasting.

(2)また、本発明の一態様は、MMPEG-Hオーディオを含む放送を行う放送システムにおける受信機であって、ユーザが音声調整を行うためのアプリケーションを、データ放送で受信する受信部、を備える、受信機である。 (2) Further, one aspect of the present invention is a receiver in a broadcasting system that performs broadcasting including MMPEG-H audio, which includes a receiving unit that receives an application for a user to perform audio adjustment via data broadcasting. It is equipped with a receiver.

(3)また、本発明の一態様は、MPEG-Hオーディオを含む放送を行う放送システムにおける受信機の受信方法であって、受信機が、ユーザが音声調整を行うためのアプリケーションを、データ放送で受信する受信ステップ、を有する、受信方法である。 (3) Further, one aspect of the present invention is a reception method of a receiver in a broadcasting system that performs broadcasting including MPEG-H audio, in which the receiver receives an application for a user to perform audio adjustment for data broadcasting. A receiving method includes a receiving step of receiving at.

(4)また、本発明の一態様は、MPEG-Hオーディオを含む放送を行う放送システムにおける受信機に用いられるプログラムであって、受信機に、ユーザが音声調整を行うためのアプリケーションを、データ放送で受信する受信ステップ、を実行させるためのプログラムである。 (4) Further, one aspect of the present invention is a program used in a receiver in a broadcasting system that performs broadcasting including MPEG-H audio, the receiver having an application that allows a user to adjust audio. This is a program for executing a receiving step for receiving broadcasting.

本発明によれば、操作性やデザインを統一したGUIでの音声調整機能を提供することができる。 According to the present invention, it is possible to provide an audio adjustment function using a GUI with unified operability and design.

本発明の実施形態に係る放送システムの構成の一例を示す図である。1 is a diagram showing an example of the configuration of a broadcasting system according to an embodiment of the present invention. 本実施形態に係る受信機の機能構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the functional configuration of a receiver according to the present embodiment. 本実施形態に係るメタデータの定義の一例を示す図である。FIG. 3 is a diagram illustrating an example of a definition of metadata according to the present embodiment. 本実施形態に係る取得指令の一例を示す図である。It is a figure showing an example of an acquisition command concerning this embodiment. 本実施形態に係る取得指令の一例を示す図である。It is a figure showing an example of an acquisition command concerning this embodiment. 本実施形態に係る取得指令の一例を示す図である。It is a figure showing an example of an acquisition command concerning this embodiment. 本実施形態に係る取得指令の一例を示す図である。It is a figure showing an example of an acquisition command concerning this embodiment. 本実施形態に係る更新指令の一例を示す図である。FIG. 3 is a diagram showing an example of an update command according to the present embodiment. 本実施形態に係る更新指令の一例を示す図である。FIG. 3 is a diagram showing an example of an update command according to the present embodiment. 本実施形態に係る更新指令の一例を示す図である。FIG. 3 is a diagram showing an example of an update command according to the present embodiment. 本実施形態に係る更新指令の一例を示す図である。FIG. 3 is a diagram showing an example of an update command according to the present embodiment. 本実施形態に係る音声調整処理の一例を示すフローチャートである。7 is a flowchart illustrating an example of audio adjustment processing according to the present embodiment.

以下、図面を参照しながら本発明の実施形態について詳しく説明する。 Embodiments of the present invention will be described in detail below with reference to the drawings.

[システム構成]
図1は、本発明の実施形態に係る放送システムSysの構成の一例を示す図である。
放送システムSysは、放送局1の放送装置、受信機2、放送局サーバ3、及び事業者サーバ4を具備する。放送は、地上デジタル放送を利用した放送である。ただし本発明は、これらの放送に限られず、放送は、放送衛星を用いた放送であってもよい。放送衛星を用いた放送は、例えば高度BS(Broadcasting Satellites)デジタル放送又は高度広帯域CS(Communication Satellites)デジタル放送である。また放送は、ケーブルテレビ等の有線放送であってもよい。
[System configuration]
FIG. 1 is a diagram showing an example of the configuration of a broadcasting system Sys according to an embodiment of the present invention.
The broadcasting system Sys includes a broadcasting device of a broadcasting station 1, a receiver 2, a broadcasting station server 3, and a provider server 4. The broadcast is a broadcast using terrestrial digital broadcasting. However, the present invention is not limited to these broadcasts, and the broadcast may be broadcast using a broadcast satellite. Broadcasting using broadcasting satellites is, for example, advanced BS (Broadcasting Satellites) digital broadcasting or advanced wideband CS (Communication Satellites) digital broadcasting. Moreover, the broadcast may be a cable broadcast such as cable television.

放送システムSysでは、放送局の放送局1から放送波によってデジタル放送信号、アプリケーション制御情報、提示に関する制御情報などを送出する。サービス事業者は、事業者サーバ4から、番組に関連するメタデータや動画コンテンツ等を提供する。
アプリケーション制御情報は、番組と連動するアプリケーション等を本システム対応受信機に周知するとともに起動・終了のためのコマンド、制御情報を送るものである。
提示に関する制御情報は、アプリケーションと放送番組の同一TV画面上での重ね合わせやアプリケーションの提示の可否に関する制御情報を送るものである。
放送局は、放送システムSysにおいて、放送局サーバ3を運営する。放送局サーバ3は、番組タイトル、番組ID、番組概要、出演者、放送日時などのメタデータの提供を行う。放送局がサービス事業者に提供する情報は、放送局サーバ3が備えるAPI(Application Programming Interface)を通して提供される。
In the broadcasting system Sys, a broadcasting station 1 transmits digital broadcasting signals, application control information, presentation-related control information, etc. via broadcast waves. The service provider provides metadata, video content, etc. related to the program from the provider server 4.
The application control information informs receivers compatible with this system of applications and the like that are linked with the program, and also sends commands and control information for starting and terminating the program.
The control information regarding presentation is to send control information regarding whether an application and a broadcast program can be superimposed on the same TV screen and whether the application can be presented.
The broadcasting station operates a broadcasting station server 3 in the broadcasting system Sys. The broadcast station server 3 provides metadata such as a program title, program ID, program summary, performers, and broadcast date and time. The information provided by the broadcast station to the service provider is provided through an API (Application Programming Interface) included in the broadcast station server 3.

サービス事業者は、放送システムSysによるサービスを提供する者であり、サービスを提供するためのコンテンツ、アプリケーションの制作・配信、個々のサービスを実現するための放送局サーバ3の運営を行う。ここで、サービスには、放送と通信を連携させる放送通信連携サービスが含まれる。
放送局サーバ3は、「アプリケーションの管理・配布」のため、受信機2に対してアプリケーションの送出を行う。放送局サーバ3は、「サービス毎のサーバ」として、個々のサービス(MPEG-Hサービス、VOD番組レコメンドサービス、多言語字幕サービス等)を実現するためのサーバ機能を提供する。
The service provider is a person who provides services by the broadcasting system Sys, and produces and distributes content and applications for providing services, and operates the broadcasting station server 3 to realize individual services. Here, the service includes a broadcast communication cooperation service that links broadcasting and communication.
The broadcast station server 3 sends applications to the receiver 2 for "application management and distribution". The broadcasting station server 3 serves as a "server for each service" and provides server functions for realizing individual services (MPEG-H service, VOD program recommendation service, multilingual subtitle service, etc.).

MPEG-Hは、デジタルコンテナ標準、動画圧縮標準、音声圧縮標準、そして2つの順応試験標準のため、ISO/IEC Moving Picture Experts Group(MPEG)の開発下にある一連の標準である。MPEG-Hオーディオでは、例えば、オブジェクトベース音響が可能である。オブジェクトベース音響の「オブジェクト」とは、音楽や人の声などの番組を構成する音の素材一つ一つである。オブジェクトベース音響では、音の素材ごとに音声信号が記録され、素材ごとの音声制御が可能である。また、受信機2で再生する時に、素材の再生位置情報を基に、実際に置かれているスピーカーの位置に合わせて番組を再生することも可能である。 MPEG-H is a series of standards under development by the ISO/IEC Moving Picture Experts Group (MPEG) for a digital container standard, a video compression standard, an audio compression standard, and two compliance test standards. MPEG-H audio, for example, allows object-based sound. An "object" in object-based audio is each sound material that makes up a program, such as music or human voices. In object-based audio, audio signals are recorded for each sound material, and audio can be controlled for each material. Furthermore, when playing back the program on the receiver 2, it is also possible to play the program in accordance with the position of the speakers actually placed based on the playback position information of the material.

放送局サーバ3は、こうしたサービスの機能面を実現するだけでなく、サービスを構成するコンテンツ(MPEG-Hオーディオデータ、VODコンテンツ、字幕データなど)の送出も行う。放送局サーバ3は、「リポジトリ」として、放送システムSysのアプリケーションを配布するために登録し、受信機2からの問い合わせに応じて提供可能なアプリケーションの一覧の提供や検索を行う。 The broadcasting station server 3 not only realizes the functional aspects of these services, but also sends out the contents (MPEG-H audio data, VOD contents, subtitle data, etc.) that constitute the services. The broadcasting station server 3 registers as a "repository" for distributing applications of the broadcasting system Sys, and provides a list of applications that can be provided or searches in response to an inquiry from the receiver 2.

受信機2には、既存デジタル放送の受信機能に加えて、放送通信連携サービスを実現するための機能を備えたものも含まれる。受信機2には、ブロードバンドネットワーク接続機能に加え、次の機能を有している。
・放送からのアプリケーション制御信号に応じてアプリケーションを受信する機能
・放送からのアプリケーション制御信号に応じてアプリケーションを実行する機能
・放送と通信間の連携による提示を行う機能
・端末連携機能
ここで、端末には、例えば、スマートフォンやスマートスピーカー等のユーザ端末が含まれる。受信機2の端末連携機能は、他の端末の要求に応じて番組情報などの放送リソースにアクセスしたり、再生制御当の受信機機能を呼び出したりする。
また、アプリケーションの例としては、MPEG-Hオーディオのデジタルミキサーが含まれる。ユーザ(「受信者」ともいう)は、事業者サーバ4から受信したデジタルミキサーを用いて、音の素材ごとの音声信号に対して音の強弱又はエフェクト等の調整や音の素材間のバランスを調整可能である。これらの調整は、スピーカーごとに行うことも可能である。
The receiver 2 includes one having a function for realizing a broadcast communication cooperation service in addition to the function of receiving existing digital broadcasts. In addition to the broadband network connection function, the receiver 2 has the following functions.
・Function to receive applications in response to application control signals from broadcasting ・Function to execute applications in response to application control signals from broadcasting ・Function to perform presentation through cooperation between broadcasting and communication ・Terminal cooperation function Here, terminal Examples include user terminals such as smartphones and smart speakers. The terminal coordination function of the receiver 2 accesses broadcast resources such as program information in response to requests from other terminals, and calls receiver functions for playback control.
Examples of applications include MPEG-H audio digital mixers. The user (also referred to as the "receiver") uses the digital mixer received from the operator server 4 to adjust the strength of the sound, effects, etc., and balance between the sound materials for the audio signal for each sound material. Adjustable. These adjustments can also be made for each speaker.

より具体的には、受信機2は、次の機能を有する。
受信機2は、「放送受信再生」機能として、放送電波を受信し、特定の放送サービスを選局して、サービスを構成する映像、音声、字幕、データ放送を同期再生する機能を有する。
受信機2は、「通信コンテンツ受信再生」機能として、通信ネットワーク上のサーバ(例えば事業者サーバ4)に置かれた映像コンテンツにアクセスし、VODストリーミングとして受信し、コンテンツを構成する映像、音声、字幕を同期再生する機能を有する。
受信機2は、「アプリケーション制御」機能として、通信ネットワーク上のサーバあるいは放送信号から取得したアプリケーション制御情報に基づき、主にマネージドアプリケーションに関してアプリケーションエンジンに対して働きかけ、アプリケーション単位のライフサイクル及びイベントの制御・管理を行う機能を有する。
受信機2は、「アプリケーションエンジン」機能として、アプリケーションを取得し、実行する機能を有する。この機能は、例えばHTML5ブラウザで実現される。
受信機2は、「提示同期制御」機能として、放送受信による映像・音声等のストリームと、ストリーミング受信による映像・音声等のストリーム提示同期を制御する機能を有する。
受信機2は、「アプリケーションロンチャー」機能として、主に放送外マネージドアプリケーションをユーザが選択、起動するためのナビゲーション機能を有する。
More specifically, the receiver 2 has the following functions.
The receiver 2 has a "broadcast reception and playback" function that receives broadcast waves, selects a specific broadcast service, and synchronously plays back video, audio, subtitles, and data broadcasts that constitute the service.
As a "communication content reception and playback" function, the receiver 2 accesses video content placed on a server on the communication network (for example, the operator server 4), receives it as VOD streaming, and records the video, audio, and content constituting the content. It has a function to synchronously play subtitles.
As an "application control" function, the receiver 2 mainly controls the application engine regarding managed applications based on application control information obtained from servers on the communication network or broadcast signals, and controls the life cycle and events of each application.・Has a management function.
The receiver 2 has a function of acquiring and executing an application as an "application engine" function. This function is realized by, for example, an HTML5 browser.
As a "presentation synchronization control" function, the receiver 2 has a function of controlling presentation synchronization of a stream of video, audio, etc. obtained by broadcast reception and a stream of video, audio, etc. obtained by streaming reception.
As an "application launcher" function, the receiver 2 has a navigation function mainly for the user to select and launch a non-broadcast managed application.

なお、以下の説明において、放送局1、放送局サーバ3、事業者サーバ4を特に区別しない場合には、これらのいずれかである場合を含むものとして放送局1として説明する。 In addition, in the following description, when the broadcasting station 1, the broadcasting station server 3, and the operator server 4 are not particularly distinguished, the broadcasting station 1 will be described as including the case where they are any of these.

図2は、本実施形態に係る受信機の機能構成の一例を示すブロック図である。
図2の受信機2は、MPEG-Hの音声に対応した受信機である。
FIG. 2 is a block diagram showing an example of the functional configuration of the receiver according to this embodiment.
The receiver 2 in FIG. 2 is a receiver that supports MPEG-H audio.

放送局1は、映像信号A11と音声信号(「MPEG-Hオーディオ信号」A12とも称する)を送信する。放送局1は、オブジェクトベースの音声を音声コンポーネント(アセット)とし、この音声コンポーネントとチャンネルベースの各音声の音声コンポーネントとが多重化されたMPEG-Hオーディオ信号A12を、放送波に含めて送信する。
また、放送局1は、MPEG-Hオーディオ信号A12を、放送波に含めて送出すると場合に、ユーザが音声調整を行うためのアプリケーションである音声調整アプリケーションA13をデータ放送で同時に送出する。
Broadcasting station 1 transmits a video signal A11 and an audio signal (also referred to as "MPEG-H audio signal" A12). Broadcasting station 1 uses object-based audio as an audio component (asset), and transmits an MPEG-H audio signal A12 in which this audio component and audio components of each channel-based audio are multiplexed together in a broadcast wave. .
Furthermore, when transmitting the MPEG-H audio signal A12 in a broadcast wave, the broadcasting station 1 simultaneously transmits an audio adjustment application A13, which is an application for a user to perform audio adjustment, as a data broadcast.

受信機2は、チューナー21、Demux(デマルチプレクサ)22、映像デコーダー23、音声デコーダー24、映像調整部25、音声調整部26、ブラウザAPI部27、データ放送ブラウザ部28を含んで構成される。 The receiver 2 includes a tuner 21, a demux (demultiplexer) 22, a video decoder 23, an audio decoder 24, a video adjustment section 25, an audio adjustment section 26, a browser API section 27, and a data broadcasting browser section 28.

チューナー21は、アンテナを介して放送波を受信し、ユーザ操作に基づいて選択されていているチャンネルに同調(選局)する。同調された信号は復調され、データとしてDemux22へ入力される。 The tuner 21 receives broadcast waves via an antenna, and tunes (selects) a channel selected based on a user's operation. The tuned signal is demodulated and input to the Demux 22 as data.

Demux22は、入力されたデータを、映像データ列、音声データ列、文字スーパーデータ列、字幕データ列等に分離する。分離された音声データ列は、音声デコーダー24へ出力される。分離された映像データ列は、映像デコーダー23へ出力される。 The Demux 22 separates the input data into a video data string, an audio data string, a character superimposition data string, a subtitle data string, and the like. The separated audio data string is output to the audio decoder 24. The separated video data string is output to the video decoder 23.

Demux22から出力された映像データ列は、映像デコーダー23に入力される。
映像デコーダー23は、入力された映像データ列を復号化する。
The video data string output from the demux 22 is input to the video decoder 23.
The video decoder 23 decodes the input video data string.

また、Demux22に分離された文字スーパーデータ列及び字幕データ列は、それぞれ、文字スーパーデコーダー及び字幕デコーダー(不図示)で復号化され、復号かされた文字列は、映像に重畳される。 Further, the text super data string and the subtitle data string separated into the demux 22 are decoded by a text super decoder and a subtitle decoder (not shown), respectively, and the decoded character strings are superimposed on the video.

Demux22から出力された各音声コンポーネントの音声データ列は、音声デコーダー24へ出力される。
音声デコーダー24は、音声コンポーネントの音声データ列を復号化する。また、音声デコーダー24は、Demux22から入力された音声データ列からメタデータを抽出する。音声デコーダー24は、ブラウザAPI部27からの要求に応じてメタデータをブラウザAPI部27に出力する。
The audio data string of each audio component output from the demux 22 is output to the audio decoder 24.
The audio decoder 24 decodes the audio data string of the audio component. Furthermore, the audio decoder 24 extracts metadata from the audio data string input from the Demux 22 . The audio decoder 24 outputs metadata to the browser API section 27 in response to a request from the browser API section 27.

映像調整部25は、復号化された映像データ列に対して色空間変換処理を行い、ディスプレイでの映像の表示に用いる。 The video adjustment unit 25 performs color space conversion processing on the decoded video data string, and uses it to display the video on the display.

音声調整部26は、音声デコーダー24によって復号化された音声データ列と、ブラウザAPI部27から出力される調整情報に基づいて、音の素材ごとの音声を合成して、ダウンミックス処理を行う。ダウンミックス処理をされた音声データ列は、音声に変換されてスピーカーから出力される。 The audio adjustment unit 26 synthesizes audio for each sound material based on the audio data string decoded by the audio decoder 24 and the adjustment information output from the browser API unit 27, and performs downmix processing. The downmixed audio data string is converted to audio and output from the speaker.

ブラウザAPI部27は、データ放送ブラウザ部28による指示信号に基づいて、音声デコーダー24または/および本体情報記憶部29からAPIを用いてメタデータを取得する。ブラウザAPI部27は、データ放送ブラウザ部28からの指示信号に基づいて、APIを用いてメタデータの調整値を示す調整情報を音声調整部26へ出力する。 The browser API section 27 uses the API to acquire metadata from the audio decoder 24 and/or the main body information storage section 29 based on the instruction signal from the data broadcast browser section 28 . Based on the instruction signal from the data broadcasting browser section 28, the browser API section 27 outputs adjustment information indicating the adjustment value of metadata to the audio adjustment section 26 using the API.

データ放送ブラウザ部28は、放送局1からデータ放送経由で送出された音声調整アプリケーションを起動する。
データ放送ブラウザ部28は、ブラウザAPI部27を介してメタデータを音声デコーダー24または/および本体情報記憶部29から取得する。データ放送ブラウザ部28は、メタデータに基づいて、ユーザによって音声調整可能なパラメータの初期値を取得する。データ放送ブラウザ部28は、音声調整アプリケーションに、音声調整可能なパラメータの初期値をセットする。
The data broadcast browser unit 28 starts the audio adjustment application sent from the broadcast station 1 via the data broadcast.
The data broadcasting browser section 28 acquires metadata from the audio decoder 24 and/or the main body information storage section 29 via the browser API section 27 . The data broadcast browser unit 28 obtains initial values of parameters that can be adjusted by the user based on the metadata. The data broadcasting browser unit 28 sets initial values of audio adjustable parameters in the audio adjustment application.

例えば、データ放送ブラウザ部28は、音声調整アプリケーションの実行によりGUIを表示し、当該GUIに対するユーザ操作によって音声調整パラメータを取得する。
データ放送ブラウザ部28は、ブラウザAPI部27を介して、調整パラメータによってに基づく調整情報を音声調整部26へ出力する。
For example, the data broadcasting browser unit 28 displays a GUI by executing an audio adjustment application, and acquires audio adjustment parameters through a user operation on the GUI.
The data broadcasting browser unit 28 outputs adjustment information based on the adjustment parameters to the audio adjustment unit 26 via the browser API unit 27.

本体情報記憶部29は、本体情報を記憶する。本体情報は、受信機2が予め記憶する情報であり、例えば、スピーカーの位置情報や、視聴者の向いている方向などの視聴シーンの設置情報などである。 The main body information storage section 29 stores main body information. The main body information is information that is stored in advance by the receiver 2, and includes, for example, speaker position information and viewing scene installation information such as the direction in which the viewer is facing.

以上のように、本実施形態に係る受信機2は、MPEG-Hオーディオを含む放送を行う放送システムであって、ユーザが音声調整を行うためのアプリケーションをデータ放送で受信する。受信したアプリケーションを実行することにより、受信機のメーカーや機種によらず、操作性やデザインを統一したGUIを介してユーザによる音声調整が可能となるため、ユーザの利便性を向上させることができる。 As described above, the receiver 2 according to the present embodiment is a broadcasting system that performs broadcasting including MPEG-H audio, and receives an application for a user to perform audio adjustment as data broadcasting. By running the received application, the user can adjust the audio through a GUI with unified operability and design regardless of the manufacturer or model of the receiver, improving user convenience. .

[メタデータの定義]
次いで、本実施形態で用いるMPEG-Hで定義される4つのメタデータの定義について説明する。
図3は、本実施形態で用いるメタデータの定義の一例を示す図である。
図示するように、本実施形態で用いるメタデータは、インタラクティブに関するデータ、個別の設定に関するデータ、MPEG-H全体の構成に関するデータ、オーディオシーンの設置データの4つのデータである。これらのメタデータは、mpegh3daElementInteraction()、mpegh3daLocalSetupInformation()、mpegh3daConfig()、mpegh3daSceneDisplacement()のように、API関数によって記述される。このうちmpegh3daElementInteraction()と、mpegh3daConfig()の2つのメタデータは、放送局から送られてくるMPEG-Hオーディオデータに含まれ、音声デコーダー24から取得可能である。また、mpegh3daLocalSetupInformation()と、mpegh3daSceneDisplacement()の2つメタデータは、受信機2の本体情報から取得可能である。
[Metadata definition]
Next, the definitions of four metadata defined by MPEG-H used in this embodiment will be explained.
FIG. 3 is a diagram showing an example of the definition of metadata used in this embodiment.
As shown in the figure, the metadata used in this embodiment includes four types of data: data related to interactivity, data related to individual settings, data related to the overall MPEG-H configuration, and data on audio scene installation. These metadata are described by API functions like mpegh3daElementInteraction(), mpegh3daLocalSetupInformation(), mpegh3daConfig(), mpegh3daSceneDisplacement(). . Two of these metadata, mpegh3daElementInteraction() and mpegh3daConfig(), are included in the MPEG-H audio data sent from the broadcasting station and can be obtained from the audio decoder 24. Further, two metadata, mpegh3daLocalSetupInformation() and mpegh3daSceneDisplacement(), can be obtained from the main body information of the receiver 2.

[メタデータの取得]
次いで、ブラウザAPI部27によるメタデータの取得について説明する。図4~図7は、本実施形態に係るメタデータの取得指令の一例を示す図である。
図4~図7に図示する例では、メソッド名が「getMpegh3daElementInteraction()」とのメソッド名を有する。実行結果を示す戻り値の型は、「Mpegh3daElementInteractionオブジェクト」である。メソッド名が「getMpegh3daLocalSetupInformation()」とのメソッド名を有する。実行結果を示す戻り値の型は、「Mpegh3daLocalSetupInformationオブジェクト」である。メソッド名が「getMpegh3daConfig()」とのメソッド名を有する。実行結果を示す戻り値の型は、「Mpegh3daConfig()オブジェクト」である。メソッド名が「getMpegh3daSceneDisplacement()」とのメソッド名を有する。実行結果を示す戻り値の型は、「Mpegh3daSceneDisplacement()オブジェクト」である。
[Get metadata]
Next, acquisition of metadata by the browser API section 27 will be explained. 4 to 7 are diagrams showing examples of metadata acquisition commands according to the present embodiment.
In the examples illustrated in FIGS. 4 to 7, the method name is "getMpegh3daElementInteraction()." The type of the return value indicating the execution result is "Mpegh3daElementInteraction object". The method name is "getMpegh3daLocalSetupInformation()". The type of return value indicating the execution result is "Mpegh3daLocalSetupInformation object". The method name is "getMpegh3daConfig()". The type of the return value indicating the execution result is "Mpegh3daConfig() object". The method name is "getMpegh3daSceneDisplacement()". The type of the return value indicating the execution result is "Mpegh3daSceneDisplacement() object".

ブラウザAPI部27は、データ放送ブラウザ部28による指示信号に基づいて、各「メソッド名」で定義される取得指令を実行し、音声デコーダー24または/および本体情報記憶部29からメタデータを取得する。 The browser API section 27 executes the acquisition command defined by each "method name" based on the instruction signal from the data broadcasting browser section 28, and acquires metadata from the audio decoder 24 and/or the main body information storage section 29. .

[メタデータの更新]
次いで、ブラウザAPI部27によるメタデータの更新について説明する。図8~図11は、本実施形態に係るメタデータの更新指令の一例を示す図である。
図8~図11に図示する例では、メソッド名が「putMpegh3daElementInteraction()」とのメソッド名を有する。実行結果を示す戻り値の型は、「Mpegh3daElementInteractionオブジェクト」である。メソッド名が「putMpegh3daLocalSetupInformation()」とのメソッド名を有する。実行結果を示す戻り値の型は、「Mpegh3daLocalSetupInformationオブジェクト」である。メソッド名が「putMpegh3daConfig()」とのメソッド名を有する。実行結果を示す戻り値の型は、「Mpegh3daConfig()オブジェクト」である。メソッド名が「putMpegh3daSceneDisplacement()」とのメソッド名を有する。実行結果を示す戻り値の型は、「Mpegh3daSceneDisplacement()オブジェクト」である。
[Update metadata]
Next, updating of metadata by the browser API section 27 will be explained. 8 to 11 are diagrams showing examples of metadata update commands according to this embodiment.
In the examples illustrated in FIGS. 8 to 11, the method name is "putMpegh3daElementInteraction()." The type of the return value indicating the execution result is "Mpegh3daElementInteraction object". The method name is "putMpegh3daLocalSetupInformation()". The type of return value indicating the execution result is "Mpegh3daLocalSetupInformation object". The method name is "putMpegh3daConfig()". The type of the return value indicating the execution result is "Mpegh3daConfig() object". The method name is "putMpegh3daSceneDisplacement()". The type of the return value indicating the execution result is "Mpegh3daSceneDisplacement() object".

ブラウザAPI部27は、データ放送ブラウザ部28による指示信号に基づいて、各「メソッド名」で定義される更新指令を実行し、メタデータを更新する。 The browser API section 27 executes the update command defined by each "method name" based on the instruction signal from the data broadcast browser section 28, and updates the metadata.

[処理の流れ]
次いで、本実施形態に係る音声調整処理の一例について説明する。
図12は、本実施形態に係る音声調整処理の一例を示すフローチャートである。
(ステップS101)
受信機2は、ユーザ操作による選局操作、電源操作に応じて、選局されているコンテンツに対応するデータ放送から、音声調整アプリケーションを受信し、起動する。
(ステップS102)
受信機2は、分離された音声データからメタデータを抽出する。
(ステップS103)
受信機2は、API取得指令によりメタデータを音声デコーダー24または/および本体情報記憶部29から取得する。
[Processing flow]
Next, an example of the audio adjustment process according to this embodiment will be described.
FIG. 12 is a flowchart illustrating an example of the audio adjustment process according to this embodiment.
(Step S101)
The receiver 2 receives and activates an audio adjustment application from a data broadcast corresponding to the selected content in response to a user's channel selection operation and power supply operation.
(Step S102)
The receiver 2 extracts metadata from the separated audio data.
(Step S103)
The receiver 2 acquires metadata from the audio decoder 24 and/or the main body information storage section 29 in response to the API acquisition command.

(ステップS104)
受信機2は、取得したメタデータに基づいて、音声調整可能な音声ごとのパラメータの初期値を、音声調整アプリケーションにセットする。
(ステップS105)
受信機2は、音声調整アプリケーションに対するユーザ操作を受け付ける。受信機2は、音声調整アプリケーションに対するユーザ操作を受け付けた場合、当該操作された音声ごとのパラメータを、API更新指令によってメタデータを更新する。
(ステップS106)
受信機2は、更新されたメタデータに基づいて、音声調整を実行する。
(Step S104)
Based on the acquired metadata, the receiver 2 sets initial values of parameters for each voice that can be adjusted in the audio adjustment application.
(Step S105)
The receiver 2 receives user operations for the audio adjustment application. When the receiver 2 receives a user operation for the audio adjustment application, the receiver 2 updates the metadata of parameters for each operated audio using an API update command.
(Step S106)
Receiver 2 performs audio adjustment based on the updated metadata.

このように、本実施形態に係る受信機2は、MPEG-Hオーディオを含む放送を行う放送システムにおける受信機であって、ユーザが音声調整を行うためのアプリケーションを、データ放送で受信する。 As described above, the receiver 2 according to the present embodiment is a receiver in a broadcasting system that performs broadcasting including MPEG-H audio, and receives an application for a user to perform audio adjustment as a data broadcast.

これにより、各受信機にGUIを実装することなく、操作性やデザインを統一したGUIでの音声調整機能を提供することができる。また、受信機のメーカーや機種によらず統一したGUIを用いることでユーザの利便性を向上させることができる。 As a result, it is possible to provide an audio adjustment function using a GUI with unified operability and design without implementing a GUI in each receiver. Further, user convenience can be improved by using a unified GUI regardless of the manufacturer or model of the receiver.

なお、上述した実施形態における放送局1、受信機2、放送局サーバ3、事業者サーバ4の一部、例えば、受信機2のDemux22、音声デコーダー24、音声調整部26、映像デコーダー23、映像調整部25、ブラウザAPI部27、データ放送ブラウザ部28の少なくとも一部をコンピュータで実現するようにしてもよい。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、放送局1、受信機2、放送局サーバ3、又は事業者サーバ4に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
また、上述した実施形態における放送局1、受信機2、放送局サーバ3、及び事業者サーバ4の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。放送局1、受信機2、放送局サーバ3、及び事業者サーバ4の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
Note that some of the broadcasting station 1, receiver 2, broadcasting station server 3, and operator server 4 in the embodiment described above, for example, the Demux 22 of the receiver 2, the audio decoder 24, the audio adjustment unit 26, the video decoder 23, and the video At least a portion of the adjustment section 25, the browser API section 27, and the data broadcasting browser section 28 may be realized by a computer. In that case, a program for realizing this control function may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read into a computer system and executed. Note that the "computer system" here refers to a computer system built into the broadcast station 1, receiver 2, broadcast station server 3, or operator server 4, and includes hardware such as an OS and peripheral devices. shall be held. Furthermore, the term "computer-readable recording medium" refers to portable media such as flexible disks, magneto-optical disks, ROMs, and CD-ROMs, and storage devices such as hard disks built into computer systems. Furthermore, a "computer-readable recording medium" refers to a medium that dynamically stores a program for a short period of time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, it may also include a device that retains a program for a certain period of time, such as a volatile memory inside a computer system that is a server or a client. Further, the above-mentioned program may be one for realizing a part of the above-mentioned functions, or may be one that can realize the above-mentioned functions in combination with a program already recorded in the computer system.
Furthermore, part or all of the broadcast station 1, receiver 2, broadcast station server 3, and operator server 4 in the embodiment described above may be realized as an integrated circuit such as an LSI (Large Scale Integration). Each of the functional blocks of the broadcast station 1, receiver 2, broadcast station server 3, and operator server 4 may be made into a processor individually, or some or all of them may be integrated into a processor. Further, the method of circuit integration is not limited to LSI, but may be implemented using a dedicated circuit or a general-purpose processor. Further, if an integrated circuit technology that replaces LSI emerges due to advances in semiconductor technology, an integrated circuit based on this technology may be used.

以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 Although one embodiment of the present invention has been described above in detail with reference to the drawings, the specific configuration is not limited to that described above, and various design changes etc. may be made without departing from the gist of the present invention. It is possible to

Sys 放送システム
1 放送局
2 受信機
3 放送局サーバ
4 事業者サーバ
21 チューナー
22 Demux
23 映像デコーダー
24 音声デコーダー
25 映像調整部
26 音声調整部
27 ブラウザAPI部
28 データ放送ブラウザ部
29 本体情報記憶部
Sys Broadcasting system 1 Broadcasting station 2 Receiver 3 Broadcasting station server 4 Operator server 21 Tuner 22 Demux
23 Video decoder 24 Audio decoder 25 Video adjustment section 26 Audio adjustment section 27 Browser API section 28 Data broadcasting browser section 29 Main body information storage section

Claims (6)

MPEG-Hオーディオを含む放送を行う放送システムであって、
ユーザが音声調整を行うためのアプリケーションを、データ放送で受信する受信部、
を備える、
放送システム。
A broadcasting system that performs broadcasting including MPEG-H audio,
a receiving unit that receives an application for audio adjustment by a user via data broadcasting;
Equipped with
broadcast system.
前記アプリケーションを実行する実行部、
前記実行部は、MPEG-Hオーディオのメタデータを取得するためのAPIを規定する規定部と、
をさらに備え、
前記実行部は、前記メタデータをブラウザに受け渡すことで音声調整を行う
請求項1に記載の放送システム。
an execution unit that executes the application;
The execution unit includes a regulation unit that defines an API for acquiring MPEG-H audio metadata;
Furthermore,
The broadcasting system according to claim 1, wherein the execution unit performs audio adjustment by passing the metadata to a browser.
前記音声調整は、オブジェクト単位で行う、
請求項1または2に記載の放送システム。
The audio adjustment is performed on an object-by-object basis.
The broadcasting system according to claim 1 or 2.
MPEG-Hオーディオを含む放送を行う放送システムにおける受信機であって、
ユーザが音声調整を行うためのアプリケーションを、データ放送で受信する受信部、
を備える、
受信機。
A receiver in a broadcasting system that performs broadcasting including MPEG-H audio,
a receiving unit that receives an application for audio adjustment by a user via data broadcasting;
Equipped with
Receiving machine.
MPEG-Hオーディオを含む放送を行う放送システムにおける受信機の受信方法であって、受信機が、
ユーザが音声調整を行うためのアプリケーションを、データ放送で受信する受信ステップ、
を有する、受信方法。
A receiving method for a receiver in a broadcasting system that performs broadcasting including MPEG-H audio, the receiver comprising:
a receiving step of receiving an application for a user to perform audio adjustment via data broadcasting;
A reception method having.
MPEG-Hオーディオを含む放送を行う放送システムにおける受信機に用いられるプログラムであって、受信機に、
ユーザが音声調整を行うためのアプリケーションを、データ放送で受信する受信ステップ、
を実行させるためのプログラム。
A program used in a receiver in a broadcasting system that performs broadcasting including MPEG-H audio, the program includes:
a receiving step of receiving an application for a user to perform audio adjustment via data broadcasting;
A program to run.
JP2022039467A 2022-03-14 2022-03-14 Broadcasting system, receiver, receiving method, and program Pending JP2023134110A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022039467A JP2023134110A (en) 2022-03-14 2022-03-14 Broadcasting system, receiver, receiving method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022039467A JP2023134110A (en) 2022-03-14 2022-03-14 Broadcasting system, receiver, receiving method, and program

Publications (1)

Publication Number Publication Date
JP2023134110A true JP2023134110A (en) 2023-09-27

Family

ID=88143721

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022039467A Pending JP2023134110A (en) 2022-03-14 2022-03-14 Broadcasting system, receiver, receiving method, and program

Country Status (1)

Country Link
JP (1) JP2023134110A (en)

Similar Documents

Publication Publication Date Title
US8341670B2 (en) Method and system for providing application service
JP6043089B2 (en) Broadcast communication cooperative receiver
JP3731554B2 (en) Signal processing apparatus and signal processing method
KR102630037B1 (en) Information processing device, information processing method, transmission device, and transmission method
JP2000358201A (en) Method and apparatus for controlling operation time of application in digital data broadcasting
US20020010924A1 (en) Push method and system
JP2023130333A (en) Time-shifted playback
KR101371016B1 (en) Method and apparatus for transmitting/receiving broadcasting information using reserved channels
JP2022507914A (en) Equipment and methods for Advanced Television Systems Commission (ATSC) 3.0 applications running on non-ATSC 3.0 services.
JP2023134110A (en) Broadcasting system, receiver, receiving method, and program
JP2023145144A (en) Broadcasting system, receiver, reception method, and program
JP2023183745A (en) Broadcasting system, receiver, reception method, and program
US11343588B2 (en) Information processing apparatus, information processing method, transmission apparatus, and transmission method
JP7737586B1 (en) Receiving device and receiving method
JP7634763B1 (en) Receiving device and receiving method
JP7738407B2 (en) Receiving device, client terminal device, and program
JP2024069092A (en) Receiving device, receiving method, and program
JP2025104727A (en) Receiving device, broadcasting system, receiving method, and program
JP2024099992A (en) Receiving device and program
JP2024017228A (en) Broadcasting system, receiver, reception method, and program
JP2024034712A (en) Receiving device, broadcasting system, receiving method, and program
CN114286168A (en) Program list processing method, display device and storage medium
KR20010042543A (en) Method and apparatus for presenting a program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20250310