[go: up one dir, main page]

JP2013126048A - 送信装置、送信方法、受信装置および受信方法 - Google Patents

送信装置、送信方法、受信装置および受信方法 Download PDF

Info

Publication number
JP2013126048A
JP2013126048A JP2011272821A JP2011272821A JP2013126048A JP 2013126048 A JP2013126048 A JP 2013126048A JP 2011272821 A JP2011272821 A JP 2011272821A JP 2011272821 A JP2011272821 A JP 2011272821A JP 2013126048 A JP2013126048 A JP 2013126048A
Authority
JP
Japan
Prior art keywords
view
stream
streams
data
decoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011272821A
Other languages
English (en)
Inventor
Ikuo Tsukagoshi
郁夫 塚越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011272821A priority Critical patent/JP2013126048A/ja
Priority to US13/981,514 priority patent/US20140125762A1/en
Priority to KR1020137020175A priority patent/KR20140109793A/ko
Priority to EP12858236.8A priority patent/EP2658267A4/en
Priority to BR112013020027A priority patent/BR112013020027A2/pt
Priority to CN2012800078147A priority patent/CN103348683A/zh
Priority to PCT/JP2012/081745 priority patent/WO2013089024A1/ja
Publication of JP2013126048A publication Critical patent/JP2013126048A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4347Demultiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Time-Division Multiplex Systems (AREA)

Abstract

【課題】マルチビュー・サービスのための複数のビューストリームの伝送を良好に行う。
【解決手段】送信部により、複数のビューストリームが多重化された多重化ストリームを送信する。この場合、タイムスタンプ割り当て部により、複数のビューストリームに、表示周期を細分化した間隔でデコードタイムスタンプを割り当てる。例えば、複数のビューストリームは、立体画像表示のためのストリームなどである。多重化ストリーム内の複数のビューストリームに表示周期を細分化した間隔でデコードタイムスタンプが割り当てられるため、ビュー間のデコード順と参照関係が保証され、受信側においてデコード処理を破綻なくスムーズに行い得るようになる。
【選択図】図3

Description

本技術は、送信装置、送信方法、受信装置および受信方法に関し、特に、マルチビュー・サービスにおいて各ビューのストリームを多重化して伝送する送信装置等に関する。
従来、マルチビュー・サービスとして、種々のものが提案されている。例えば、マルチビュー・サービスとして、立体画像表示のサービスがある。この立体画像表示には、例えば、裸眼で立体視が可能な多視点立体画像表示(特許文献1参照)、あるいはシャッタメガネなどの特殊なメガネの装着が必要なステレオ立体画像表示(特許文献2参照)などがある。また、マルチビュー・サービスとして、マルチアングルのビューを同時に表示するサービス、さらには、ユーザに応じたビューを提供するサービスなどがある。
特開2011−135458号公報 特開2005−006114号公報
上述のマルチビュー・サービスのために、送信側から受信側に、複数のビューストリームが多重化されて多重化ストリームを伝送することが行われる。ストリームをデコードするタイミングと表示するタイミングは、通常タイムスタンプで制御される。
あるサービスにおいて、複数のストリームが供給され、それらが有機的に結合されて表示へ至る際、参照関係にある複数のストリームのデコード、表示のタイミングは、破綻のないようにピクチャ毎に制御されなければならない。また、ライブ配信の場合に、時刻の推移に応じてリアルタイムに多重化を行う際、ある一定の決まりに従って、複数のストリームにタイムスタンプを付して多重化を行う必要がある。
マルチビュー・サービスにおいて、各ビューが一つのストリームで符号化される場合、ビュー間のデコード順と参照関係を保証する多重化方法、そして各ビューの表示関係を制御する多重化方法が望まれる。
本技術の目的は、マルチビュー・サービスのための複数のビューストリームの伝送を良好に行うことにある。
本技術の概念は、
複数のビューストリームが多重化された多重化ストリームを送信する送信部と、
上記複数のビューストリームに、表示周期を細分化した間隔でデコードタイムスタンプを割り当てるタイムスタンプ割り当て部とを備える
送信装置にある。
本技術において、送信部により、複数のビューストリームが多重化された多重化ストリームが送信される。この場合、タイムスタンプ割り当て部により、複数のビューストリームに、表示周期を細分化した間隔でデコードタイムスタンプが割り当てられる。
例えば、複数のビューストリームは、多視点立体画像表示のための複数のビューから選択された所定数のビューのストリームであってもよい。また、例えば、複数のビューストリームは、ステレオ立体画像表示のための2つのビューのストリームであってもよい。また、例えば、複数のビューストリームに、視差情報のストリームが追加のビューストリームとして含まれていてもよい。
例えば、多重化ストリームは、複数のビューストリームを含むエレメンタリストリームを有していてもよい。すなわち、多重化ストリームは、複数のビューストリームを含むエレメンタリストリームおよび単一のビューストリームを含むエレメンタリストリームのいずれか一方、あるいは双方を含むこととなる。複数のビューストリームを含むエレメンタリストリームにあっては、例えば、各ビューストリームの間にビュー間境界を示す情報が配置されるようにしてもよい。この場合、各ビューストリームの先頭に瞬時にアクセスすることが可能となる。
このように本技術においては、多重化ストリーム内の複数のビューストリームに表示周期を細分化した間隔でデコードタイムスタンプが割り当てられる。そのため、ビュー間のデコード順と参照関係が保証されることから、受信側においてデコード処理を破綻なくスムーズに行い得るようになる。
なお、本技術において、送信部は、多重化ストリームを含む所定フォーマットのコンテナを送信し、複数のビューストリームに表示周期を細分化した間隔でデコードタイムスタンプが割り当てられていることを示す割り当て情報を、このコンテナのレイヤに挿入する情報挿入部をさらに備える、ようにされてもよい。例えば、コンテナは、トランスポートストリームであり、情報挿入部は、割り当て情報を、プログラム・マップ・テーブルの配下に挿入してもよい。例えば、この割り当て情報には、対応するエレメンタリストリームが、複数のビューストリームを持つか否かを示す情報が含まれていてもよい。
この場合、受信側では、この割り当て情報に基づいて、複数のビューストリームに表示周期を細分化した間隔でデコードタイムスタンプが割り当てられていることを認識できる。これにより、受信側では、各ビューストリームに割り当てられているデコードタイムスタンプによるタイムスタンプ管理に速やかに移ることができる。
また、本技術の他の概念は、
複数のビューストリームが多重化された多重化ストリームを受信する受信部と、
上記多重化ストリーム内の上記複数のビューストリームをデコードするデコード部とを備え、
上記複数のビューストリームには表示周期を細分化した間隔でデコードタイムスタンプを割り当てられており、
上記デコード部は、複数のビューストリームを、上記各ビューストリームに割り当てられているデコードタイムスタンプに基づいて順次デコードする
受信装置にある。
本技術において、受信部により、複数のビューストリームが多重化された多重化ストリームが受信される。そして、デコード部により、多重化ストリーム内の複数のビューストリームがデコードされる。ここで、複数のビューストリームには、表示周期を細分化した間隔でデコードタイムスタンプが割り当てられている。そして、デコード部では、複数のビューストリームが、各ビューストリームに割り当てられているデコードタイムスタンプに基づいて順次デコードされる。
このように本技術においては、複数のビューストリームが、各ビューストリームに割り当てられている、表示周期を細分化した間隔のデコードタイムスタンプに基づいて順次デコードされる。そのため、デコード処理を破綻なくスムーズに行うことが可能となる。
なお、本技術において、例えば、受信部は、多重化ストリームを含む所定フォーマットのコンテナを受信し、コンテナのレイヤには、複数のビューストリームに表示周期を細分化した間隔でデコードタイムスタンプが割り当てられていることを示す割り当て情報が挿入されており、デコード部は、割り当て情報が存在するとき、複数のビューストリームを、各ビューストリームに割り当てられているデコードタイムスタンプに基づいて順次デコードする、ようにされてもよい。この場合、割り当て情報に基づいて、各ビューストリームに割り当てられているデコードタイムスタンプによるタイムスタンプ管理に速やかに移行することとなる。
本技術によれば、マルチビュー・サービスのための複数のビューストリームの伝送を良好に行うことができる。
実施の形態としての画像送受信システムの構成例を示すブロック図である。 トランスポートストリームTSに含まれるビューストリームの一例を示す図である。 トランスポートストリームTSに中央(Center)、左端(Left)および右端(Right)の3つのビューストリームが含まれる場合を示す図である。 トランスポートストリームTSに中央(Center)、左端(Left)および右端(Right)の3つのビューストリームと共に、1つの視差データストリームが追加のビューストリームとして含まれる場合を示す図である。 トランスポートストリームTSに左眼(Left)および右眼(Right)の2つのビューストリームが含まれる場合を示す図である。 各表示タイミングで表示される各ビューのピクチャと、そのデータ(PESパケット)の多重化ストリーム内における配置位置、さらには、各PESパケットのヘッダへのDTS,PTSの挿入例を示す図である。 多重化ストリームを受信した際の、各ビューのピクチャデータ(PESパケット)のデコードタイミングと、各ビューのピクチャの表示タイミングの一例を示す図である。 送信側(放送局100)における多重化エンコードの回路例を示す図である。 1−pidの場合におけるエレメンタリストリームの構成例を示す図である。 多重化エンコードの回路例に対応した、受信側(受信機200)における多重化デコードの回路例を示す図である。 送信側(放送局100)における多重化エンコードの回路例を示す図である。 2−pidの場合における2つのエレメンタリストリームの構成例を示す図である。 多重化エンコードの回路例に対応した、受信側(受信機200)における多重化デコードの回路例を示す図である。 複数のビューストリームを含むエレメンタリストリームの一例を示す図である。 1つのエレメンタリストリームに3つのビューストリームが含まれる場合の例を示す図である。 割り当て情報としてのマルチプル・ストリーム・デスクリプタ(multiple_stream_descriptor)の構造例(Syntax)を示す図である。 マルチプル・ストリーム・デスクリプタの構造例における主要な情報の内容(Semantics)を示す図である。 トランスポートストリームTSの構成例を示す図である。 トランスポートストリームTSの他の構成例を示す図である。 トランスポートストリームTSのさらに他の構成例を示す図である。 送信データ生成部110の構成例を示すブロック図である。 受信機200の構成例を示すブロック図である。 送信データ生成部110Aの構成例を示すブロック図である。 受信機200Aの構成例を示すブロック図である。 送信データ生成部110Bの構成例を示すブロック図である。 受信機200Bの構成例を示すブロック図である。
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明は以下の順序で行う。
1.実施の形態
2.変形例
<1.実施の形態>
[画像送受信システム]
図1は、実施の形態としての画像送受信システム10の構成例を示している。この画像送受信システム10は、放送局100および受信機200により構成されている。放送局100は、コンテナとしてのトランスポートストリームTSを放送波に載せて送信する。
このトランスポートストリームTSには、マルチビュー・サービスのための複数のビューストリームが多重化された多重化ストリームが含まれる。上述したように、マルチビュー・サービスには、立体画像表示サービスの他に、マルチアングルビューの同時表示サービス、ユーザに応じたビューの提供サービスなどもあるが、ここでは、立体画像表示サービスの例とする。
図2は、トランスポートストリームTSに含まれるビューストリームの一例を示している。図示の例では、各ビューのピクチャデータは、1920*1080のフルHDのサイズとされている。
図2(a)は、裸眼で立体視が可能な多視点立体画像表示のサービスにおける例である。この場合、トランスポートストリームTSに、例えば、中央(Center)のビュー、左端(Left)のビューおよび右端(Right)のビューの画像データが符号化されて得られたビューストリーム(ビデオストリーム)が含まれる。この場合、中央(Center)、左端(Left)および右端(Right)のビューストリームの間には参照関係(依存関係)がある。
図2(b)も、裸眼で立体視が可能な多視点立体画像表示のサービスにおける例である。この場合、中央(Center)、左端(Left)および右端(Right)のビューストリームの他に、視差データ(Disparity data)のストリームが含まれる。この視差データストリームは、追加のビューストリームとして含まれる。この場合、中央(Center)、左端(Left)および右端(Right)のビューストリーム、さらには視差データストリームの間には参照関係(依存関係)がある。なお、視差データの代わりに、この視差データに対応した奥行きデータ(Depth data)であってもよい。
図2(c)は、シャッタメガネなどの特殊なメガネの装着が必要なステレオ立体画像表示における例である。この場合、左眼(Left)のビューおよび右眼(Right)のビューの画像データが符号化されて得られたビューストリーム(ビデオストリーム)が含まれる。この場合、左眼(Left)および右眼(Right)のビューストリームの間には参照関係(依存関係)がある。
トランスポートストリームTSに含まれる各ビューストリームには、表示周期を細分化した間隔でデコードタイムスタンプ(DTS:Decoding Time Stamp)が割り当てられる。図3は、トランスポートストリームTSに中央(Center)、左端(Left)および右端(Right)の3つのビューストリームが含まれる場合を示している。図3(a)は、各表示タイミングで表示される各ビューのピクチャを示している。ここで、P1-1,P2-1,P3-1はあるタイミングで表示される各ビューのピクチャを示し、P1-2,P2-2,P3-2はその次のタイミングで表示される各ビューのピクチャを示している。
図3(b)に示すように、ビュー1(例えば、Left)のピクチャデータを含むPESパケットに割り当てられるデコードタイムスタンプがDTS(view1)であるとき、ビュー2(例えば、Right)のピクチャデータを含むPESパケットに割り当てられるデコードタイムスタンプDTS(view2)は、DTS(view1)に固定値のオフセット((1/3)*F)が付加されたものとなる。同様に、ビュー3(例えば、Center)のピクチャデータを含むPESパケットに割り当てられるデコードタイムスタンプDTS(view3)は、DTS(view2)に固定値のオフセット((1/3)*F)が付加されたものとなる。ここで、Fは、ピクチャの表示周期を表している。
ここで、一般定式化すると、ビューの総数をN、ビューの順番をK、表示周期をFとするとき、DTS(view (K+1))は、DTS(view K)を用いて、以下の(1)式のように表すことができる。この関係は、後述する図4、図5の例においても同様である。
DTS(view (K+1)) =DTS(view K) + (1/3)*F ・・・(1)
図4は、トランスポートストリームTSに中央(Center)、左端(Left)および右端(Right)の3つのビューストリームと共に、1つの視差データストリームが追加のビューストリームとして含まれる場合を示している。図4(a)は、各表示タイミングで表示される各ビューのピクチャを示している。ここで、P1-1,P2-1,P3-1,P4-1はあるタイミングで表示される各ビューのピクチャを示し、P1-2,P2-2,P3-2,P4-2はその次のタイミングで表示される各ビューのピクチャを示している。
図4(b)に示すように、ビュー1(例えば、Left)のピクチャデータを含むPESパケットに割り当てられるデコードタイムスタンプがDTS(view1)であるとき、ビュー2(例えば、Right)のピクチャデータを含むPESパケットに割り当てられるデコードタイムスタンプDTS(view2)は、DTS(view1)に固定値のオフセット((1/4)*F)が付加されたものとなる。
同様に、ビュー3(例えば、Center)のピクチャデータを含むPESパケットに割り当てられるデコードタイムスタンプDTS(view3)は、DTS(view2)に固定値のオフセット((1/4)*F)が付加されたものとなる。さらに、視差データを含むPESパケットに割り当てられるデコードタイムスタンプDTS(Disparity)は、DTS(view3)に固定値のオフセット((1/4)*F)が付加されたものとなる。
図5は、トランスポートストリームTSに左眼(Left)および右眼(Right)の2つのビューストリームが含まれる場合を示している。図5(a)は、各表示タイミングで表示される各ビューのピクチャを示している。ここで、P1-1,P2-1はあるタイミングで表示される各ビューのピクチャを示し、P1-2,P2-2はその次のタイミングで表示される各ビューのピクチャを示している。
図5(b)に示すように、ビュー1(例えば、Left)のピクチャデータを含むPESパケットに割り当てられるデコードタイムスタンプがDTS(view1)であるとき、ビュー2(例えば、Right)のピクチャデータを含むPESパケットに割り当てられるデコードタイムスタンプDTS(view2)は、DTS(view1)に固定値のオフセット((1/2)*F)が付加されたものとなる。
図6は、各表示タイミングで表示される各ビューのピクチャと、そのデータ(PESパケット)の多重化ストリーム内における配置位置、さらには、各PESパケットのヘッダへのDTS,PTSの挿入例を示している。なお、図示の例は、トランスポートストリームTSに中央(Center)、左端(Left)および右端(Right)の3つのビューストリームが含まれる場合を示している。
最初に、図示のように、エンコーダ側のクロックをデコーダ側に伝えるためのPCRが付される。なお、PCRのデータは、PESのデータとは、別個に送信されることもある。多重化ストリーム内には、P1-1,P2-1,P3-1,P1-2,P2-2,P3-2,・・・のピクチャ順にデータ(PESパケット)配置される。
この場合、P1-1,P2-1,P3-1のピクチャは同じ表示タイミングで表示されるものであり、それらのデータが含まれるPESパケットのヘッダには同一の表示タイムスタンプPTS1が挿入される。ただし、デコードタイムスタンプに関しては、DTS1,DTS2,DTS3という異なるタイムスタンプが挿入される。詳細説明は省略するが、P1-2,P2-2,P3-2 移行のピクチャに関しても同様である。
トランスポートストリームTSのレイヤ、つまりコンテナのレイヤに、上述したように、複数のビューストリームに表示周期を細分化した間隔でデコードタイムスタンプが割り当てられていることを示す割り当て情報が挿入される。この割り当て情報は、例えば、トランスポートストリームTSに含まれるプログラム・マップ・テーブル(PMT:Program Map Table)のビデオエレメンタリ・ループ(Video ESloop)の配下などに挿入される。この割り当て情報により、受信側では、この割り当て情報に基づいて、複数のビューストリームに表示周期を細分化した間隔でデコードタイムスタンプが割り当てられていることを認識することが可能となる。この割り当て情報の詳細については後述する。
図1に戻って、受信機200は、放送局100から放送波に載せて送られてくるトランスポートストリームTSを受信する。また、受信機200は、このトランスポートストリームTSに含まれる各ビューストリームをデコードして、各ビューのピクチャデータを順次取得し、立体画像表示(多視点立体画像表示あるいはステレオ立体画像表示)のために用いる。
上述したように、各ビューストリームには、表示周期を細分化した間隔でデコードタイムスタンプが割り当てられている。そのため、受信器200では、各ビューストリームを、各ビューストリームに割り当てられているデコードタイムスタンプに基づいて、順次デコードする。
上述したように、トランスポートストリームTSのレイヤに、割り当て情報が挿入される。受信機200では、この割り当て情報に基づいて、複数のビューストリームに表示周期を細分化した間隔でデコードタイムスタンプが割り当てられていることを認識できる。これにより、受信機200では、各ビューストリームに割り当てられているデコードタイムスタンプによるタイムスタンプ管理に速やかに移ることができる。
図7は、図6に示す多重化ストリームを受信した際の、各ビューのピクチャデータ(PESパケット)のデコードタイミングと、各ビューのピクチャの表示タイミングの一例を示している。図示のように、PCRが付されている場合には、このPCRに基づいて、デコーダクロックがセットされる。
多重化ストリーム内には、P1-1,P2-1,P3-1,P1-2,P2-2,P3-2,・・・のピクチャ順にデータ(PESパケット)が配置されている。P1-1,P2-1,P3-1のピクチャに関しては、それぞれ、PESヘッドに挿入されているデコードタイムスタンプDTS1,DTS2,DTS3のタイミングで順にそのデータのデコードが行われる。そして、PESヘッドの挿入されている表示タイムスタンプPTS1のタイミングで同時表示される。詳細説明は省略するが、P1-2,P2-2,P3-2 移行のピクチャに関しても同様である。
多重化ストリームは、複数のビューストリームを含むエレメンタリストリームおよび単一のビューストリームを含むエレメンタリストリームのいずれか一方、あるいは双方を含むものとされる。つまり、多重化ストリームは、複数のビューストリームを含むエレメンタリストリームを有することができる。
図8は、送信側(放送局100)における多重化エンコードの回路例を示している。この例は、多重化ストリームが有する1つのエレメンタリストリームに、ビュー1およびビュー2の2つのビューストリームが含まれる、いわゆる1−pidの場合の例である。
ビュー1の画像データV1はエンコーダ11-1でエンコードされ、符号化後のビデオストリームは、cpb(coded picturebuffer)バッファ12に一時的に記憶される。また、ビュー2の画像データV2はエンコーダ11-2でエンコードされ、符号化後のビデオストリームは、cpbバッファ12に一時的に記憶される。
cpbバッファ12は、ビデオに関してのデコード側のバッファリングを規定するためのエンコード側のバッファである。このcpbバッファ12で発生したビット量が、デコード側のバッファで破綻しないように、管理される。このcpbバッファ12に入力された2つのビデオストリームは、このcpbバッファ12から1つのエレメンタリストリームとして出て行く。この1つのエレメンタリストリームは、コンテナバッファ14に一時的に記憶され、その後に、マルチプレクサ13により多重化ストリームに含まれて送信される。
図9は、上述の1−pidの場合におけるエレメンタリストリームの構成例を示している。この1つのエレメンタリストリームには、ビュー1およびビュー2の2つのビューストリームが含まれる。この場合、各ビューのピクチャはそれぞれアクセスユニットになり、そのピクチャデータをペイロード部分に持つPESパケットが順次連続したものとなる。この場合、DTS2=DTS1+ (1/2)*Fとすることで、多重化のバッファに入るアクセスユニット(Access Unit)タイミングがエンコーダ側のクロックを止めずに多重化処理を行うことが可能になる。
図10は、図8の多重化エンコードの回路例に対応した、受信側(受信機200)における多重化デコードの回路例を示している。送信側から送られてきた多重化ストリームは、コンテナバッファ22に一時的に記憶され、その後に、デマルチプレクサ21により1つのエレメンタリストリームが抽出され、cpb(coded picture buffer)バッファ23に一時的に記憶される。
cpbバッファ23に記憶されている1つのエレメンタリストリームのうち、ビュー1のピクチャデータ(アクセスユニット)は対応するDTSのタイミングによりデコーダ24-1でデコードされる。そして、ビュー1の画像データV1が得られ、一時的にdpb(decodedpicture buffer)バッファ25-1に記憶される。
また、cpbバッファ23に記憶されている1つのエレメンタリストリームのうち、ビュー2のピクチャデータ(アクセスユニット)は対応するDTSのタイミングによりデコーダ24-2でデコードされる。そして、ビュー2の画像データV2が得られ、一時的にdpbバッファ25-2に記憶される。レンダリング部26-1,26-2により、PTSのタイミングで、画像データV1,V2による表示が行われる。
図11は、送信側(放送局100)における多重化エンコードの回路例を示している。この例は、多重化ストリームが有する2つのエレメンタリストリームに、それぞれ、ビュー1、ビュー2のビューストリームが含まれる、いわゆる2−pidの場合の例である。
ビュー1の画像データV1はエンコーダ11-1でエンコードされ、符号化後のビデオストリームは、cpb(coded picturebuffer)バッファ12-1に一時的に記憶される。また、ビュー2の画像データV2はエンコーダ11-2でエンコードされ、符号化後のビデオストリームは、cpbバッファ12-2に一時的に記憶される。
cpbバッファ12-1,12-2は、ビデオに関してのデコード側のバッファリングを規定するためのエンコード側のバッファである。このcpbバッファ12-1,12-2で発生したビット量が、デコード側のバッファで破綻しないように、管理される。このcpbバッファ12-1,12-2にそれぞれ入力されたビデオストリームは、このcpbバッファ12-1,12-2からそれぞれ1つのエレメンタリストリームとして出て行く。この2つのエレメンタリストリームは、コンテナバッファ14に一時的に記憶され、その後に、マルチプレクサ13により多重化ストリームに含まれて送信される。
図12は、上述の2−pidの場合における2つのエレメンタリストリームの構成例を示している。第1のエレメンタリストリームには、ビュー1のビューストリームが含まれる。この場合、ビュー1のピクチャはアクセスユニットになり、そのピクチャデータをペイロード部分に持つPESパケットが存在するものとなる。第2のエレメンタリストリームには、ビュー2のビューストリームが含まれる。この場合、ビュー2のピクチャはアクセスユニットになり、そのピクチャデータをペイロード部分に持つPESパケットが存在するものとなる
この場合、DTS2=DTS1 + (1/2)*Fとすることで、多重化のバッファに入るアクセスユニット(Access Unit)タイミングがエンコーダ側のクロックを止めずに多重化処理を行うことが可能になる。ストリームタイプ(Stream_type)で、2つのPESパケットの関連が記載される。
図13は、図11の多重化エンコードの回路例に対応した、受信側(受信機200)における多重化デコードの回路例を示している。送信側から送られてきた多重化ストリームは、コンテナバッファ22に一時的に記憶され、その後に、デマルチプレクサ21により第1、第2のエレメンタリストリームが抽出され、それぞれ、cpb(coded picture buffer)バッファ23-1,23-2に一時的に記憶される。
cpbバッファ23-1に記憶されているエレメンタリストリームに含まれるビュー1のピクチャデータ(アクセスユニット)は、対応するDTSのタイミングによりデコーダ24-1でデコードされる。そして、ビュー1の画像データV1が得られ、一時的にdpb(decodedpicture buffer)バッファ25-1に記憶される。
また、cpbバッファ23-2に記憶されているエレメンタリストリームに含まれるビュー1のピクチャデータ(アクセスユニット)は、対応するDTSのタイミングによりデコーダ24-2でデコードされる。そして、ビュー2の画像データV2が得られ、一時的にdpb(decodedpicture buffer)バッファ25-3に記憶される。レンダダリング部26-1,26-2により、PTSのタイミングで、画像データV1,V2による表示が行われる。
図14(a),(b)は、複数のビューストリームを含むエレメンタリストリームの一例を示している。各アクセスユニットに、各ビューのピクチャの符号化データが順次配置される。この場合、最初のピクチャの符号化データは、“SPS 〜 Coded Slice”で構成され、2番目以降のピクチャの符号化データは、“Subset SPS 〜 Coded Slice”で構成される。なお、この例は、MPEG4−AVCの符号化がされている例であるが、他の符号化方式でも適用可能である。なお、図中の16進数字は「 NAL unit type 」を示している。
1つのエレメンタリストリームに複数のビューストリームが含まれる場合、各ビューストリームの境界が瞬時に識別可能なことが要求される。そこで、図14(b)に示すように、各ピクチャの符号化データの間に、「View Separation Marker」というビュー間境界を示す新たな“NALunit”を定義して配置することが考えられる。これにより、各ビューストリームの先頭データに瞬時にアクセスすることが可能となる。なお、図14(a)は、各ビューストリームの間に、「View Separation Marker」が配置されていない例を示している。
図15(a),(b)は、1つのエレメンタリストリームに3つのビューストリームが含まれる場合の例を示している。ここでは、各ビューのピクチャの符号化データをサブストリーム(sub stream)として示している。図15(a)は、ランダムアクセス時の先頭アクセスユニットを示しており、図15(b)は、ランダムアクセス時の非先頭アクセスユニットを示している。
[割り当て情報の構造と、TS構成]
上述したように、トランスポートストリームTSのレイヤに、複数のビューストリームに表示周期を細分化した間隔でデコードタイムスタンプが割り当てられていることを示す割り当て情報が挿入される。図16は、この割り当て情報としてのマルチプル・ストリーム・デスクリプタ(multiple_stream_descriptor)の構造例(Syntax)を示している。また、図17は、図16に示す構造例における主要な情報の内容(Semantics)を示している。
「multiple_stream_tag」は、デスクリプタタイプを示す8ビットのデータであり、ここでは、マルチプル・ストリーム・デスクリプタであることを示す。「multiple_stream_length」は、デスクリプタの長さ(サイズ)を示す8ビットのデータである。このデータは、デスクリプタの長さとして、以降のバイト数を示す。
「multiple_stream_flag」の1ビットフィールドは、該当するストリームが複数のビューのストリームを持つか否かを示す。“1”は、複数のビューストリームがあることを示しし、“0”は、複数のビューストリームがないことを示す。「multiple_stream_flag = 1」のとき、「view ordering」および「1st_view_left」などの情報がさらに存在する。「view ordering」の4ビットフィールドは、表示の基準となる、ビューの最初を“1”とし、1〜15までの値をとる。
「1st_view_left」の1ビットフィールドは、「view_ordering」の“1”が「left」か「right」かを示す。“1”は、view_ordering(1)は「left」であることを示し、他のビューの場合、view_ordering順にrightへ近づく。“0”は、view_ordering(1)は「right」であることを示し、他のビューの場合、view_ordering順にleftに近づく。
図18は、トランスポートストリームTSの構成例を示している。なお、この構成例では、図面の簡単化のために、オーディオなどに関しては、その図示を省略している。この構成例は、トランスポートストリームTSが、複数のビューストリームを含む1つのエレメンタリストリームを有する場合を示している。この図18の構成例では、1つのエレメンタリストリームのPESパケット「video PES1」が含まれている。
また、トランスポートストリームTSには、PSI(Program Specific Information)として、PMT(ProgramMap Table)が含まれている。PMTには、各エレメンタリストリームに関連した情報を持つエレメンタリ・ループが存在する。この構成例では、ビデオエレメンタリ・ループ(Video ES loop)が存在する。このエレメンタリ・ループには、ストリーム毎に、パケット識別子(PID)等の情報が配置されると共に、そのエレメンタリストリームに関連する情報を記述するデスクリプタも配置される。
この構成例では、PMTのビデオエレメンタリ・ループ(Video ES loop)の配下に、各ビデオストリームに関連して、マルチプル・ストリーム・デスクリプタ(multiple_stream_descriptor)が挿入されている。このデスクリプタで「multiple_stream_flag = 1」とされ、該当するストリームが複数のビューストリームを持つことが示されている。
図19は、トランスポートストリームTSの他の構成例を示している。なお、この構成例では、図面の簡単化のために、オーディオなどに関しては、その図示を省略している。この構成例は、トランスポートストリームTSが、1つのビューストリームを含む2つのエレメンタリストリームを有する場合を示している。この図19の構成例では、2つのエレメンタリストリームのPESパケット「video PES1」、「video PES2」が含まれている。
また、この構成例では、PMTのビデオエレメンタリ・ループ(Video ES loop)の配下に、各エレメンタリストリームに関連して、マルチプル・ストリーム・デスクリプタ(multiple_stream_descriptor)が挿入されている。PESパケット「videoPES1」に対応したデスクリプタでは、「multiple_stream_flag = 0」とされ、該当するストリームが複数のビューストリームを持っていないことが示されている。また、このデスククリプタでは、「view_ordering = 1」とされ、表示の基準となるビューであることが示されている。
また、PESパケット「video PES2」に対応したデスクリプタでは、「multiple_stream_flag= 0」とされ、該当するストリームが複数のビューストリームを持っていないことが示されている。また、このデスククリプタでは、「view_ordering = 2」とされ、表示の基準となるビューに隣接した2番目のビューであることが示されている。
図20は、トランスポートストリームTSのさらに他の構成例を示している。なお、この構成例では、図面の簡単化のために、オーディオなどに関しては、その図示を省略している。この構成例は、トランスポートストリームTSが、1つのビューストリームを含む3つのエレメンタリストリームを有する場合を示している。この図20の構成例では、3つのエレメンタリストリームのPESパケット「video PES1」、「video PES2」、「video PES3」が含まれている。
また、この構成例では、PMTのビデオエレメンタリ・ループ(Video ES loop)の配下に、各エレメンタリストリームに関連して、マルチプル・ストリーム・デスクリプタ(multiple_stream_descriptor)が挿入されている。PESパケット「videoPES1」に対応したデスクリプタでは、「multiple_stream_flag = 0」とされ、該当するストリームが複数のビューストリームを持っていないことが示されている。また、このデスククリプタでは、「view_ordering = 1」とされ、表示の基準となるビューであることが示されている。
また、PESパケット「video PES2」に対応したデスクリプタでは、「multiple_stream_flag= 0」とされ、該当するストリームが複数のビューストリームを持っていないことが示されている。また、このデスククリプタでは、「view_ordering = 2」とされ、表示の基準となるビューに隣接した2番目のビューであることが示されている。また、PESパケット「video PES3」に対応したデスクリプタでは、「multiple_stream_flag= 0」とされ、該当するストリームが複数のビューストリームを持っていないことが示されている。また、このデスククリプタでは、「view_ordering = 3」とされ、2番目のビューに隣接した3番目のビューであることが示されている。
[送信データ生成部、受信機の構成例]
放送局100における送信データ生成部110と、受信機200の構成例について説明する。
「送信データ生成部の構成例」
図21は、送信データ生成部110の構成例を示している。この送信データ生成部110は、N個の画像データ出力部111-1〜111-Nと、ビューセレクタ112と、スケーラ113-1,113-2,113-3と、ビデオエンコーダ114-1,114-2,114-3と、マルチプレクサ115と、コンテナバッファ120を有している。また、この送信データ生成部110は、視差データ生成部116と、視差エンコーダ117と、音声データ出力部118と、オーディオエンコーダ119を有している。
画像データ出力部111-1〜111-Nは、多視点立体画像表示のためのN個のビュー(View 1・・・View N)の画像データを出力する。この画像データ出力部は、例えば、被写体を撮像して画像データを出力するカメラ、あるいはストレージ(記憶媒体)から画像データを読み出して出力する画像データ読み出し部などにより構成される。なお、伝送されないビューの画像データは、実際にはなくてもよい。
また、ビューセレクタ112は、N個のビュー(View 1・・・View N)の画像データから、少なくとも左端のビューおよび右端のビューの画像データと、左端および右端の間に位置する中間のビュー(1つまたは2つ以上)の画像データを選択的に取り出す。この実施の形態において、ビューセレクタ112は、左端のビューの画像データVLおよび右端のビューの画像データVRを取り出すと共に、中央のビューの画像データVCを取り出す。
また、スケーラ113-1,113-2,113-3は、それぞれ、画像データVC,VL,VRに対してスケーリング処理を施して、例えば、1920*1080のフルHDのサイズの画像データVC′,VL′,VR′を得る。この場合、画像データVC,VL,VRが1920*1080のフルHDのサイズであるときは、そのまま出力する。また、画像データVC,VL,VRが1920*1080のサイズより大きいときは、スケールダウンして出力する。
ビデオエンコーダ114-1は、中央のビューの画像データVC′に対して、例えば、MPEG4−AVC(MVC)、MPEG2videoなどの符号化を施して、符号化ビデオデータを得る。そして、このビデオエンコーダ114-1は、後段に備えるストリームフォーマッタ(図示せず)により、この符号化データを含むビューストリームを生成する。
また、ビデオエンコーダ114-2は、左端のビューの画像データVL′に対して、例えば、MPEG4−AVC(MVC)、MPEG2videoなどの符号化を施して、符号化ビデオデータを得る。そして、このビデオエンコーダ114-2は、後段に備えるストリームフォーマッタ(図示せず)により、この符号化データを含むビューストリームを生成する。
さらに、ビデオエンコーダ114-3は、右端のビューの画像データVR′に対して、例えば、MPEG4−AVC(MVC)、MPEG2videoなどの符号化を施して、符号化ビデオデータを得る。そして、このビデオエンコーダ114-3は、後段に備えるストリームフォーマッタ(図示せず)により、この符号化データを含むビューストリームを生成する。
視差データ生成部116は、ビューセレクタ112から出力される中央、左端および右端の各ビューの画像データに基づいて、視差データ(Disparity data)を生成する。この視差データには、例えば、中央のビューおよび左端のビューの間の視差データと、中央のビューおよび右端のビューの間の視差データが含まれている。この場合、画素単位、あるいはブロック(Block)単位で、視差データが生成される。
視差エンコーダ117は、視差データ生成部116で生成された視差データに符号化を施して視差データストリームを生成する。この視差データストリームには、画素単位、またはブロック単位の視差データが含まれることとなる。視差データが画素単位である場合には、画素データと同様に、圧縮符号化して伝送できる。
なお、この視差データストリームにブロック単位の視差データが含まれる場合には、受信側で、上述した変換処理を行うことで、画素単位に変換することも可能である。また、このような視差データストリームの送信がない場合、受信側で、上述したように各ビュー間におけるブロック単位の視差データを求め、さらに画素単位に変換することが可能である。
音声データ出力部118は、画像データに対応した音声データを出力する。この音声データ出力部118は、例えば、マイクロホン、あるいは記憶媒体から音声データを読み出して出力する音声データ読み出し部などにより構成される。オーディオエンコーダ119は、音声データ出力部118から出力される音声データに対して、MPEG−2Audio、AAC等の符号化を施し、オーディオストリームを生成する。
コンテナバッファ120は、エンコード後の各ストリームを一時的に記憶する。マルチプレクサ115は、ビデオエンコーダ114-1,114-2,114-3、視差データエンコーダ117およびオーディオエンコーダ119で生成された各ストリームをパケット化して多重し、多重化ストリームを生成する。この場合、それぞれのPES(Packetized Elementary Stream)のヘッダには、受信側における同期再生のために、DTS(Decoding Time Stamp)、PTS(Presentation TimeStamp)が挿入される。
マルチプレクサ115は、トランスポートストリームTSのレイヤに、割り当て情報としてのマルチプル・ストリーム・デスクリプタ(multiple_stream_descriptor)(図16参照)を挿入する。このデスクリプタは、複数のビューストリームに表示周期を細分化した間隔でデコードタイムスタンプが割り当てられていることを示す情報を持っている。このデスクリプタは、例えば、トランスポートストリームTSに含まれるプログラム・マップ・テーブル(PMT:Program Map Table)の配下などに挿入される。
図21に示す送信データ生成部110の動作を簡単に説明する。N個の画像データ出力部111-1〜111-Nから出力される多視点立体画像表示のためのN個のビュー(View 1・・・View N)の画像データは、ビューセレクタ112に供給される。ビューセレクタ112では、N個のビューの画像データから、中央のビューの画像データVC、左端のビューの画像データVLおよび右端のビューの画像データVRが取り出される。
ビューセレクタ112で取り出された中央のビューの画像データVCはスケーラ113-1に供給され、例えば、1920*1080のフルHDのサイズにスケーリング処理される。スケーリング処理後の画像データVC′は、ビデオエンコーダ114-1に供給される。ビデオエンコーダ114-1では、この画像データVC′に対して符号化が施されて符号化ビデオデータが得られ、この符号化データを含むビューストリームが得られる。このビューストリームは、コンテナバッファ120に供給されて、一時的に記憶される。
また、ビューセレクタ112で取り出された左端のビューの画像データVLはスケーラ113-2に供給され、例えば、1920*1080のフルHDのサイズにスケーリング処理される。スケーリング処理後の画像データVL′は、ビデオエンコーダ114-2に供給される。ビデオエンコーダ114-2では、この画像データVL′に対して符号化が施されて符号化ビデオデータが得られ、この符号化データ含むビューストリームが生成される。このビューストリームは、コンテナバッファ120に供給されて、一時的に記憶される。
さらに、ビューセレクタ112で取り出された右端のビューの画像データVRはスケーラ113-3に供給され、例えば、1920*1080のフルHDのサイズにスケーリング処理される。スケーリング処理後の画像データVR′は、ビデオエンコーダ114-3に供給される。ビデオエンコーダ114-3では、この画像データVR′に対して符号化が施されて符号化ビデオデータが得られ、この符号化データを含むビューストリームが生成される。このビューストリームは、コンテナバッファ120に供給されて、一時的に記憶される。
また、ビューセレクタ112から出力される中央、左端および右端の各ビューの画像データは視差データ生成部116に供給される。この視差データ生成部116では、各ビューの画像データに基づいて、視差データ(Disparity data)が生成される。この視差データには、中央のビューおよび左端のビューの間の視差データと、中央のビューおよび右端のビューの間の視差データが含まれる。この場合、画素単位、あるいはブロック(Block)単位で、視差データが生成される。
視差データ生成部116で生成された視差データは、視差エンコーダ117に供給される。この視差エンコーダ117では、視差データに符号化処理が施されて、視差データストリームが生成される。この視差データストリームは、コンテナバッファ120に供給されて、一時的に記憶される。
また、音声データ出力部118から出力される音声データは、オーディオエンコーダ119に供給される。このオーディオエンコーダ119では、音声データに対して、MPEG−2Audio、AAC等の符号化が施され、オーディオストリームが生成される。このオーディオストリームは、コンテナバッファ120に供給されて、一時的に記憶される。
マルチプレクサ115では、コンテナバッファ120に記憶されている各エンコーダからのストリームがパケット化されて多重され、トランスポートストリームTSが生成される。この場合、それぞれのPESヘッダには、受信側における同期再生のために、DTS、PTSが挿入される。また、マルチプレクサ115では、PMTの配下などに、複数のビューストリームに表示周期を細分化した間隔でデコードタイムスタンプが割り当てられていることを示す割り当て情報であるマルチプル・ストリーム・デスクリプタが挿入される。
「受信機の構成例」
図22は、上述の図21に示す送信データ生成部110に対応した受信機200の構成例を示している。この受信機200は、コンテナバッファ213と、デマルチプレクサ214と、コーデッドバッファ215-1,215-2,215-3と、ビデオデコーダ216-1,216-2,216-3と、デコーデッドバッファ217-1,217-2,217-3と、スケーラ218-1,218-2,218-3を有している。
また、受信機200は、ビュー補間部219と、ピクセルインターリーバ220を有している。また、受信機200は、コーデッドバッファ221と、視差デコーダ222と、視差バッファ223と、視差データ変換部224を有している。また、受信機200は、コーデッドバッファ225と、オーディオデコーダ226と、チャネルミキシング部227を有している。
コンテナバッファ213は、デジタルチューナ等で受信されたトランスポートストリームTSを一時的に記憶する。このトランスポートストリームTSには、多視点立体画像表示のための複数のビューのうち、少なくとも左端のビューおよび右端のビューの画像データと、左端および右端の間に位置する中間のビューとしての中央のビューの画像データとが符号化されて得られたビューストリームが含まれている。
このトランスポートストリームTSには、上述したように、PMTの配下などに、割り当て情報であるマルチプル・ストリーム・デスクリプタが挿入されている。このデスクリプタは、複数のビューストリームに表示周期を細分化した間隔でデコードタイムスタンプが割り当てられていることを示す。
デマルチプレクサ214は、コンテナバッファ213に一時的に蓄積されたトランスポートストリームTSから、ビデオ、視差およびオーディオの各ストリームを抽出する。また、デマルチプレクサ214は、このトランスポートストリームTSから、上述のマルチプル・ストリーム・デスクリプタを抽出し、図示しない制御部(CPU)に送る。
制御部は、このデスクリプタにより、複数のビューストリームに表示周期を細分化した間隔でデコードタイムスタンプが割り当てられていることを認識できる。これにより、受信機200では、各ビューストリームに割り当てられているデコードタイムスタンプによるタイムスタンプ管理に速やかに移ることができる。
コーデッドバッファ215-1,215-2,215-3は、それぞれ、デマルチプレクサ214で抽出される中央、左端および右端の各ビューのビューストリームを一時的に記憶する。ビデオデコーダ216-1,216-2,216-3は、それぞれ、コーデッドバッファ215-1,215-2,215-3に記憶されているビューストリームにデコード処理を行って、中央、左端および右端の各ビューの画像データを取得する。
上述のデマルチプレクサ214は、各ビューのビューストリーム(視差データストリームも含む)に割り当てられているDTS,PTSを抽出する。コーデッドバッファ215-1,215-2,215-3からの各ビューのビューストリームの取り出しは、それぞれ、対応するDTSのタイミングで行われる。したがって、各ビューのビューストリームに対するデコード処理は、それぞれ、対応するDTSのタイミングで開始される。
ここで、ビデオデコーダ216-1は、中央ビュー(center view)の画像データを取得する。また、ビデオデコーダ216-2は、左端ビュー(left view)の画像データを取得する。さらに、ビデオデコーダ216-3は、右端ビュー(right view)の画像データを取得する。
デコーデッドバッファ217-1,217-2,217-3は、それぞれ、ビデオデコーダ216-1,216-2,216-3で取得された各ビューの画像データを一時的に記憶する。スケーラ218-1,218-2,218-3は、それぞれ、デコーデッドバッファ217-1,217-2,217-3から出力される各ビューの画像データの出力解像度が、所定の解像度となるように調整する。
コーデッドバッファ221は、デマルチプレクサ214で抽出される視差データストリームを一時的に記憶する。視差デコーダ222は、上述の送信データ生成部110の視差エンコーダ117(図21参照)とは逆の処理を行う。すなわち、視差デコーダ222は、コーデッドバッファ221に記憶されている視差データストリームのデコード処理を行って、視差データを得る。
この視差データには、中央ビューと左端ビューとの間の視差データと、中央ビューと右端ビューとの間の視差データが含まれている。また、この視差データは、画素単位、あるいはブロック単位の視差データである。視差バッファ223は、視差デコーダ222で取得された視差データを一時的に記憶する。
ここで、コーデッドバッファ221からの視差データストリームの取り出しは、デマルチプレクサ214で抽出された対応するDTSのタイミングで行われる。したがって、視差データストリームに対するデコード処理は、対応するDTSのタイミングで開始される。
視差データ変換部224は、視差バッファ223に蓄積されている視差データに基づいて、スケーリング後の画像データのサイズに合った画素単位の視差データを生成する。例えば、生成された視差データがブロック単位である場合には、画素単位の視差データに変換する。また、例えば、生成された視差データが画素単位であるが、スケーリング後の画像データのサイズに合っていない場合には、適宜、スケーリングされる。
ビュー補間部219は、スケーリング後の中央、左端および右端の各ビューの画像データから、視差データ変換部224で得られた各ビュー間の視差データに基づいて、伝送されてこない所定数のビューの画像データを補間合成する。すなわち、ビュー補間部219は、中央ビューと左端ビューとの間に位置する各ビューの画像データを補間合成して出力する。また、ビュー補間部219は、中央ビューと右端ビューとの間に位置する各ビューの画像データを補間合成して出力する。
ピクセルインターリーバ220は、ビュー補間部219から出力されるN個のビュー(View1, View2,・・・,ViewN )の画像データに対してピクセルインターリーブ処理を行って、3次元画像(立体画像)の裸眼観賞のための表示用画像データを生成する。
コーデッドバッファ225は、デマルチプレクサ214で抽出されるオーディオストリームを一時的に記憶する。オーディオデコーダ226は、上述の送信データ生成部110のオーディオエンコーダ119(図21参照)とは逆の処理を行う。すなわち、オーディオデコーダ226は、コーデッドバッファ225に記憶されているオーディオストリームの復号化処理を行って、復号化された音声データを得る。チャネルミキシング部227は、オーディオデコーダ226で得られる音声データに対して、例えば5.1chサラウンド等を実現するための各チャネルの音声データを生成して出力する。
なお、デコーデッドバッファ217-1,217-2,217-3からの各ビューの画像データの読み出しと、視差バッファ223からの視差データの読み出しとは、PTSに基づいて行われ、転送同期が取られる。
受信機200の動作を簡単に説明する。デジタルチューナ等で受信されたトランスポートストリームTSは、コンテナバッファ213に一時的に記憶される。このトランスポートストリームTSには、多視点立体画像表示のための複数のビューのうち、左端のビューおよび右端のビューの画像データと、左端および右端の間に位置する中間のビューとしての中央のビューの画像データとが符号化されて得られたビューストリームが含まれている。
デマルチプレクサ214では、コンテナバッファ213に一時的に記憶されたトランスポートストリームTSから、ビデオ、視差およびオーディオの各ストリームが抽出される。また、デマルチプレクサ214では、このトランスポートストリームTSから、割り当て情報としてのマルチプル・ストリーム・デスクリプタが抽出され、制御部(CPU)に送られる。制御部では、このデスクリプタにより、複数のビューストリームに表示周期を細分化した間隔でデコードタイムスタンプが割り当てられていることが認識される。制御部では、各ビューストリームに割り当てられているデコードタイムスタンプによるタイムスタンプ管理に速やかに移ることができる。
デマルチプレクサ214で抽出される中央、左端および右端の各ビューのビューストリームは、それぞれ、コーデッドバッファ215-1,215-2,215-3に供給されて一時的に記憶される。そして、ビデオデコーダ216-1,216-2,216-3では、それぞれ、コーデッドバッファ215-1,215-2,215-3に記憶されているビューストリームの復号化処理が行われて、中央、左端および右端の各ビューの画像データが取得される。
ビデオデコーダ216-1,216-2,216-3で取得された各ビューの画像データは、それぞれ、デコーデッドバッファ217-1,217-2,217-3に供給されて一時的に記憶される。スケーラ218-1,218-2,218-3では、それぞれ、デコーデッドバッファ217-1,217-2,217-3から出力される各ビューの画像データの出力解像度が所定の解像度となるように調整される。
また、デマルチプレクサ214で抽出される視差データストリームは、コーデッドバッファ221に供給されて一時的に記憶される。視差デコーダ222では、コーデッドバッファ221に記憶されている視差データストリームのデコード処理が行われて、視差データが得られる。この視差データには、中央ビューと左端ビューとの間の視差データと、中央ビューと右端ビューとの間の視差データが含まれている。また、この視差データは、画素単位、あるいはブロック単位の視差データである。
視差デコーダ222で取得された視差データは、視差バッファ223に供給されて一時的に記憶される。視差データ変換部224は、視差バッファ223に蓄積されている視差データに基づいて、スケーリング後の画像データのサイズに合った画素単位の視差データが生成される。この場合、生成された視差データがブロック単位である場合には、画素単位の視差データに変換される。また、この場合、生成された視差データが画素単位であるが、スケーリング後の画像データのサイズに合っていない場合には、適宜、スケーリングされる。
ビュー補間部219では、スケーリング後の中央、左端および右端の各ビューの画像データから、視差データ変換部224で得られた各ビュー間の視差データに基づいて、伝送されてこない所定数のビューの画像データが補間合成される。このビュー補間部219からは、3次元画像(立体画像)を裸眼観賞するためのN個のビュー(View1, View2,・・・,ViewN )の画像データが得られる。なお、中央、左端および右端の各ビューの画像データも含まれる。
ピクセルインターリーバ220では、N個のビュー(View1, View2,・・・,ViewN )の画像データに対してピクセルインターリーブ処理が行われて、3次元画像(立体画像)の裸眼観賞のための表示用画像データが生成される。この表示用画像データがディスプレイに供給されることで、3次元画像(立体画像)の裸眼観賞のための、画像表示が行われる。
また、デマルチプレクサ214で抽出されるオーディオストリームは、コーデッドバッファ225に供給されて一時的に記憶される。オーディオデコーダ226では、コーデッドバッファ225に記憶されているオーディオスストリームの復号化処理が行われて、復号化された音声データが得られ。この音声データはチャネルミキシング部227に供給される。チャネルミキシング部227では、音声データに対して、例えば5.1chサラウンド等を実現するための各チャネルの音声データが生成される。この音声データは例えばスピーカに供給され、画像表示に合わせた音声出力がなされる。
[送信データ生成部、受信機の他の構成例]
上述の図21に示す送信データ生成部110および図22に示す受信機200は、トランスポートストリームTSに視差データが符号化されて得られた視差データストリームが含まれる場合の構成例である。トランスポートストリームTSに視差データストリームが含まれない場合も考えられる。
図23は、その場合における送信データ生成部110Aの構成例を示している。この図23において、図21と対応する部分には同一符号を付し、その詳細説明は省略する。この送信データ生成部110Aは、図21に示す送信データ生成部110における視差データ生成部116および視差エンコーダ117が除かれた構成となる。この場合、マルチプレクサ115は、ビデオエンコーダ114-1,114-2,114-3およびオーディオエンコーダ119で生成された各ストリームをパケット化して多重し、多重化ストリームを生成する。この図23に示す送信データ生成部110Aにおけるその他の構成は、図21に示す送信データ生成部110の構成と同様とされる。
また、図24は、その場合における受信機200Aの構成例を示している。この図24において、図22と対応する部分には同一符号を付し、その詳細説明は省略する。この受信機200Aは、視差データ生成部228を有している。この視差データ生成部228は、スケーリング処理された中央、左端および右端の各ビューの画像データに基づいて、視差データを生成する。
詳細説明は省略するが、この場合における視差データの生成方法は、上述した送信データ生成部110(図21参照)における視差データ生成部116における視差データ生成方法と同様である。なお、この視差データ生成部228は、図22に示す受信機200の視差データ変換部224で生成される画素単位の視差データと同様の視差データを生成して出力する。視差データ生成部228で生成された視差データは、ビュー補間部219に供給される。
なお、図24に示す受信機200Aにおいては、図22に示す受信機200におけるコーデッドバッファ221、視差デコーダ222、視差バッファ223および視差データ変換部224は、省略される。この図24に示す受信機200Aにおけるその他の構成は、図22に示す受信機200の構成と同様とされる。
[送信データ生成部、受信機のさらに他の構成例]
上述の図21、図23に示す送信データ生成部110,110Aおよび図22、図24に示す受信機200,200Aは、トランスポートストリームTSに多視点立体画像表示用のビューストリームが含まれる場合の構成例である。トランスポートストリームTSにステレオ立体画像表示用のビューストリームが含まれる場合の構成例について説明する。
「送信データ生成部の構成例」
図25は、その場合における送信データ生成部110Bの構成例を示している。この図25において、図21と対応する部分には同一符号を付して示している。この送信データ生成部110Bは、2個の画像データ出力部111-1,111-2と、スケーラ113-1,113-2と、ビデオエンコーダ114-1,114-2と、マルチプレクサ115と、コンテナバッファ120を有している。また、この送信データ生成部110Bは、音声データ出力部118と、オーディオエンコーダ119を有している。
画像データ出力部111-1,111-2は、それぞれ、ステレオ立体画像表示のための左眼(View 1)画像データVL、右眼(View 2)画像データVRを出力する。この画像データ出力部は、例えば、被写体を撮像して画像データを出力するカメラ、あるいはストレージ(記憶媒体)から画像データを読み出して出力する画像データ読み出し部などにより構成される。
また、スケーラ113-1,113-2は、それぞれ、画像データVL,VRに対してスケーリング処理を施して、例えば、1920*1080のフルHDのサイズの画像データVL′,VR′を得る。この場合、画像データVL,VRが1920*1080のフルHDのサイズであるときは、そのまま出力する。また、画像データVL,VRが1920*1080のサイズより大きいときは、スケールダウンして出力する。
ビデオエンコーダ114-1は、左眼画像データVL′に対して、例えば、MPEG4−AVC(MVC)、MPEG2videoなどの符号化を施して、符号化ビデオデータを得る。そして、このビデオエンコーダ114-1は、後段に備えるストリームフォーマッタ(図示せず)により、この符号化データを含むビューストリームを生成する。
また、ビデオエンコーダ114-2は、右眼画像データVR′に対して、例えば、MPEG4−AVC(MVC)、MPEG2videoなどの符号化を施して、符号化ビデオデータを得る。そして、このビデオエンコーダ114-2は、後段に備えるストリームフォーマッタ(図示せず)により、この符号化データを含むビューストリームを生成する。
音声データ出力部118は、画像データに対応した音声データを出力する。この音声データ出力部118は、例えば、マイクロホン、あるいは記憶媒体から音声データを読み出して出力する音声データ読み出し部などにより構成される。オーディオエンコーダ119は、音声データ出力部118から出力される音声データに対して、MPEG−2Audio、AAC等の符号化を施し、オーディオストリームを生成する。
コンテナバッファ120は、エンコード後の各ストリームを一時的に記憶する。マルチプレクサ115は、ビデオエンコーダ114-1,114-2およびオーディオエンコーダ119で生成された各ストリームをパケット化して多重し、多重化ストリームを含むトランスポートストリームTSを生成する。この場合、それぞれのPES(Packetized Elementary Stream)のヘッダには、受信側における同期再生のために、DTS(Decoding Time Stamp)、PTS(Presentation TimeStamp)が挿入される。
マルチプレクサ115は、トランスポートストリームTSのレイヤに、割り当て情報としてのマルチプル・ストリーム・デスクリプタ(multiple_stream_descriptor)(図16参照)を挿入する。このデスクリプタは、複数のビューストリームに表示周期を細分化した間隔でデコードタイムスタンプが割り当てられていることを示す情報を持っている。このデスクリプタは、例えば、トランスポートストリームTSに含まれるプログラム・マップ・テーブル(PMT:Program Map Table)の配下などに挿入される。
図25に示す送信データ生成部110Bの動作を簡単に説明する。2個の画像データ出力部111-1,111-2から出力される、ステレオ立体画像表示のための左眼画像データVL、右眼画像データVRは、スケーラ113-1,113-2に供給され、例えば、1920*1080のフルHDのサイズにスケーリング処理される。
スケーリング処理後の画像データVL′は、ビデオエンコーダ114-1に供給される。ビデオエンコーダ114-1では、この画像データVL′に対して符号化が施されて符号化ビデオデータが得られ、この符号化データ含むビューストリームが生成される。このビューストリームは、コンテナバッファ120に供給されて、一時的に記憶される。
また、スケーリング処理後の画像データVR′は、ビデオエンコーダ114-2に供給される。ビデオエンコーダ114-2では、この画像データVR′に対して符号化が施されて符号化ビデオデータが得られ、この符号化データ含むビューストリームが生成される。このビューストリームは、コンテナバッファ120に供給されて、一時的に記憶される。
また、音声データ出力部118から出力される音声データは、オーディオエンコーダ119に供給される。このオーディオエンコーダ119では、音声データに対して、MPEG−2Audio、AAC等の符号化が施され、オーディオストリームが生成される。このオーディオストリームは、コンテナバッファ120に供給されて、一時的に記憶される。
マルチプレクサ115では、コンテナバッファ120に記憶されている各エンコーダからのストリームがパケット化されて多重され、トランスポートストリームTSが生成される。この場合、それぞれのPESヘッダには、受信側における同期再生のために、DTS、PTSが挿入される。また、マルチプレクサ115では、PMTの配下などに、複数のビューストリームに表示周期を細分化した間隔でデコードタイムスタンプが割り当てられていることを示す割り当て情報であるマルチプル・ストリーム・デスクリプタが挿入される。
「受信機の構成例」
図26は、上述の図25に示す送信データ生成部110Bに対応した受信機200Bの構成例を示している。この受信機200Bは、コンテナバッファ213と、デマルチプレクサ214と、コーデッドバッファ215-1,215-2と、ビデオデコーダ216-1,216-2と、デコーデッドバッファ217-1,217-2と、スケーラ218-1,218-2と、レンダリング部229を有している。また、この受信機200Bは、コーデッドバッファ225と、オーディオデコーダ226と、チャネルミキシング部227を有している。
コンテナバッファ213は、デジタルチューナ等で受信されたトランスポートストリームTSを一時的に記憶する。このトランスポートストリームTSには、ステレオ立体画像表示のための左眼、右眼の画像データがそれぞれ符号化されて得られたビューストリームが含まれている。
このトランスポートストリームTSには、上述したように、PMTの配下などに、割り当て情報であるマルチプル・ストリーム・デスクリプタが挿入されている。このデスクリプタは、複数のビューストリームに表示周期を細分化した間隔でデコードタイムスタンプが割り当てられていることを示す。
デマルチプレクサ214は、コンテナバッファ213に一時的に記憶されたトランスポートストリームTSから、ビデオおよびオーディオの各ストリームを抽出する。また、デマルチプレクサ214は、このトランスポートストリームTSから、上述のマルチプル・ストリーム・デスクリプタを抽出し、図示しない制御部(CPU)に送る。
制御部は、このデスクリプタにより、複数のビューストリームに表示周期を細分化した間隔でデコードタイムスタンプが割り当てられていることを認識できる。これにより、受信機200では、各ビューストリームに割り当てられているデコードタイムスタンプによるタイムスタンプ管理に速やかに移ることができる。
コーデッドバッファ215-1,215-2は、それぞれ、デマルチプレクサ214で抽出される左眼、右眼の各ビューのビューストリームを一時的に記憶する。ビデオデコーダ216-1,216-2は、それぞれ、コーデッドバッファ215-1,215-2に記憶されているビューストリームにデコード処理を行って、左眼画像データ、右眼画像データを取得する。
上述のデマルチプレクサ214は、各ビューのビューストリームに割り当てられているDTS,PTSを抽出する。コーデッドバッファ215-1,215-2からの各ビューのビューストリームの取り出しは、それぞれ、対応するDTSのタイミングで行われる。したがって、各ビューのビューストリームに対するデコード処理は、それぞれ、対応するDTSのタイミングで開始される。ここで、ビデオデコーダ216-1は左眼画像データを取得し、ビデオデコーダ216-2は右眼画像データを取得する。
デコーデッドバッファ217-1,217-2は、それぞれ、ビデオデコーダ216-1,216-2で取得された左眼、右眼の画像データを一時的に記憶する。スケーラ218-1,218-2は、それぞれ、デコーデッドバッファ217-1,217-2から出力される左眼、右眼の画像データの出力解像度が、所定の解像度となるように調整する。レンダリング部229は、左眼、右眼の画像データに対して、ステレオ立体画像表示のための処理を行って、ディスプレイに供給する。
コーデッドバッファ225は、デマルチプレクサ214で抽出されるオーディオストリームを一時的に記憶する。オーディオデコーダ226は、上述の送信データ生成部110Bのオーディオエンコーダ119(図25参照)とは逆の処理を行う。すなわち、オーディオデコーダ226は、コーデッドバッファ225に記憶されているオーディオストリームの復号化処理を行って、復号化された音声データを得る。チャネルミキシング部227は、オーディオデコーダ226で得られる音声データに対して、例えば5.1chサラウンド等を実現するための各チャネルの音声データを生成して出力する。
なお、デコーデッドバッファ217-1,217-2からの各ビューの画像データの読み出しは、PTSに基づいて行われ、転送同期が取られる。
受信機200Bの動作を簡単に説明する。デジタルチューナ等で受信されたトランスポートストリームTSは、コンテナバッファ213に一時的に記憶される。このトランスポートストリームTSには、ステレオ立体画像表示のための左眼画像データと右眼画像データとが符号化されて得られたビューストリームが含まれている。
デマルチプレクサ214では、コンテナバッファ213に一時的に記憶されたトランスポートストリームTSから、ビデオおよびオーディオの各ストリームが抽出される。また、デマルチプレクサ214では、このトランスポートストリームTSから、割り当て情報としてのマルチプル・ストリーム・デスクリプタが抽出され、制御部(CPU)に送られる。制御部では、このデスクリプタにより、複数のビューストリームに表示周期を細分化した間隔でデコードタイムスタンプが割り当てられていることが認識される。制御部では、各ビューストリームに割り当てられているデコードタイムスタンプによるタイムスタンプ管理に速やかに移ることができる。
デマルチプレクサ214で抽出される左眼、右眼の各ビューのビューストリームは、それぞれ、コーデッドバッファ215-1,215-2に供給されて一時的に記憶される。そして、ビデオデコーダ216-1,216-2では、それぞれ、コーデッドバッファ215-1,215-2に記憶されているビューストリームの復号化処理が行われて、左眼画像データおよび右眼画像データが取得される。
ビデオデコーダ216-1,216-2で取得された左眼、右眼の画像データは、それぞれ、デコーデッドバッファ217-1,217-2に供給されて一時的に記憶される。スケーラ218-1,218-2では、それぞれ、デコーデッドバッファ217-1,217-2から出力される左眼、右眼の画像データの出力解像度が所定の解像度となるように調整される。解像度調整された左眼、右眼の画像データは、レンダリング部229に供給される。そして、このレンダリング部229では、左眼、右眼の画像データに対して、ステレオ立体画像表示のための処理が行われて、ディスプレイに供給される。これにより、ステレオ立体画像表示のための画像表示、例えば、左眼画像および右眼画像の時分割表示などが行われる。
上述したように、図1に示す画像送受信システム10においては、多重化ストリーム内の複数のビューストリームに表示周期を細分化した間隔でデコードタイムスタンプが割り当てられる。そのため、ビュー間のデコード順と参照関係が保証されることから、受信側においてデコード処理を破綻なくスムーズに行うことが可能となる。
また、図1に示す画像送受信システム10においては、トランスポートストリームTSのレイヤ、例えばPMTの配下に、複数のビューストリームに表示周期を細分化した間隔でデコードタイムスタンプが割り当てられていることを示す割り当て情報が挿入される。そのため、受信側では、この割り当て情報に基づいて、複数のビューストリームに表示周期を細分化した間隔でデコードタイムスタンプが割り当てられていることを認識できる。これにより、受信側では、各ビューストリームに割り当てられているデコードタイムスタンプによるタイムスタンプ管理に速やかに移ることができる。
<2.変形例>
なお、上述実施の形態においては、マルチビュー・サービスとして立体画像表示サービスに着目したものであるが、本技術は、その他のマルチビュー・サービス、例えば、マルチアングルビューの同時表示サービス、ユーザに応じたビューの提供サービスなどにも、同様に適用できる。
また、上述実施の形態においては、放送局100と受信機200からなる画像送受信システム10を示したが、本技術を適用し得る画像送受信システムの構成は、これに限定されるものではない。例えば、受信機200の部分が、例えば、HDMI(High-Definition Multimedia Interface)などのデジタルインタフェースで接続されたセットトップボックスおよびモニタの構成などであってもよい。
また、上述実施の形態においては、コンテナがトランスポートストリーム(MPEG−2 TS)である例を示した。しかし、本技術は、インターネット等のネットワークを利用して受信端末に配信される構成のシステムにも同様に適用できる。インターネットの配信では、MP4やそれ以外のフォーマットのコンテナで配信されることが多い。つまり、コンテナとしては、デジタル放送規格で採用されているトランスポートストリーム(MPEG−2 TS)、インターネット配信で使用されているMP4などの種々のフォーマットのコンテナが該当する。
また、本技術は、以下のような構成を取ることもできる。
(1)複数のビューストリームが多重化された多重化ストリームを送信する送信部と、
上記複数のビューストリームに、表示周期を細分化した間隔でデコードタイムスタンプを割り当てるタイムスタンプ割り当て部とを備える
送信装置。
(2)上記送信部は、上記多重化ストリームを含む所定フォーマットのコンテナを送信し、
上記複数のビューストリームに表示周期を細分化した間隔でデコードタイムスタンプが割り当てられていることを示す割り当て情報を、上記コンテナのレイヤに挿入する情報挿入部をさらに備える
前記(1)に記載の送信装置。
(3)上記コンテナは、トランスポートストリームであり、
上記情報挿入部は、上記割り当て情報を、プログラム・マップ・テーブルの配下に挿入する
前記(2)に記載の送信装置。
(4)上記割り当て情報には、対応するエレメンタリストリームが、複数のビューストリームを持つか否かを示す情報が含まれている
前記(3)に記載の送信装置。
(5)上記多重化ストリームは、複数のビューストリームを含むエレメンタリストリームを有する
前記(1)から(4)のいずれかに記載の送信装置。
(6)各ビューストリームの間にビュー間境界を示す情報が配置される
前記(5)に記載の送信装置。
(7)上記複数のビューストリームは、多視点立体画像表示のための複数のビューから選択された所定数のビューのストリームである
前記(1)から(6)のいずれかに記載の送信装置。
(8)上記複数のビューストリームは、ステレオ立体画像表示のための2つのビューのストリームである
前記(1)から(6)のいずれかに記載の送信装置。
(9)上記複数のビューストリームに、視差情報のストリームが追加のビューストリームとして含まれる
前記(1)から(8)のいずれかに記載の送信装置。
(10)複数のビューストリームが多重化された多重化ストリームを送信する送信ステップと、
上記複数のビューストリームに、表示周期を細分化した間隔でデコードタイムスタンプを割り当てるタイムスタンプ割り当てステップとを備える
送信方法。
(11)複数のビューストリームが多重化された多重化ストリームを受信する受信部と、
上記多重化ストリーム内の上記複数のビューストリームをデコードするデコード部とを備え、
上記複数のビューストリームには表示周期を細分化した間隔でデコードタイムスタンプが割り当てられており、
上記デコード部は、複数のビューストリームを、上記各ビューストリームに割り当てられているデコードタイムスタンプに基づいて順次デコードする
受信装置。
(12)上記受信部は、上記多重化ストリームを含む所定フォーマットのコンテナを受信し、
上記コンテナのレイヤには、上記複数のビューストリームに表示周期を細分化した間隔でデコードタイムスタンプが割り当てられていることを示す割り当て情報が挿入されており、
上記デコード部は、上記割り当て情報が存在するとき、複数のビューストリームを、上記各ビューストリームに割り当てられているデコードタイムスタンプに基づいて順次デコードする
前記(11)に記載の受信装置。
(13)複数のビューストリームが多重化された多重化ストリームを受信する受信ステップと、
上記多重化ストリーム内の上記複数のビューストリームをデコードするデコードステップとを備え、
上記複数のビューストリームには表示周期を細分化した間隔でデコードタイムスタンプを割り当てられており、
上記デコードステップでは、複数のビューストリームを、上記各ビューストリームに割り当てられているデコードタイムスタンプに基づいて順次デコードする
受信方法。
(14)複数のビューストリームが多重化された多重化ストリームを送信する送信部と、
上記複数のビューストリームに、ストリーム間の依存関係を考慮してタイムスタンプを割り当てるタイムスタンプ割り当て部とを備える
送信装置。
本技術の主な特徴は、同時表示に係るN個のビューストリームを多重化して伝送する際に、各ビューストリームに割り当てられるデコードタイムスタンプに、順次(1/N)*F(Fは表示周期)の固定オフセットを付加するようにしたことで、ビュー間のデコード順と参照関係を保証して行い得るようにしたことである(図3参照)。
10・・・画像送受信システム
100・・・放送局
110,110A,110B・・・送信データ生成部
111-1〜111-N・・・画像データ出力部
112・・・ビューセレクタ
113-1,113-2,113-3・・・スケーラ
114-1,114-2,114-3・・・ビデオエンコーダ
115・・・マルチプレクサ
116・・・視差データ生成部
117・・・視差エンコーダ
118・・・音声データ出力部
119・・・オーディオエンコーダ
120・・・コンテナバッファ
200,200A,200B・・・受信機
213・・・コンテナバッファ
214・・・デマルチプレクサ
215-1,215-2,215-3,221,225・・・コーデッドバッファ
216-1,216-2,216-3・・・ビデオデコーダ
217-1,217-2,217-3・・・デコーデッドバッファ
218-1,218-2,218-3・・・スケーラ
219・・・ビュー補間部
220・・・ピクセルインターリーバ
222・・・視差デコーダ
223・・・視差バッファ
224・・・視差データ変換部
226・・・オーディオデコーダ
227・・・チャネルミキシング部
228・・・視差データ生成部
229・・・レンダリング部

Claims (14)

  1. 複数のビューストリームが多重化された多重化ストリームを送信する送信部と、
    上記複数のビューストリームに、表示周期を細分化した間隔でデコードタイムスタンプを割り当てるタイムスタンプ割り当て部とを備える
    送信装置。
  2. 上記送信部は、上記多重化ストリームを含む所定フォーマットのコンテナを送信し、
    上記複数のビューストリームに表示周期を細分化した間隔でデコードタイムスタンプが割り当てられていることを示す割り当て情報を、上記コンテナのレイヤに挿入する情報挿入部をさらに備える
    請求項1に記載の送信装置。
  3. 上記コンテナは、トランスポートストリームであり、
    上記情報挿入部は、上記割り当て情報を、プログラム・マップ・テーブルの配下に挿入する
    請求項2に記載の送信装置。
  4. 上記割り当て情報には、対応するエレメンタリストリームが、複数のビューストリームを持つか否かを示す情報が含まれている
    請求項3に記載の送信装置。
  5. 上記多重化ストリームは、複数のビューストリームを含むエレメンタリストリームを有する
    請求項1に記載の送信装置。
  6. 各ビューストリームの間にビュー間境界を示す情報が配置される
    請求項5に記載の送信装置。
  7. 上記複数のビューストリームは、多視点立体画像表示のための複数のビューから選択された所定数のビューのストリームである
    請求項1に記載の送信装置。
  8. 上記複数のビューストリームは、ステレオ立体画像表示のための2つのビューのストリームである
    請求項1に記載の送信装置。
  9. 上記複数のビューストリームに、視差情報のストリームが追加のビューストリームとして含まれる
    請求項1に記載の送信装置。
  10. 複数のビューストリームが多重化された多重化ストリームを送信する送信ステップと、
    上記複数のビューストリームに、表示周期を細分化した間隔でデコードタイムスタンプを割り当てるタイムスタンプ割り当てステップとを備える
    送信方法。
  11. 複数のビューストリームが多重化された多重化ストリームを受信する受信部と、
    上記多重化ストリーム内の上記複数のビューストリームをデコードするデコード部とを備え、
    上記複数のビューストリームには表示周期を細分化した間隔でデコードタイムスタンプが割り当てられており、
    上記デコード部は、複数のビューストリームを、上記各ビューストリームに割り当てられているデコードタイムスタンプに基づいて順次デコードする
    受信装置。
  12. 上記受信部は、上記多重化ストリームを含む所定フォーマットのコンテナを受信し、
    上記コンテナのレイヤには、上記複数のビューストリームに表示周期を細分化した間隔でデコードタイムスタンプが割り当てられていることを示す割り当て情報が挿入されており、
    上記デコード部は、上記割り当て情報が存在するとき、複数のビューストリームを、上記各ビューストリームに割り当てられているデコードタイムスタンプに基づいて順次デコードする
    請求項11に記載の受信装置。
  13. 複数のビューストリームが多重化された多重化ストリームを受信する受信ステップと、
    上記多重化ストリーム内の上記複数のビューストリームをデコードするデコードステップとを備え、
    上記複数のビューストリームには表示周期を細分化した間隔でデコードタイムスタンプを割り当てられており、
    上記デコードステップでは、複数のビューストリームを、上記各ビューストリームに割り当てられているデコードタイムスタンプに基づいて順次デコードする
    受信方法。
  14. 複数のビューストリームが多重化された多重化ストリームを送信する送信部と、
    上記複数のビューストリームに、ストリーム間の依存関係を考慮してタイムスタンプを割り当てるタイムスタンプ割り当て部とを備える
    送信装置。
JP2011272821A 2011-12-13 2011-12-13 送信装置、送信方法、受信装置および受信方法 Pending JP2013126048A (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2011272821A JP2013126048A (ja) 2011-12-13 2011-12-13 送信装置、送信方法、受信装置および受信方法
US13/981,514 US20140125762A1 (en) 2011-12-13 2012-12-07 Transmission device, transmission method, reception apparatus, and reception method
KR1020137020175A KR20140109793A (ko) 2011-12-13 2012-12-07 송신 장치, 송신 방법, 수신 장치 및 수신 방법
EP12858236.8A EP2658267A4 (en) 2011-12-13 2012-12-07 TRANSMITTING DEVICE, TRANSMITTING METHOD, RECEIVING DEVICE, AND RECEIVING METHOD
BR112013020027A BR112013020027A2 (pt) 2011-12-13 2012-12-07 dispositivo e método de transmissão, e, aparelho e método de recepção
CN2012800078147A CN103348683A (zh) 2011-12-13 2012-12-07 发送设备、发送方法、接收设备以及接收方法
PCT/JP2012/081745 WO2013089024A1 (ja) 2011-12-13 2012-12-07 送信装置、送信方法、受信装置および受信方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011272821A JP2013126048A (ja) 2011-12-13 2011-12-13 送信装置、送信方法、受信装置および受信方法

Publications (1)

Publication Number Publication Date
JP2013126048A true JP2013126048A (ja) 2013-06-24

Family

ID=48612476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011272821A Pending JP2013126048A (ja) 2011-12-13 2011-12-13 送信装置、送信方法、受信装置および受信方法

Country Status (7)

Country Link
US (1) US20140125762A1 (ja)
EP (1) EP2658267A4 (ja)
JP (1) JP2013126048A (ja)
KR (1) KR20140109793A (ja)
CN (1) CN103348683A (ja)
BR (1) BR112013020027A2 (ja)
WO (1) WO2013089024A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016027579A1 (ja) * 2014-08-22 2017-06-08 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013161442A1 (ja) * 2012-04-24 2015-12-24 ソニー株式会社 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法
JP5947269B2 (ja) * 2013-09-24 2016-07-06 ソニー株式会社 符号化装置、符号化方法、送信装置および受信装置
RU2662222C2 (ru) * 2013-11-01 2018-07-25 Сони Корпорейшн Устройство и способ передачи, устройство и способ приема
CN109691113B (zh) * 2016-07-15 2022-02-08 皇家Kpn公司 流式传输虚拟现实视频
WO2018083211A1 (en) 2016-11-04 2018-05-11 Koninklijke Kpn N.V. Streaming virtual reality video
US11523185B2 (en) 2019-06-19 2022-12-06 Koninklijke Kpn N.V. Rendering video stream in sub-area of visible display area

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6055012A (en) * 1995-12-29 2000-04-25 Lucent Technologies Inc. Digital multi-view video compression with complexity and compatibility constraints
US6157674A (en) * 1996-03-21 2000-12-05 Sony Corporation Audio and video data transmitting apparatus, system, and method thereof
US5886736A (en) * 1996-10-24 1999-03-23 General Instrument Corporation Synchronization of a stereoscopic video sequence
KR100397511B1 (ko) * 2001-11-21 2003-09-13 한국전자통신연구원 양안식/다시점 3차원 동영상 처리 시스템 및 그 방법
US8072487B2 (en) * 2007-04-25 2011-12-06 Fujifilm Corporation Picture processing apparatus, picture recording apparatus, method and program thereof
DK2605244T3 (en) * 2008-09-17 2016-02-15 Panasonic Ip Man Co Ltd RECORDING MEDIUM AND PLAYBACK
CA2691727C (en) * 2008-09-30 2016-10-04 Panasonic Corporation Recording medium, playback device, system lsi, playback method, glasses, and display device for 3d images
KR20100040640A (ko) * 2008-10-10 2010-04-20 엘지전자 주식회사 수신 시스템 및 데이터 처리 방법
JP5267886B2 (ja) * 2009-04-08 2013-08-21 ソニー株式会社 再生装置、記録媒体、および情報処理方法
US8411746B2 (en) * 2009-06-12 2013-04-02 Qualcomm Incorporated Multiview video coding over MPEG-2 systems
JP5407968B2 (ja) * 2009-06-29 2014-02-05 ソニー株式会社 立体画像データ送信装置および立体画像データ受信装置
KR101372376B1 (ko) * 2009-07-07 2014-03-14 경희대학교 산학협력단 디지털 방송 시스템의 스테레오스코픽 비디오 수신 방법
JP5577823B2 (ja) * 2010-04-27 2014-08-27 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
CN103202021B (zh) * 2011-09-13 2017-06-13 松下知识产权经营株式会社 编码装置、解码装置、再现装置、编码方法及解码方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016027579A1 (ja) * 2014-08-22 2017-06-08 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム

Also Published As

Publication number Publication date
EP2658267A4 (en) 2014-12-10
US20140125762A1 (en) 2014-05-08
BR112013020027A2 (pt) 2016-10-18
CN103348683A (zh) 2013-10-09
WO2013089024A1 (ja) 2013-06-20
EP2658267A1 (en) 2013-10-30
KR20140109793A (ko) 2014-09-16

Similar Documents

Publication Publication Date Title
KR100397511B1 (ko) 양안식/다시점 3차원 동영상 처리 시스템 및 그 방법
CN1893653B (zh) 对视频数据编码/解码以实现本地三维视频的方法和设备
KR100488804B1 (ko) Mpeg-4 기반의 양안식 3차원 동영상 데이터 처리시스템 및 그 방법
CN104822071B (zh) 提供立体视频广播服务的数据流的发送方法和接收方法
JP6034420B2 (ja) 3次元映像の再生のための付加情報が挿入された3次元映像データストリーム生成方法及びその装置、3次元映像の再生のための付加情報が挿入された3次元映像データストリーム受信方法及びその装置
US9055280B2 (en) Method and apparatus for transmitting digital broadcasting stream using linking information about multi-view video stream, and method and apparatus for receiving the same
JP5575949B2 (ja) 放送データ送信方法およびその装置
JP6192902B2 (ja) 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法
WO2013089024A1 (ja) 送信装置、送信方法、受信装置および受信方法
EP2574064A1 (en) Image data transmitting device, image data transmitting method and image data receiving device
WO2013105401A1 (ja) 送信装置、送信方法、受信装置および受信方法
US8953019B2 (en) Method and apparatus for generating stream and method and apparatus for processing stream
WO2013069608A1 (ja) 送信装置、送信方法、受信装置および受信方法
US9270972B2 (en) Method for 3DTV multiplexing and apparatus thereof
US20140327740A1 (en) Transmission apparatus, transmisson method, receiver and receiving method
KR20080051041A (ko) 전송 효율을 높이기 위한 다시점 파노라믹 콘텐츠 송/수신시스템 및 그 방법
US20140333836A1 (en) Apparatus and method for adding synchronization information to an auxiliary data space in a video signal and synchronizing a video
WO2013054775A1 (ja) 送信装置、送信方法、受信装置および受信方法
JP5928118B2 (ja) 送信装置、送信方法、受信装置および受信方法