[go: up one dir, main page]

WO2013190789A1 - 受信装置およびその同期処理方法 - Google Patents

受信装置およびその同期処理方法 Download PDF

Info

Publication number
WO2013190789A1
WO2013190789A1 PCT/JP2013/003527 JP2013003527W WO2013190789A1 WO 2013190789 A1 WO2013190789 A1 WO 2013190789A1 JP 2013003527 W JP2013003527 W JP 2013003527W WO 2013190789 A1 WO2013190789 A1 WO 2013190789A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
time code
time
stream
video stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2013/003527
Other languages
English (en)
French (fr)
Inventor
北里 直久
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to US14/400,612 priority Critical patent/US10397633B2/en
Priority to JP2014520906A priority patent/JP6313704B2/ja
Priority to EP13806945.5A priority patent/EP2866457B1/en
Publication of WO2013190789A1 publication Critical patent/WO2013190789A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4305Synchronising client clock from received content stream, e.g. locking decoder clock with encoder clock, extraction of the PCR packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/18Arrangements for synchronising broadcast or distribution via plural systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6125Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content

Definitions

  • the present technology relates to a receiving apparatus capable of receiving one of a plurality of videos to be reproduced in synchronization with each other by broadcast, receiving the other through a network, and reproducing each of them in synchronization with each other, and a synchronization processing method thereof.
  • the main broadcast audio data is transmitted as a broadcast wave, and multi-view video data and multi-audio data are transmitted via a network.
  • a technique for receiving and presenting multi-view video data and multi-point audio data is disclosed.
  • a receiving apparatus is capable of receiving a first video stream to which a first time code is added for each first unit of first video data through broadcasting.
  • a communication receiving unit that can receive the first video data, a reference time generating unit that generates a reference time for generating a processing timing for presenting the first video data, and the first received at a predetermined timing.
  • the first time code added to the video stream and the second time code added to the second video stream are acquired, and the first time code for the first time code is acquired. It includes a time code unit for calculating a delay of a time code, an adjustment unit for adjusting the reference time in consideration of the delay amount, a.
  • a time code processing unit has the first time code added to the received first video stream and the second video stream added to the second video stream at a predetermined timing. 2 time codes are obtained, and the delay of the second time code with respect to the first time code is calculated.
  • the adjustment unit adjusts a reference time for generating a processing timing for presenting the first video stream in consideration of the delay.
  • Presentation time information is added to the first video stream, and the reception device adds the first video stream received by the broadcast reception unit to the presentation time information added to the first video stream.
  • a second video decoder for decoding the second video stream received by the communication receiving unit and a second video decoder for decoding the second video stream received by the communication receiver.
  • the time code processing unit acquires the first time code added to the first unit of the first video stream to be decoded by the first video decoder, and acquires the second video.
  • the second video decoder is supplied with the second time code having the same value as the supplied first time code.
  • the first unit of the second video stream may be one which decoding.
  • the time code processing unit includes at least the first time code added to the received first video stream and the second time when the communication stream is first received during reception of the broadcast stream.
  • the second time code added to the video stream may be acquired, and a delay of the second time code with respect to the first time code may be calculated.
  • the adjusting unit may adjust the reference time with time data obtained by adding a predetermined margin to the delay.
  • the standard time generation unit may generate the standard time using a time reference value added to the broadcast stream.
  • the first video stream has the first time code added to the first picture of the GOP
  • the second video stream has the second time code added to each picture. Good.
  • presentation time information is added to the second video stream, and the receiving device converts the first video stream received by the broadcast receiving unit into the first video stream.
  • a first video decoder that decodes the presentation time information added to the video stream so that the presentation time is matched with the reference time; and the second video stream received by the communication receiver, And a second video decoder that decodes the presentation time information added to the second video stream so that the presentation time information and the reference time are matched.
  • the broadcast receiving unit receives the first video stream to which the first time code is added for each first unit of the first video data through broadcasting
  • a communication receiver receives a second video stream to which a second time code is added at least for each first unit of second video data to be reproduced in synchronization with the first video data.
  • the time code processing unit receives the first time code added to the received first video stream and the second video stream added to the second video stream at a predetermined timing. 2 is obtained, the delay of the second time code with respect to the first time code is calculated, and the adjustment unit presents the first video stream in consideration of the delay. And adjusting the reference time for generating the timing of the process.
  • the time code processing unit is added to the first unit of the first video stream to be decoded by a first video decoder.
  • 1 time code is acquired and supplied to a second video decoder, and the second video decoder adds the second time code having the same value as the supplied first time code.
  • the first unit of the second video stream may be decoded.
  • the first video decoder uses the presentation time information added to the first video stream to the received first video stream.
  • the second video decoder adds the received second video stream to the second video stream after decoding so as to be presented at a timing coincident with the reference time, and adjusting the reference time. It is good also as decoding so that it may show at the timing when the said presentation time information performed and the said reference time corresponded.
  • FIG. 5 is a time chart illustrating an outline of an operation of synchronizing a broadcast stream and a communication stream by adjusting STC in the receiving apparatus according to the first embodiment of the present technology. It is a figure explaining the time code of an MPEG2 video stream. It is a figure which shows the structure of the access unit of the head of GOP of an MPEG4-AVC video stream. It is a figure which shows the structure of access units other than the head of GOP of an MPEG4-AVC video stream.
  • FIG. 6 is a diagram illustrating a configuration of Picture Timing SEI in FIGS. 4 and 5.
  • the present embodiment is a transmission apparatus that transmits a stream including video transmitted by broadcasting (hereinafter referred to as “broadcast stream”) and a stream including video transmitted via the Internet (hereinafter referred to as “communication stream”).
  • broadcast stream a stream including video transmitted by broadcasting
  • communication stream a stream including video transmitted via the Internet
  • the present invention relates to a receiving apparatus that receives a broadcast stream and a communication stream transmitted from a transmission apparatus and reproduces them in synchronization with each other and a synchronization processing method thereof.
  • FIG. 1 is a diagram showing a configuration of a 3D program transmission system.
  • One viewpoint video among a plurality of viewpoint videos constituting the 3D program is transmitted by broadcasting, and another one viewpoint video is transmitted by communication.
  • the receiver receives these two images transmitted by broadcasting and communication, reproduces them in synchronization with each other, merges them, and presents a 3D image.
  • Multi-view program Video of one view obtained by simultaneously photographing a subject with a plurality of cameras is transmitted as a main view by broadcasting, and video of one or more other views are transmitted by communication as sub-views.
  • the receiver receives the video of the plurality of views, displays the video of the main view on the main screen, and displays the video of one or more subviews on the sub screen. Alternatively, the receiver switches the video to be displayed on the main screen between the main view and the sub view.
  • High-resolution programs For example, some of the 4 HD video (1920 ⁇ 1080 pixels) video that is obtained by dividing the video taken by a 4K (3840 ⁇ 2160) high-resolution camera into 4 broadcasts. The rest is transmitted by communication.
  • the receiver receives HD video of each system, reproduces them in synchronization with each other, and combines them to present a high resolution video of 4K size.
  • the video taken by the high-resolution camera is frequency-resolved by wavelet transform or the like, the HD video having a low resolution component is transmitted by broadcasting, and the video of the remaining high-frequency component is transmitted by communication.
  • the receiver frequency-synthesizes the received four HD size images by inverse wavelet transform or the like, and restores and presents them as one high-resolution image.
  • Audio dubbing service In the audio dubbing service, video and Japanese audio are transmitted by broadcasting, and multilingual dubbed audio for the video is transmitted by communication.
  • the receiver receives video and Japanese audio from the broadcast, while receiving multilingual dubbed audio for the video from communication, and synchronizes the broadcast video and dubbed audio to each other in response to a request from the user. Take it back and present it.
  • FIG. 1 is a diagram showing a configuration of a synchronous transmission system for the broadcast stream and communication stream.
  • the program material is a 3D program, a multi-view program, a high-resolution program, an audio dubbing service program, or the like.
  • the program material is divided into a broadcast signal and a communication signal.
  • Each of the broadcast signal and the communication signal is encoded into a stream such as MPEG2_TS by an encoder.
  • a time code which is presentation time information is inserted into the encoded stream.
  • One stream in which the time code is inserted is transmitted by broadcasting, and the other stream in which the time code is inserted is distributed by communication through the Internet by a distribution server.
  • PCR Program Clock Reference
  • PCR packets including PCR are added at regular intervals.
  • the typical receiving apparatus 200 receives a broadcast stream and a communication stream related to one program.
  • the typical receiving apparatus 200 extracts PCR from the received broadcast stream and communication stream, and sets or calibrates the STC (System Time Clock) that is the reference time of the receiving apparatus 200 using the PCR.
  • Video presentation timing is generated from PTS (Presentation Time Stamp) that is presentation time information included in the video TS packet.
  • the timing at which the communication stream is received by the receiving apparatus 200 due to fluctuations in the network traffic is delayed with respect to the broadcast stream to be reproduced in synchronization therewith.
  • the communication stream is delayed with respect to the broadcast stream, it is necessary to delay the reproduction of the broadcast stream by storing the received broadcast stream in a buffer.
  • the presentation timing of the video stream may be uniquely determined from the STC generated based on the PCR and the PTS that is the time management information at the time of playback included in the video TS packet. It is assumed. Therefore, it is actually difficult to realize the synchronized reproduction of the broadcast stream and the communication stream only by storing the received broadcast stream in the buffer.
  • a time code added to a video stream such as an MPEG2 video stream or an MPEG4-AVC video stream is data indicating the first picture of the GOP and the presentation time for each picture in units of hours, minutes, seconds, and frames.
  • FIG. 2 is a time chart illustrating an outline of an operation of synchronizing the broadcast stream and the communication stream by adjusting the STC in the receiving apparatus 300 according to the first embodiment of the present technology.
  • the receiving apparatus 300 compares the time codes acquired from the broadcast stream and the communication stream at the time when the communication stream is first received after an instruction for synchronous reproduction of the broadcast stream and the communication stream is generated.
  • the time code acquired from the broadcast stream is referred to as “first time code”
  • the time code acquired from the communication stream is referred to as “second time code”.
  • the first time code of the broadcast stream at the time when the communication stream is first received after the instruction of synchronous reproduction is generated is “TCb0”
  • the communication stream received first after the instruction of synchronous reproduction It is determined whether the condition of TCb0> TCi00 is satisfied with the second time code of “TCi00”.
  • the time code is originally expressed by four values (TCh, TCm, TCs, TCf) of hour, minute, second, and frame, but the above-mentioned TCb0 or TCi00 has the following four values. Assume that the value is converted to one value in millisecond units.
  • TC (TCh ⁇ 60 + TCm) ⁇ 60 + TCs) ⁇ 1000 + TCf ⁇ 1000/60
  • receiving apparatus 300 calculates offset ⁇ between “TCb0” and “TCi00” by the following equation.
  • TCb0-TCi00 ⁇ (1)
  • the receiving apparatus 300 adjusts the STC by the following equation with this offset ⁇ .
  • STC ⁇ ⁇ 90 ⁇ m STC ′ (2)
  • the reason why the offset ⁇ is multiplied by 90 is to map the offset ⁇ in milliseconds to the counter value of 90 KHz which is the same as STC.
  • m is a predetermined margin.
  • the receiving device 300 decodes the decoding target when the PTS included in the TS packet of the video of the broadcast stream coincides with the adjusted STC ′ at the time when the communication stream is first received.
  • the video data of the communication stream having the second time code (TCi0) having the same value as the first time code (TCb0) is decoded. Thereafter, the synchronized playback of the broadcast stream and the communication stream is repeated in the same manner.
  • the broadcast stream and the communication stream can be reproduced in synchronization.
  • FIG. 3 is a diagram for explaining the time code of the MPEG2 video stream.
  • Sequence_Header is described at the beginning of the picture layer which is the highest layer.
  • Sequence_Header defines header data of a sequence of the MPEG2 bit stream.
  • GOP_Header and Picture_Header are described after Sequence_Header.
  • GOP_Header defines header data of the GOP (group_of_picture) layer of the MPEG bit stream. This GOP_Header is composed of group_start_code, time_code, closed_gop, broken_link, and the like.
  • group_start_code is data indicating the start synchronization code of the GOP layer.
  • time_code is a time code indicating the time from the start of the sequence of the first picture of the GOP. That is, time_code is a time code added for each GOP (first unit).
  • closed_gop is flag data indicating that an image in a GOP can be reproduced independently from other GOPs.
  • the broken_link is flag data indicating that the first B picture in the GOP cannot be accurately reproduced for editing or the like.
  • the time_code is composed of data such as hour (hour), minute (minute), second (second), and frame (picture) indicating the presentation time of the first picture of the GOP.
  • FIG. 4 is a diagram showing the configuration of the head access unit of the GOP of an MPEG4-AVC (Advanced Video Coding) video stream.
  • the AU delimiter is information indicating a picture boundary position.
  • SPS Sequence Parameter Set
  • PPS Picture Parameter Set
  • SEI Supplemental Enhancement Information
  • Slice is data of one picture included in the access unit.
  • Picture timing SEI includes Picture timing SEI.
  • Picture timing SEI is timing information indicating the decoding and display timing of Slice (picture data).
  • FIG. 5 is a diagram showing the configuration of an access unit other than the head of the GOP of the MPEG4-AVC video stream.
  • Access units other than the head of the GOP include AU delimiter, PPS, SEI, and Slice.
  • the SEI includes Picture timing SEI as in the top access unit of the GOP.
  • Fig. 6 is a diagram showing the structure of Picture Timing SEI.
  • Picture Timing SEI describes data of hour, minute, second and frame (n_frame). Therefore, in the MPEG4-AVC video stream, Picture Timing SEI is a time code indicating the presentation time for each picture. In other words, Picture Timing SEI is a time code added at least for each GOP.
  • the MPEG2 video stream is used for video transmission by broadcasting
  • the MPEG4-AVC video stream is used for video transmission by the Internet (communication). Therefore, in this case, time_code of the MPEG2 video stream is adopted as the first time code, and Picture timing SEI of the MPEG4-AVC video stream is adopted as the second time code.
  • FIG. 7 is a block diagram illustrating a configuration of the receiving device 300 according to the present embodiment.
  • the receiving apparatus 300 includes a tuner 301 (broadcast receiving unit), a broadcast DeMUX 302, a broadcast video buffer 303, a broadcast video decoder 304 (first video decoder), an STC generation unit 305 (reference time generation unit), Network I / F 307 (communication receiver), HTML browser 308, VOD player 309, communication streaming buffer 310, communication DeMUX 311, communication video buffer 312, STC adjustment unit 313 (adjustment unit), communication video A decoder 314 (second video decoder), a video merger 315, and a time code processing unit 316 are provided.
  • the tuner 301 receives the broadcast stream (first video stream) of the channel selected by the user, generates a transport stream (TS: Transport Stream), and sends it to the broadcast DeMUX 302.
  • TS Transport Stream
  • the broadcast DeMUX 302 performs DeMUX processing of the transport stream, separates the video TS packets, supplies the video TS packets to the broadcast video buffer 303, and extracts the PCR from the video TS packets to generate the STC generation unit. 305 is supplied.
  • the broadcast video buffer 303 buffers the video stream supplied to the broadcast video decoder 304.
  • the broadcast video decoder 304 decodes the video stream read from the broadcast video buffer 303 using the STC of the STC generation unit 305 as a time base, and outputs a video signal to the video merger 315. More specifically, the broadcast video decoder 304 starts and outputs the decoding so that the video is presented at a timing when the PTS (Presentation Time Stamp) added to the video TS packet matches the STC value. Control the timing. Also, the broadcast video decoder 304 steadily supplies the time code (first time code) added to the video stream to be decoded to the time code processing unit 316 for the purpose of synchronous reproduction of broadcast and communication. .
  • PTS Presentation Time Stamp
  • the STC generation unit 305 generates a 27 megahertz STC based on the PCR extracted from the broadcast stream, and supplies it to the video decoder 304 for broadcasting.
  • the STC generation unit 305 can adjust the STC based on the STC adjustment data from the STC adjustment unit 313.
  • the network I / F 307 is a VOD player when a broadcast-linked application operating on an HTML (HyperText Markup Language) browser 308 issues an instruction for synchronous playback of a broadcast stream and a communication stream to a VOD (Video On Demand) player 309.
  • the communication stream acquisition request given from 309 is transmitted to the distribution server of the broadcasting / communication facility 100 through the Internet, and the communication stream (second video) to be reproduced in synchronization with the broadcast stream as a response from the distribution server Stream).
  • the communication streaming buffer 310 buffers the received communication stream.
  • the communication streaming buffer 310 extracts the held communication stream and supplies it to the communication DeMUX 311.
  • the communication DeMUX 311 separates the video TS packet from the communication stream extracted from the streaming buffer 310 and supplies the video TS packet to the communication video buffer 312 as a video stream.
  • the communication video buffer 312 buffers the video stream supplied to the communication video decoder 314.
  • the communication video decoder 314 decodes the video stream extracted from the communication video buffer 312 and supplies a communication video signal to the video merger 315. Further, the communication video decoder 314 adjusts the time code (second time code) included in the video data first acquired from the generation of the instruction for synchronous playback of the broadcast stream and the communication stream for the purpose of adjusting the STC.
  • the code processing unit 316 is supplied. Further, after adjusting the STC, the video decoder for communication 314 uses the video data unit of the communication stream having the second time code having the same value as the first time code supplied from the time code processing unit 316 for communication.
  • the video data is extracted from the video buffer 312, decoded, and output to the video merger 315 as a communication video signal.
  • the video merger 315 merges the broadcast video signal and the communication video signal to generate a video signal for presentation, and outputs it to a display (not shown).
  • the merging is performed by a method corresponding to a method for separating the program material into broadcasting and communication, such as a 3D program, a multi-view program, a high-resolution program, and an audio dubbing service program.
  • the time code processing unit 316 first receives the second time code supplied from the communication video decoder 314 and the latest supplied from the broadcast video decoder 304 from the generation of an instruction for synchronous playback of the broadcast stream and the communication stream. Are compared with the first time code, and if the second time code is behind the first time code, the difference is supplied to the STC adjustment unit 313. After adjusting the STC, the time code processing unit 316 supplies the first time code supplied from the broadcast video decoder 304 to the communication video decoder 314 for the purpose of synchronous playback of the broadcast stream and the communication stream.
  • the host controller 317 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. A program and data to be executed by the CPU are fixedly stored in the ROM.
  • the RAM stores a program stored in the ROM, and the CPU executes the loaded program.
  • the program loaded in the RAM causes the host controller 317 to operate as at least the STC generation unit 305, the HTML browser 308, the VOD player 309, the time code processing unit 316, and the STC adjustment unit 313.
  • the host controller 317 can receive various instructions and data input from a user using a remote controller (not shown).
  • the STC generation unit 305, the time code processing unit 316, and the STC adjustment unit 313 are not limited to being configured by software, and may be configured as hardware.
  • the user of the receiving apparatus 300 selects a broadcast channel using a remote controller (not shown).
  • the channel selection information from the user received by the remote controller or the like is processed by the host controller 317.
  • the host controller 317 controls the tuner 301 based on channel selection information from the user.
  • the broadcast stream of the channel received by the tuner 301 is sent to the broadcast DeMUX 302.
  • the DeMUX 302 separates other TS packets such as video TS packets, audio TS packets, and SI (Service Information) from the broadcast stream.
  • the video TS packet separated by the broadcast DeMUX 302 is supplied to the broadcast video buffer 303 as a video stream, and is temporarily held here.
  • the broadcast DeMUX 302 regularly extracts the PCR from the video TS packet and supplies it to the STC generation unit 305.
  • the STC generator 305 generates a 27 MHz STC (System Time Clock) based on this PCR.
  • the broadcast video decoder 304 decodes the video stream read from the broadcast video buffer 303 and supplies the video signal to the video merger 315. At this time, the broadcast video decoder 304 displays the video stream in such a manner that the video is presented in a timing in which the PTS (Program Clock Reference) included in the video TS packet matches the STC provided from the STC generation unit 305. Control decode and output timing.
  • the broadcast video decoder 304 supplies the time code added to the video stream to be decoded to the time code processing unit 316 for the purpose of synchronous playback of the broadcast stream and the communication stream.
  • the receiving apparatus 300 acquires and executes an application (broadcast-linked application) associated with this channel or program through broadcasting or communication.
  • This broadcast-linked application prompts the user to view, for example, a 3D program, a multi-view program, a high-resolution program, an audio dubbing service program, and the like by synchronized playback of a broadcast stream and a communication stream, and gives a viewing instruction (
  • the reception apparatus 300 is caused to function so that the VOD player 309 transmits a communication stream acquisition request to the distribution server.
  • this broadcast-linked application includes, for example, HTML (Hyper Text Markup Language) documents, BML documents (Broadcast Markup Language), MHEG documents (Multimedia and Hypermedia information coding), Java (registered trademark) scripts, still image files, and video files.
  • HTML Hyper Text Markup Language
  • BML documents Broadcast Markup Language
  • MHEG documents Multimedia and Hypermedia information coding
  • Java registered trademark
  • the VOD player 309 When the VOD player 309 receives an instruction to synchronize playback of the broadcast stream and the communication stream, the VOD player 309 controls the network I / F 307 to transmit the communication stream (broadcast stream) associated with the channel or program being selected to the distribution server via the Internet. Request for transmission of a communication stream to be reproduced in synchronization with the time code, and gives an instruction to generate an offset ⁇ to the time code processing unit 316. When receiving this instruction, the time code processing unit 316 waits for the supply of the first time code from the video decoder 314 for communication.
  • the communication stream transmitted from the distribution server in response to the request is accumulated in the communication streaming buffer 310 via the network I / F 307.
  • the communication streaming buffer 310 holds the TS packet of the first video of the communication stream and immediately reads it and supplies it to the communication DeMUX 311.
  • the communication DeMUX 311 separates the video TS packet from the communication stream read from the streaming buffer 310 and supplies it to the communication video buffer 312.
  • the communication video decoder 314 decodes the video stream read from the communication video buffer 312 and supplies the video signal to the video merger 315. At this time, the communication video decoder 314 sends the second time code included in the video stream to the time code processing unit 316 as the first second time code from the generation of the instruction for synchronous playback of the broadcast stream and the communication stream. Supply.
  • the first second time code supplied from the communication video decoder 314 is TCi00
  • the first time code supplied from the broadcast video decoder 304 at the same timing as the second time code is TCb0.
  • the time code processing unit 316 compares TCi00 and TCb0 and determines whether the condition of TCb0> TCi00 is satisfied.
  • TCb0> TCi00 is established means that the video data of the communication stream to be reproduced in synchronization with the video data of the broadcast stream is actually received with a time delay. .
  • the time code processing unit 316 calculates an offset ⁇ between TCb0 and TCi00 by the following equation.
  • TCb0-TCi00 ⁇ (1)
  • the value of the offset ⁇ is supplied to the STC adjustment unit 313.
  • ((TCbh ⁇ 60 + TCbm) ⁇ 60 + TCbs) ⁇ 1000 + TCbf ⁇ 1000/60 -((TCih x 60 + TCim) x 60 + TCis) x 1000 + TCif x 1000/60
  • TCbh is a time code for broadcasting
  • TCbm is a time code for broadcasting
  • TCbs is a time code for broadcasting seconds
  • TCbf is a time code for broadcasting frames.
  • TCih is a time code for broadcasting
  • TCim is a time code for minutes of communication
  • TCis is a time code for communication seconds
  • TCif is a time code for communication frames.
  • the STC adjustment unit 313 Upon receiving the offset ⁇ , the STC adjustment unit 313 generates an STC adjustment value STC ′ according to the following equation.
  • STC ⁇ ⁇ 90 ⁇ m STC ′ (2)
  • the reason why the offset ⁇ is multiplied by 90 is to map the offset ⁇ in milliseconds to the counter value of 90 KHz which is the same as STC.
  • m is a predetermined margin.
  • the STC ′ generated as described above is supplied to the STC generation unit 305, and the STC generation unit 305 is reset by this STC ′, thereby completing the STC adjustment.
  • the broadcast video decoder 304 extracts the first time code added to the video stream to be decoded and supplies the first time code to the time code processing unit 316, and also decodes the video stream and supplies the video signal to the video merger 315. To do.
  • the receiving device 300 resumes the decoding and reproduction of the broadcast stream when the PTS included in the TS packet of the video of the broadcast stream matches STC ′.
  • the communication video decoder 314 uses the video data unit of the video stream having the second time code (TCi0) having the same value as the first time code (TCb0) acquired from the time code processing unit 316 for communication. Are extracted from the video buffer 312 and decoded.
  • the video signal obtained by the communication video decoder 314 is supplied to the video merger 315.
  • the broadcast video signal and the communication video signal synchronized with each other are supplied to the video merger 315.
  • the video merger 315 By supplying the video merger 315 with the broadcast video signal and the communication video signal synchronized with each other, the original 3D program, multi-view program, high-resolution program, audio dubbing service program, and the like are correctly restored.
  • the adjusted STC ′ is returned to the original STC at the same time as the end of the broadcast program decoded by the STC ′.
  • FIG. 8 is a time chart from the selection of the broadcast described above to the synchronization process between the broadcast stream and the communication stream, and further to the end of the synchronization process.
  • the decoding start time of the video stream is shifted backward from T1 to T1 ′.
  • the video is displayed in a frozen state from T1 to T1 ′.
  • decoding of the video streams for broadcasting and communication is restarted at the same time from T1 ′.
  • decoding is performed based on STC ′ until the program ends.
  • STC ′ is returned to the STC, and the PTS jumps to the access unit that matches the STC to perform decoding.
  • the broadcast video decoder 304 steadily supplies the first time code added to the video stream to be decoded to the time code processing unit 316.
  • the time code processing unit 316 supplies the first time code supplied from the broadcast video decoder 304 to the communication video decoder 314 for the purpose of synchronous playback of the broadcast stream and the communication stream.
  • the communication video decoder 314 extracts the video data unit of the communication stream having the second time code having the same value as the first time code supplied from the time code processing unit 316 from the communication video buffer 312. I decided to decode it.
  • the video decoder for broadcasting and the video decoder for communication adjust the PTS (Presentation Time Stamp) added to each video TS packet.
  • the decoding start and output timings may be controlled so that the video is presented at a timing that matches the later STC ′.
  • FIG. 9 is a block diagram illustrating a configuration of a receiving device 300A according to the second embodiment.
  • the time code processing unit 316 first receives the second time supplied from the video decoder for communication 314A from the generation of the instruction for synchronous playback of the broadcast stream and the communication stream. The code is compared with the latest first time code supplied from the broadcast video decoder 304A. When the second time code is delayed from the first time code, the time code processing unit 316 supplies the offset ⁇ to the STC adjustment unit 313.
  • the STC adjustment unit 313 When receiving the offset ⁇ , the STC adjustment unit 313 generates an STC adjustment value STC ′, and gives the adjustment value STC ′ to the STC generation unit 305 to adjust the STC of the STC generation unit 305.
  • the broadcast video decoder 304A is presented with the timing at which the PTS (Presentation Time Stamp) added to the TS packet of the broadcast stream video matches the adjusted STC ′ value.
  • the decoding start and output timing are controlled.
  • the video decoder for communication 314A similarly starts decoding and outputs so that the video is presented at a timing in which the PTS added to the TS packet of the video of the communication stream matches the adjusted STC ′ value. Control the timing.
  • each stream can be reproduced with good synchronization.
  • the STC is adjusted once before the start of the synchronized playback of the broadcast stream and the communication stream.
  • the STC may be adjusted after the start of the synchronized playback.
  • the STC adjustment after the start of the synchronous playback as described above is a synchronous transmission in which the program playback itself breaks down without the video of both the broadcast stream and the communication stream, particularly as in the 3D video Useful in the system.
  • the margin m used when calculating the offset ⁇ may be variable according to the reception status of the communication stream. That is, if the margin is too large, the freeze time for displaying the broadcast stream becomes long, and the possibility of giving the viewer a sense of discomfort increases. On the other hand, if it is too short, there is a high possibility that playback of a 3D program or the like fails due to a lack of a communication stream. Therefore, it is desirable that the minimum necessary margin is dynamically set according to the reception status of the communication stream so that the program reproduction does not fail.
  • the MPEG2 video stream is used for video transmission by broadcasting
  • the MPEG4-AVC video stream is used for video transmission by the Internet (communication).
  • the present technology is not limited to this.
  • an MPEG2 video stream may be used for video transmission by broadcasting and communication
  • an MPEG4-AVC video stream may be used for video transmission by broadcasting and communication.
  • a video stream other than the MPEG2 video stream and the MPEG4-AVC video stream can be used as long as a time code is added for each predetermined unit of video data.
  • this technique can also take the following structures.
  • a broadcast receiving unit capable of receiving through broadcasting a first video stream to which a first time code is added for each first unit of first video data;
  • a second video stream to which a second time code is added at least for each first unit of second video data to be reproduced in synchronization with the first video data can be received through a network.
  • a reference time generation unit for generating a reference time for generating a timing of processing for presenting the first video data;
  • the first time code added to the received first video stream and the second time code added to the second video stream are acquired at a predetermined timing, and the first time code is acquired.
  • a time code processing unit for calculating a delay of the second time code with respect to the time code of An adjustment unit that adjusts the reference time in consideration of the delay.
  • the receiving device is: A first video that is decoded so that the first video stream received by the broadcast receiving unit is presented at a timing when the presentation time information added to the first video stream matches the reference time.
  • a decoder A second video decoder that decodes the second video stream received by the communication receiver;
  • the time code processing unit obtains the first time code added to the first unit of the first video stream to be decoded by the first video decoder, and sends the first time code to the second video decoder.
  • Supply The receiving device for decoding the first unit of the second video stream to which the second time code having the same value as the supplied first time code is added.
  • the receiving apparatus adjusts the reference time with time data obtained by adding a predetermined margin to the delay.
  • the receiving apparatus according to any one of (1) to (5), The first time code is added to the first picture of the GOP in the first video stream, and the second time code is added to each picture in the second video stream.
  • Receiver device The first time code is added to the first picture of the GOP in the first video stream, and the second time code is added to each picture in the second video stream.
  • the receiving device is: A first video that is decoded so that the first video stream received by the broadcast receiving unit is presented at a timing when the presentation time information added to the first video stream matches the reference time.
  • a decoder A second video that is decoded so that the second video stream received by the communication receiver is presented at a timing when the presentation time information added to the second video stream matches the reference time.
  • a decoder A receiving apparatus further comprising:
  • the receiving device adjusts the reference time with time data obtained by adding a predetermined margin to the delay.
  • the receiving device according to any one of (7) to (10), The first time code is added to the first picture of the GOP in the first video stream, and the second time code is added to each picture in the second video stream.
  • Receiver device The first time code is added to the first picture of the GOP in the first video stream, and the second time code is added to each picture in the second video stream.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Synchronisation In Digital Transmission Systems (AREA)
  • Computer Security & Cryptography (AREA)

Abstract

【課題】互いに同期して再生されるべき2つの映像ストリームを放送とインターネットで伝送する場合のそれぞれの同期再生を良好に行う。 【解決手段】第1の映像データの第1の単位毎に第1のタイムコードが付加された放送ストリームを受信可能な放送受信部と、第1の映像データに対して同期して再生されるべき第2の映像データの少なくとも第1の単位毎に第2のタイムコードが付加された通信ストリームをネットワークを通じて受信可能な通信受信部と、基準時刻(STC)を生成する基準時刻生成部と、予め決められたタイミングで、受信された放送ストリームに付加された第1のタイムコードと通信ストリームに付加された第2のタイムコードを取得し、第1のタイムコードに対する第2のタイムコードの遅れ分を算出するタイムコード処理部と、遅れ分を加味して基準時刻を調整する調整部とを具備する。

Description

受信装置およびその同期処理方法
 本技術は、互いに同期して再生されるべき複数の映像のうち一方を放送で受信し、他方をネットワークを通じて受信し、それぞれを互いに同期再生することが可能な受信装置とその同期処理方法に関する。
 近年、携帯電話等の通信用途の帯域拡大の要求に押され、放送用途に割有られる帯域の拡大は将来的に期待できない。一方、例えば3D番組、高解像度映像など、コンテンツの伝送に必要とされる帯域は拡大傾向にあり、放送の帯域だけでは不足することが予想される。そこで、放送とインターネットの統合的に利用して、3D番組、高解像度映像など、広帯域を要する番組を伝送するサービスの実現が検討されている。
 例えば、特許文献1には、メインの放送音声データを放送波として伝送するとともに、多視点映像データおよび多聴点音声データをネットワークを介して伝送し、受信装置にてこれらメインの放送音声データ、多視点映像データおよび多聴点音声データを受信し、提示する技術が開示されている。
特開2005-159592号公報
 互いに同期して再生されるべき2つの映像ストリームを放送とインターネットとに分けて伝送する場合、それぞれの伝送方式の特性の違いによる2つの映像ストリームの受信タイミングがずれが発生した場合、特にインターネット経由のストリームが放送経由のストリームに対して遅れ、その遅れの量が放送受信側のバッファで吸収できない程度である場合には、同期再生が困難になることが想定される。
 以上のような事情に鑑み、本技術の目的は、互いに同期して再生されるべき2つの映像ストリームを放送とインターネットとに分けて伝送する場合のそれぞれの同期再生を良好に行うことのできる受信装置およびその同期処理方法を提供することにある。
 上記の課題を解決するために、本技術に係る受信装置は、第1の映像データの第1の単位毎に第1のタイムコードが付加された第1の映像ストリームを放送を通じて受信可能な放送受信部と、前記第1の映像データに対して同期して再生されるべき第2の映像データの少なくとも前記第1の単位毎に第2のタイムコードが付加された第2の映像ストリームをネットワークを通じて受信可能な通信受信部と、前記第1の映像データを提示する処理のタイミングを生成するための基準時刻を生成する基準時刻生成部と、予め決められたタイミングで、前記受信された第1の映像ストリームに付加された前記第1のタイムコードと前記第2の映像ストリームに付加された前記第2のタイムコードを取得し、前記第1のタイムコードに対する前記第2のタイムコードの遅れ分を算出するタイムコード処理部と、前記遅れ分を加味して前記基準時刻を調整する調整部と、を具備する。
 この受信装置では、タイムコード処理部が、予め決められたタイミングで、前記受信された第1の映像ストリームに付加された前記第1のタイムコードと前記第2の映像ストリームに付加された前記第2のタイムコードを取得し、前記第1のタイムコードに対する前記第2のタイムコードの遅れ分を算出する。調整部は、前記第1の映像ストリームを提示する処理のタイミングを生成するための基準時刻を前記遅れ分を加味して調整する。これにより、通信ストリームが放送ストリームに対して遅れて受信された場合でも、各ストリームを同期再生することができる。
 前記第1の映像ストリームには提示時刻情報が付加され、前記受信装置は、前記放送受信部により受信された前記第1の映像ストリームを、当該第1の映像ストリームに付加された前記提示時刻情報と前記基準時刻とが一致したタイミングで提示するようにデコードする第1の映像デコーダと、前記通信受信部により受信された前記第2の映像ストリームをデコードする第2の映像デコーダと、をさらに具備し、前記タイムコード処理部は、前記第1の映像デコーダによるデコード対象の前記第1の映像ストリームの前記第1の単位に付加された前記第1のタイムコードを取得して前記第2の映像デコーダに供給し、前記第2の映像デコーダは、前記供給された前記第1のタイムコードと同じ値の前記第2のタイムコードが付加された前記第2の映像ストリームの前記第1の単位をデコードするものであってよい。
 前記タイムコード処理部は、少なくとも、前記放送ストリームの受信中に前記通信ストリームが最初に受信されたとき、前記受信された第1の映像ストリームに付加された前記第1のタイムコードと前記第2の映像ストリームに付加された前記第2のタイムコードを取得し、前記第1のタイムコードに対する前記第2のタイムコードの遅れ分を算出するものであってよい。
 前記調整部は、前記遅れ分に所定のマージンを付加した時間データで前記基準時刻を調整するものであってよい。
 前記基準時刻生成部は、前記放送ストリームに付加された時刻参照値を用いて前記基準時刻を生成するものであってよい。
 前記第1の映像ストリームには、GOPの先頭ピクチャに前記第1のタイムコードが付加され、前記第2の映像ストリームには、ピクチャ毎に前記第2のタイムコードが付加されたものであってよい。
 また、本技術に係る受信装置において、前記第2の映像ストリームには提示時刻情報が付加され、前記受信装置は、前記放送受信部により受信された前記第1の映像ストリームを、当該第1の映像ストリームに付加された前記提示時刻情報と前記基準時刻とが一致したタイミングで提示するようにデコードする第1の映像デコーダと、前記通信受信部により受信された前記第2の映像ストリームを、当該第2の映像ストリームに付加された前記提示時刻情報と前記基準時刻とが一致したタイミングで提示するようにデコードする第2の映像デコーダと、をさらに具備するものであってよい。
 本技術の別の側面に係る同期処理方法は、放送受信部が、第1の映像データの第1の単位毎に第1のタイムコードが付加された第1の映像ストリームを放送を通じて受信し、通信受信部が、前記第1の映像データに対して同期して再生されるべき第2の映像データの少なくとも前記第1の単位毎に第2のタイムコードが付加された第2の映像ストリームをネットワークを通じて受信し、タイムコード処理部が、予め決められたタイミングで、前記受信された第1の映像ストリームに付加された前記第1のタイムコードと前記第2の映像ストリームに付加された前記第2のタイムコードを取得し、前記第1のタイムコードに対する前記第2のタイムコードの遅れ分を算出し、調整部が、前記遅れ分を加味して前記第1の映像ストリームを提示する処理のタイミングを生成するための基準時刻を調整する
ことを特徴とする。
 本技術に係る同期処理方法は、前記基準時刻の調整後、前記タイムコード処理部が、第1の映像デコーダによるデコード対象の前記第1の映像ストリームの前記第1の単位に付加された前記第1のタイムコードを取得して第2の映像デコーダに供給し、前記第2の映像デコーダが、前記供給された前記第1のタイムコードと同じ値の前記第2のタイムコードが付加された前記第2の映像ストリームの前記第1の単位をデコードすることとしてもよい。
 本技術に係る同期処理方法は、前記基準時刻の調整後、第1の映像デコーダが、前記受信された前記第1の映像ストリームを、当該第1の映像ストリームに付加された前記提示時刻情報と前記基準時刻とが一致したタイミングで提示するようにデコードし、前記基準時刻の調整後、第2の映像デコーダが、前記受信された前記第2の映像ストリームを、当該第2の映像ストリームに付加された前記提示時刻情報と前記基準時刻とが一致したタイミングで提示するようにデコードすることとしてもよい。
 以上のように、本技術によれば、互いに同期して再生されるべき2つの映像ストリームを放送とインターネットとに分けて伝送する場合のそれぞれの同期再生を良好に行うことができる。
放送ストリームと通信ストリームの同期伝送システムの構成を示す図である。 本技術に係る第1の実施形態の受信装置において、STCの調整により放送ストリームと通信ストリームとを同期させる動作の概要を示すタイムチャートである。 MPEG2ビデオストリームのタイムコードを説明する図である。 MPEG4-AVCビデオストリームのGOPの先頭のアクセスユニットの構成を示す図である。 MPEG4-AVCビデオストリームのGOPの先頭以外のアクセスユニットの構成を示す図である。 図4および図5のPicture Timing SEIの構成を示す図である 第1の実施形態の受信装置の構成を示すブロック図である。 第1の実施形態の受信装置での放送の選局から放送ストリームと通信ストリームとの同期処理、さらには同期処理の終了までのタイムチャートである。 第2の実施形態の受信装置の構成を示すブロック図である。
 以下、本技術に係る実施の形態を説明する。
 <第1の実施形態>
 本実施形態は、放送により伝送される映像を含むストリーム(以下「放送ストリーム」と呼ぶ。)とインターネットにより伝送される映像を含むストリーム(以下「通信ストリーム」と呼ぶ。)を伝送する伝送装置と、伝送装置より伝送された放送ストリームと通信ストリームを受信し、これらを互いに同期させて再生する受信装置とその同期処理方法に関するものである。
 このような放送ストリームと通信ストリームの同期伝送システムの例として次のようなものが挙げられる。
 1.3D番組
 図1は3D番組伝送システムの構成を示す図である。
 3D番組を構成する複数の視点の映像のうち1視点の映像が放送で伝送され、他の1視点の映像が通信で伝送される。受信機はこれら放送と通信で伝送される2つの映像を受信し、互いに同期をとって再生してマージし、3D映像を提示する。
 2.マルチビュー番組
 1つの被写体が複数のカメラで同時に撮影されることによって得られる一つのビューの映像がメインビューとして放送で伝送され、その他の1以上のビューの映像がサブビューとして通信で伝送される。受信機はこれら複数のビューの映像を受信し、メインビューの映像を親画面に表示させるとともに、1以上のサブビューの映像を子画面で表示させる。あるいは、受信機は、メイン画面に表示させる映像をメインビューとサブビューとの間で切り替える。
 3.高解像度番組
 例えば4Kの(画素数3840×2160)の高解像度カメラで撮影された映像が4分割されて得られる4系統のHDサイズ(画素数1920×1080)の映像のうち、一部が放送で伝送され、残りが通信で伝送される。受信機は各系統のHDサイズの映像を受信し、互いに同期をとって再生し、結合して4Kサイズの高解像度映像を提示する。あるいは、高解像度カメラで撮影された映像がウェーブレット変換などにより周波数分解され、低解像度成分のHDサイズの映像が放送で伝送され、残りの高周波成分の映像が通信で伝送される。受信機は、受信した4つのHDサイズの映像をウェーブレット逆変換などにより周波数合成して一つの高解像度映像として復元して提示する。
 4.音声吹き替えサービス
 音声吹き替えサービスでは、映像と日本語音声が放送で伝送され、映像に対する多言語の吹き替え版の音声が通信で伝送される。受信機は、映像と日本語音声を放送から受信する一方で、映像に対する多言語の吹き替え版の音声を通信から受信し、ユーザからの要求に応じて、放送の映像と吹き替え音声を互いに同期をとって再生して提示する。
 図1は上記の放送ストリームと通信ストリームの同期伝送システムの構成を示す図である。
 ここで、番組素材とは、3D番組、マルチビュー番組、高解像度番組、音声吹き替えサービス番組などである。放送・通信設備100において、番組素材は放送用の信号と通信用の信号とに分けられる。放送用の信号と通信用の信号はそれぞれ、エンコーダによってMPEG2_TSなどのストリームに符号化される。符号化されたストリームには提示時刻情報であるタイムコードが挿入される。タイムコードが挿入された一方のストリームは放送で送出され、タイムコードが挿入された他方のストリームは配信サーバによってインターネットを通じて通信で配信される。また、符号化の際には、ビデオのTSパケットに一定周期で時刻参照値であるPCR(Program Clock Reference)が挿入される。あるいは、PCRを含むPCRパケットが一定周期で付加される。
 典型的な受信装置200では、一つの番組に関連する放送ストリームおよび通信ストリームを受信する。典型的な受信装置200では、受信した放送ストリームおよび通信ストリームからそれぞれPCRを抽出し、このPCRを用いて受信装置200の基準時刻であるSTC(System Time Clock)を設定あるいは校正し、このSTCと映像のTSパケットに含まれる提示時刻情報であるPTS(Presentation Time Stamp)とから映像の提示のタイミングが生成される。
 その際、ネットワークのトラフィック変動によって受信装置200に通信ストリームが受信されるタイミングが、これと同期がとられて再生されるべき放送ストリームに対して遅れる可能性がある。通信ストリームが放送ストリームに対して遅れている場合には受信した放送ストリームをバッファに蓄えて放送ストリームの再生を遅らせる必要がある。しかし、典型的な受信装置200では、PCRをもとに生成されるSTCと、映像のTSパケットに含まれる再生時の時刻管理情報であるPTSから映像ストリームの提示タイミングが一意に決められることが前提とされている。したがって、受信した放送ストリームをバッファに蓄えるだけでは、放送ストリームと通信ストリームとの同期再生を実現することは実際には困難である。
 本実施形態では、例えばMPEG2ビデオストリーム、MPEG4-AVCビデオストリームなどの映像ストリームに付加されているタイムコードがGOPの先頭ピクチャやピクチャ毎の提示時刻を時、分、秒、フレームの単位で示すデータであることを利用して、受信装置のSTCの調整、ならびに放送ストリームと通信ストリームとの同期再生を実現する。
 [動作の概要]
 図2は本技術に係る第1の実施形態の受信装置300において、STCの調整により放送ストリームと通信ストリームとを同期させる動作の概要を示すタイムチャートである。
 1.受信装置300は、放送ストリームと通信ストリームの同期再生の指示が発生してから最初に通信ストリームを受信した時点における、放送ストリームおよび通信ストリームから取得したタイムコードどうしを比較する。放送ストリームから取得したタイムコードを「第1のタイムコード」、通信ストリームから取得したタイムコードを「第2のタイムコード」と呼ぶこととする。
 ここで、同期再生の指示が発生してから最初に通信ストリームを受信した時点における、放送ストリームの第1のタイムコードを"TCb0"、同期再生の指示が発生してから最初に受信した通信ストリームの第2のタイムコードを"TCi00"としてTCb0>TCi00の条件が成立するかどうかを判定する。
 尚、ここでタイムコードは本来、時、分、秒、フレームの4値(TCh,TCm,TCs,TCf)で表現されるが、上記でTCb0とかTCi00と称しているのは4値から以下の式にてミリセカンド単位の1値に変換したものを想定する。
 TC=(TCh×60+TCm)×60+TCs)×1000+TCf×1000/60
 2.受信装置300は、上記の条件が成立する場合、"TCb0"と"TCi00"とのオフセットΔを次式により算出する。
 TCb0-TCi00=Δ   ・・・(1)
 3.受信装置300は、このオフセットΔでSTCを次式により調整する。
 STC-Δ×90-m=STC´   ・・・(2)
 ここでオフセットΔに90を掛けるのは、ミリ秒単位のオフセットΔをSTCと同じ90KHzのカウンタ値にマッピングするためである。mは例えば予め決められたマージンである。
 4.STCの調整後、受信装置300は、上記最初に通信ストリームを受信した時点における、放送ストリームの映像のTSパケットに含まれるPTSが調整後のSTC´と一致したときデコード対象をデコードするとともに、この第1のタイムコード(TCb0)と同じ値の第2のタイムコード(TCi0)を有する通信ストリームの映像データをデコードする。以降、同様に放送ストリームと通信ストリームの同期再生が繰り返される。
 以上の処理により、放送ストリームと通信ストリームとを同期して再生することができる。
 [タイムコード]
 次に、MPEG2(Moving Picture Experts Group phase 2)ビデオストリームにおけるタイムコードについて説明する。
 図3はMPEG2ビデオストリームのタイムコードを説明する図である。
 最上位層であるピクチャ層の最初には、Sequence_Headerが記述されている。Sequence_HeaderはMPEG2ビットストリームのシーケンスのヘッダデータを定義するものである。Sequence_Headerの後ろにはGOP_Header、Picture_Headerが記述されている。
 GOP_Headerは、MPEGビットストリームのGOP(group_of_picture)層のヘッダデータを定義するものである。このGOP_Headerは、group_start_code、time_code、closed_gop、およびbroken_linkなどから構成される。
 group_start_codeは、GOP層の開始同期コードを示すデータである。
 time_codeは、GOPの先頭ピクチャのシーケンス先頭からの時間を示すタイムコードである。すなわち、time_codeはGOP(第1の単位)毎に付加されるタイムコードである。
 closed_gopは、GOP内の画像が他のGOPから独立再生可能なことを示すフラグデータである。
 broken_linkは、編集などのためにGOP内の先頭のBピクチャが正確に再生できないことを示すフラグデータである。
 そしてtime_codeは、GOPの先頭ピクチャの提示時刻を示す時(hour)、分(minute)、秒(second)、フレーム(picture)などのデータで構成される。
 図4はMPEG4-AVC(Advanced Video Coding)ビデオストリームのGOPの先頭のアクセスユニットの構成を示す図である。
 AU delimiterは、ピクチャ境界位置を示す情報である。
 SPS(Sequence Parameter Set)は、ビデオシーケンスに関するパラメータである。SPSは、具体的には、ピクチャ単位またはスライス単位の仮想バッファのバッファサイズやビットレート情報が含まれる。
 PPS(Picture Parameter Set)は、当該ピクチャに関するパラメータである。
 SEI(Supplemental Enhancement Information)は、デコードに関する補助的な情報を含む付加情報である。
 Sliceは、アクセスユニットに含まれる1つのピクチャのデータである。
 SEIはPicture timing SEIを含む。Picture timing SEIは、Slice(ピクチャのデータ)の復号化および表示のタイミングを示すタイミング情報である。
 図5はMPEG4-AVCビデオストリームのGOPの先頭以外のアクセスユニットの構成を示す図である。
 GOPの先頭以外のアクセスユニットは、AU delimiter、PPS、SEI、Sliceを含む。そしてSEIには、GOPの先頭のアクセスユニットと同様にPicture timing SEIが含まれている。
 図6はPicture Timing SEIの構成を示す図である。Picture Timing SEIには、時(hour)、分(minute)、秒(second)、フレーム(n_frame)のデータが記述される。したがって、MPEG4-AVCビデオストリームにおいて、Picture Timing SEIはピクチャ毎の提示時刻を示すタイムコードである。すなわち、Picture Timing SEIは少なくともGOP毎に付加されるタイムコードである。
 一般的にMPEG2ビデオストリームは、放送による映像の伝送に用いられ、MPEG4-AVCビデオストリームはインターネット(通信)による映像の伝送に用いられる。したがって、その場合には、MPEG2ビデオストリームのtime_codeは第1のタイムコード、MPEG4-AVCビデオストリームのPicture timing SEIは第2のタイムコードとして採用される。
 [受信装置の構成]
 図7は、本実施形態の受信装置300の構成を示すブロック図である。
 受信装置300は、チューナ301(放送受信部)、放送用のDeMUX302、放送用の映像バッファ303、放送用の映像デコーダ304(第1の映像デコーダ)、STC生成部305(基準時刻生成部)、ネットワークI/F307(通信受信部)、HTMLブラウザ308、VODプレーヤ309、通信用のストリーミングバッファ310、通信用のDeMUX311、通信用の映像バッファ312、STC調整部313(調整部)、通信用の映像デコーダ314(第2の映像デコーダ)、映像マージャ315およびタイムコード処理部316を備える。
 チューナ301は、ユーザにより選択されたチャンネルの放送ストリーム(第1の映像ストリーム)を受信し、トランスポートストリーム(TS:Transport Stream)を生成して放送用のDeMUX302に送出する。
 放送用のDeMUX302は、トランスポートストリームのDeMUX処理を行い、映像のTSパケットを分離して映像ストリームとして放送用の映像バッファ303に供給するとともに、映像のTSパケットからPCRを抽出してSTC生成部305に供給する。
 放送用の映像バッファ303は、放送用の映像デコーダ304に供給する映像ストリームをバッファリングする。
 放送用の映像デコーダ304は、放送用の映像バッファ303から読み出された映像ストリームをSTC生成部305のSTCをタイムベースとしてデコードして映像マージャ315に映像信号を出力する。より具体的には、放送用の映像デコーダ304は、映像のTSパケットに付加されたPTS(Presentation Time Stamp)がSTCの値と一致するタイミンクでその映像が提示されるように、デコード開始および出力のタイミングを制御する。
 また、放送用の映像デコーダ304は、放送と通信の同期再生を目的に、デコード対象の映像ストリームに付加されたタイムコード(第1のタイムコード)をタイムコード処理部316に定常的に供給する。
 STC生成部305は、放送ストリームから抽出されたPCRを基準に27メガヘルツのSTCを生成し、放送用の映像デコーダ304などに供給する。STC生成部305は、STC調整部313からのSTC調整データをもとにSTCを調整することが可能である。
 ネットワークI/F307は、HTML(HyperText Markup Language)ブラウザ308上で動作する放送連動型アプリケーションからVOD(Video On Demand)プレーヤ309への放送ストリームと通信ストリームの同期再生の指示が出されることによってVODプレーヤ309から与えられた通信ストリームの取得リクエストを、インターネットを通じて放送・通信設備100の配信サーバに送信し、配信サーバからの応答として、放送ストリームと同期して再生されるべき通信ストリーム(第2の映像ストリーム)を受信する。
 通信用のストリーミングバッファ310は、受信した通信ストリームをバッファリングする。通信用のストリーミングバッファ310は、保持された通信ストリームを取り出して通信用のDeMUX311に供給する。
 通信用のDeMUX311は、ストリーミングバッファ310から取り出された通信ストリームから映像のTSパケットを分離して映像ストリームとして通信用の映像バッファ312に供給する。
 通信用の映像バッファ312は、通信用の映像デコーダ314に供給する映像ストリームをバッファリングする。
 通信用の映像デコーダ314は、通信用の映像バッファ312より取り出された映像ストリームをデコードして、通信系の映像信号を映像マージャ315に供給する。
 また、通信用の映像デコーダ314は、STCの調整を目的に、放送ストリームと通信ストリームの同期再生の指示の発生から最初に取得した映像データに含まれるタイムコード(第2のタイムコード)をタイムコード処理部316に供給する。
 さらに、STCの調整以後、通信用の映像デコーダ314は、タイムコード処理部316より供給された第1のタイムコードと同じ値の第2のタイムコードをもつ通信ストリームの映像データ単位を通信用の映像バッファ312から取り出してデコードし、通信系の映像信号として映像マージャ315に出力する。
 映像マージャ315は、放送系の映像信号と通信系の映像信号とをマージして提示用の映像信号を生成し、図示しないディスプレイに出力する。ここで、マージは、3D番組、マルチビュー番組、高解像度番組、音声吹き替えサービス番組など、番組素材の放送と通信への分離方法に対応した方法で行われる。
 タイムコード処理部316は、放送ストリームと通信ストリームの同期再生の指示の発生から最初に通信用の映像デコーダ314より供給された第2のタイムコードと、放送用の映像デコーダ304より供給された最新の第1のタイムコードとを比較し、第2のタイムコードが第1のタイムコードよりも遅れている場合、その差分をSTC調整部313に供給する。
 タイムコード処理部316は、STCの調整以後、放送ストリームと通信ストリームの同期再生を目的に、放送用の映像デコーダ304より供給された第1のタイムコードを通信用の映像デコーダ314に供給する。
 ホストコントローラ317は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などで構成される。ROMにはCPUに実行させるプログラムやデータが固定的に記憶される。RAMにはROMに格納されたプログラムがロードされ、CPUはそのロードされたプログラムを実行する。
 RAMにロードされたプログラムは、ホストコントローラ317を、少なくとも、STC生成部305、HTMLブラウザ308、VODプレーヤ309、タイムコード処理部316、STC調整部313として動作させる。ホストコントローラ317は、例えば、図示しないリモートコントローラを用いてユーザからの各種指示やデータの入力を受け付けることが可能である。なお、STC生成部305、タイムコード処理部316およびSTC調整部313はソフトウェアで構成されることに限定されるものではなく、ハードウェアとして構成されてもよい。
 [放送ストリームと通信ストリームの同期処理]
 次に、受信装置300において、放送の選局から放送ストリームと通信ストリームとの同期再生までの動作を説明する。
 まず、受信装置300のユーザは、図示しないリモートコントローラなどを用いて放送チャンネルの選局を行う。リモートコントローラなどによって受け付けられたユーザからの選局情報はホストコントローラ317にて処理される。ホストコントローラ317は、ユーザからの選局情報に基づいてチューナ301を制御する。
 チューナ301にて受信されたチャンネルの放送ストリームは放送用のDeMUX302に送出される。DeMUX302は、放送ストリームから映像のTSパケット、音声のTSパケット、SI(Service Information:番組配列情報)などのその他のTSパケットを分離する。放送用のDeMUX302にて分離された映像のTSパケットは映像ストリームとして放送用の映像バッファ303に供給され、ここで一旦保持される。
 また、放送用のDeMUX302は、定常的に、映像のTSパケットからPCRを抽出してSTC生成部305に供給する。STC生成部305では、このPCRを基準に27メガヘルツのSTC(System Time Clock)が生成される。
 放送用の映像デコーダ304は、放送用の映像バッファ303から読み出された映像ストリームをデコードし、映像信号を映像マージャ315に供給する。この際、放送用の映像デコーダ304は、映像のTSパケットがもつPTS(Program Clock Reference)とSTC生成部305から与えられるSTCとが一致したタイミンクで映像が提示されるように、当該映像ストリームのデコードおよび出力のタイミングを制御する。また、放送用の映像デコーダ304は、放送ストリームと通信ストリームの同期再生を目的に、デコード対象の映像ストリームに付加されているタイムコードをタイムコード処理部316に供給する。
 本動作の一例として、チャンネルが選局された後、このチャンネルもしくは番組に関連付けられたアプリケーション(放送連動型アプリケーション)を受信装置300が放送または通信により取得し、実行する場合を想定する。この放送連動型アプリケーションは、放送ストリームと通信ストリームとの同期再生による、例えば、3D番組、マルチビュー番組、高解像度番組、音声吹き替えサービス番組などの視聴をユーザに促し、ユーザからの視聴の指示(放送ストリームと通信ストリームの同期再生の指示)を受けると、VODプレーヤ309に配信サーバに対する通信ストリームの取得リクエストを送信させるように受信装置300を機能させる。
 なお、この放送連動型アプリケーションは、例えばHTML(Hyper Text Markup Language)文書、BML文書(Broadcast Markup Language)、MHEG文書(Multimedia and Hypermedia information coding)、Java(登録商標)スクリプト、静止画ファイル、動画ファイルなどで構成される。
 VODプレーヤ309は、放送ストリームと通信ストリームの同期再生の指示を受けると、ネットワークI/F307を制御して、配信サーバにインターネットを通じて、選局中のチャンネルもしくは番組に関連付けられた通信ストリーム(放送ストリームと同期して再生されるべき通信ストリーム)の伝送をリクエストするとともに、タイムコード処理部316にオフセットΔの生成指示を与える。タイムコード処理部316は、この指示を受けると、通信用の映像デコーダ314からの第1のタイムコードの供給を待機する。
 一方、リクエストに対して配信サーバから伝送された通信ストリームは、ネットワークI/F307を介して通信用のストリーミングバッファ310に蓄積される。ここで、通信用のストリーミングバッファ310は、通信ストリームの先頭の映像のTSパケットを保持後直ちに読み出して通信用のDeMUX311に供給する。
 通信用のDeMUX311は、ストリーミングバッファ310より読み出された通信ストリームから映像のTSパケットを分離して通信用の映像バッファ312に供給する。
 通信用の映像デコーダ314は、通信用の映像バッファ312から読み出された映像ストリームをデコードし、映像信号を映像マージャ315に供給する。この際、通信用の映像デコーダ314は、映像ストリームに含まれる第2のタイムコードを、放送ストリームと通信ストリームの同期再生の指示の発生から最初の第2のタイムコードとしてタイムコード処理部316に供給する。
 ここで、通信用の映像デコーダ314より供給された最初の第2のタイムコードをTCi00、上記第2のタイムコードと同一タイミングにおいて放送用の映像デコーダ304より供給された第1のタイムコードをTCb0とする。タイムコード処理部316は、TCi00とTCb0とを比較し、TCb0>TCi00の条件が成立するかどうかを判定する。TCb0>TCi00が成立する場合とは、放送ストリームの映像データに対して、これに同期して再生されるべき通信ストリームの映像データが実際には時間的に遅れて受信されていることを意味する。
 タイムコード処理部316は、TCb0>TCi00の条件が成立した場合、次式によりTCb0とTCi00とのオフセットΔを算出する。
 TCb0-TCi00=Δ   ・・・(1)
 このオフセットΔの値はSTC調整部313に供給される。
 具体的には、第1のタイムコードおよび第2のタイムコードは時、分、秒、フレームの組み合わせで表現されるため、
 Δ=((TCbh×60+TCbm)×60+TCbs)×1000+TCbf×1000/60
  -((TCih×60+TCim)×60+TCis)×1000+TCif×1000/60
によりミリ秒単位のオフセットΔが得られる。
 ここで、TCbhは放送の時単位のタイムコード、TCbmは放送の分単位のタイムコード、TCbsは放送の秒単位のタイムコード、TCbfは放送のフレーム単位のタイムコードである。TCihは放送の時単位のタイムコード、TCimは通信の分単位のタイムコード、TCisは通信の秒単位のタイムコード、TCifは通信のフレーム単位のタイムコードである。
 STC調整部313は、オフセットΔを受け取ると、STCの調整値STC´を次式により生成する。
 STC-Δ×90-m=STC´   ・・・(2)
 ここで、オフセットΔに90を掛けるのは、ミリ秒単位のオフセットΔをSTCと同じ90KHzのカウンタ値にマッピングするためである。mは予め決められたマージンである。
 以上のように生成されたSTC´はSTC生成部305に供給され、STC生成部305はこのSTC´でリセットすることで、STCの調整が完了する。
 次に、調整されたSTC´を用いて放送ストリームと通信ストリームとの同期再生を行う場合の動作を説明する。
 放送用の映像デコーダ304は、デコード対象の映像ストリームに付加された第1のタイムコードを取り出してタイムコード処理部316に供給するとともに、当該映像ストリームをデコードして映像信号を映像マージャ315に供給する。
 受信装置300は、放送ストリームの映像のTSパケットに含まれるPTSがSTC´と一致したとき、放送ストリームのデコード再生を再開する。また、通信用の映像デコーダ314は、タイムコード処理部316より取得された第1のタイムコード(TCb0)と同じ値の第2のタイムコード(TCi0)を有する映像ストリームの映像データ単位を通信用の映像バッファ312より取り出してデコードする。通信用の映像デコーダ314によって得られた映像信号は映像マージャ315に供給される。これにより、互いに同期した放送系の映像信号と通信系の映像信号が映像マージャ315に供給される。
 映像マージャ315に、互いに同期した放送系の映像信号と通信系の映像信号が供給されることで、元の3D番組、マルチビュー番組、高解像度番組、音声吹き替えサービス番組などの番組が正しく復元される。
 なお、TCb0>TCi00の条件が成立した場合にはSTCを調整することとしたが、TCb0<TCi00またはTCb0=TCi00が成立した場合にはSTCの調整は不要である。
 また、調整後のSTC´は、このSTC´でデコードが行われた放送番組の終了と同時にもとのSTCに戻される。
 図8は以上説明した放送の選局から放送ストリームと通信ストリームとの同期処理、さらには同期処理の終了までのタイムチャートである。
 受信装置300において、STCがSTC´に更新されることによって映像ストリームのデコードの開始時刻がT1からT1´に後方へとずらされる。T1からT1´までの間、映像はフリーズ状態で表示される。そしてT1´の時刻から放送と通信それぞれの映像ストリームのデコードが同時に再開される。その後、番組が終了するまで、STC´を基準にデコードが行われる。番組が終了すると、STC´がSTCに戻され、PTSがSTCに一致するアクセスユニットにジャンプしてデコードが行われる。
 <第2の実施形態>
 上記の第1の実施形態では、放送用の映像デコーダ304が、デコード対象の映像ストリームに付加された第1のタイムコードをタイムコード処理部316に定常的に供給する。タイムコード処理部316は、STCの調整以後、放送ストリームと通信ストリームの同期再生を目的に、放送用の映像デコーダ304より供給された第1のタイムコードを通信用の映像デコーダ314に供給する。そして通信用の映像デコーダ314は、タイムコード処理部316より供給された第1のタイムコードと同じ値の第2のタイムコードをもつ通信ストリームの映像データ単位を通信用の映像バッファ312から取り出してデコードすることとした。
 本技術は、このことに限定されるものではなく、STCの調整以後、放送用の映像デコーダおよび通信用の映像デコーダが、それぞれの映像のTSパケットに付加されたPTS(Presentation Time Stamp)が調整後のSTC´と一致するタイミンクでその映像が提示されるように、デコード開始および出力のタイミングを制御するようにしてもよい。
 図9は、第2の実施形態の受信装置300Aの構成を示すブロック図である。
 この受信装置300Aにおいて、タイムコード処理部316は、第1の実施形態と同様、放送ストリームと通信ストリームの同期再生の指示の発生から最初に通信用の映像デコーダ314Aより供給された第2のタイムコードと、放送用の映像デコーダ304Aより供給された最新の第1のタイムコードとを比較する。タイムコード処理部316は、第2のタイムコードが第1のタイムコードよりも遅れている場合、そのオフセットΔをSTC調整部313に供給する。
 STC調整部313は、オフセットΔを受け取ると、STCの調整値STC´を生成し、この調整値STC´をSTC生成部305に与えることで、STC生成部305のSTCを調整する。
 STCの調整後、放送用の映像デコーダ304Aは、放送ストリームの映像のTSパケットに付加されたPTS(Presentation Time Stamp)が調整されたSTC´の値と一致するタイミンクでその映像が提示されるように、デコード開始および出力のタイミングを制御する。
 一方、通信用の映像デコーダ314Aも同様に、通信ストリームの映像のTSパケットに付加されたPTSが調整されたSTC´の値と一致するタイミンクでその映像が提示されるように、デコード開始および出力のタイミングを制御する。
 したがって、本実施形態の受信装置300Aにおいても、通信ストリームが放送ストリームに対して遅れて受信された場合でも、各ストリームを良好に同期再生することができる。
 <変形例1>
 上記の第1の実施形態では、放送ストリームと通信ストリームとの同期再生の開始前に一度STCを調整するというものであるが、同期再生の開始以後もSTCの調整を行うようにしてよい。
 同期再生の開始以後にSTCの調整を行う条件としては、例えば、
 1.一定の時間周期(数分、数十分の周期)。
 2.ストリーミングバッファ310に蓄えられた映像ストリームのサイズが一定値未満まで低下したとき。
 3.通信用の映像バッファ312に蓄えられた映像ストリームのサイズが一定値未満まで低下したとき。
 などが挙げられる。
 但し、STCの調整は映像のフリーズ状態を誘発することから、あまり高い頻度で行うことは好ましくない。しかし、初回に一度のSTCの調整だけでは、インターネットの通信状況によっては、通信ストリームの受信が間に合わなくなる可能性がある。そこで、上記のように同期再生の開始以後もSTCの調整を行うことは、特に3D映像のように、放送ストリームと通信ストリームの両方の映像なしでは番組再生そのものが破綻してしまうような同期伝送システムにおいては有益である。
 オフセットΔを計算する際に用いられるマージンmは通信ストリームの受信状況などに応じて可変としてもよい。すなわち、マージンが大きすぎると放送ストリームの表示のフリーズ時間が長くなり、視聴者に違和感を与える可能性が高くなる。逆に短すぎると、通信ストリームの欠落によって3D番組などの再生が破綻する可能性が高くなる。したがって、番組再生が破綻しない程度に必要最小限のマージンが通信ストリームの受信状況などに応じて動的に設定されることが望ましい。
 以上の実施形態では、MPEG2ビデオストリームを放送による映像の伝送に利用し、MPEG4-AVCビデオストリームはインターネット(通信)による映像の伝送に利用することとした。本技術はこれに限定されない。例えば、MPEG2ビデオストリームを放送と通信による映像の伝送に利用してもよいし、MPEG4-AVCビデオストリームを放送と通信による映像の伝送に利用してもよい。
 また、本技術は、タイムコードを映像データの所定の単位毎に付加するものであれば、MPEG2ビデオストリーム、MPEG4-AVCビデオストリーム以外のビデオストリームを利用することが可能である。
 本技術は、上述の図示例にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
 なお、本技術は以下のような構成も採ることができる。
(1) 第1の映像データの第1の単位毎に第1のタイムコードが付加された第1の映像ストリームを放送を通じて受信可能な放送受信部と、
 前記第1の映像データに対して同期して再生されるべき第2の映像データの少なくとも前記第1の単位毎に第2のタイムコードが付加された第2の映像ストリームをネットワークを通じて受信可能な通信受信部と、
 前記第1の映像データを提示する処理のタイミングを生成するための基準時刻を生成する基準時刻生成部と、
 予め決められたタイミングで、前記受信された第1の映像ストリームに付加された前記第1のタイムコードと前記第2の映像ストリームに付加された前記第2のタイムコードを取得し、前記第1のタイムコードに対する前記第2のタイムコードの遅れ分を算出するタイムコード処理部と、
 前記遅れ分を加味して前記基準時刻を調整する調整部と
 を具備する受信装置。
(2)前記(1)に記載の受信装置であって、
 請求項1に記載の受信装置であって、
 前記第1の映像ストリームには提示時刻情報が付加され、
 前記受信装置は、
 前記放送受信部により受信された前記第1の映像ストリームを、当該第1の映像ストリームに付加された前記提示時刻情報と前記基準時刻とが一致したタイミングで提示するようにデコードする第1の映像デコーダと、
 前記通信受信部により受信された前記第2の映像ストリームをデコードする第2の映像デコーダと、をさらに具備し、
 前記タイムコード処理部は、前記第1の映像デコーダによるデコード対象の前記第1の映像ストリームの前記第1の単位に付加された前記第1のタイムコードを取得して前記第2の映像デコーダに供給し、
 前記第2の映像デコーダは、前記供給された前記第1のタイムコードと同じ値の前記第2のタイムコードが付加された前記第2の映像ストリームの前記第1の単位をデコードする
 受信装置。
(3)前記(1)から(2)に記載のいずれかの受信装置であって、
 前記調整部は、前記遅れ分に所定のマージンを付加した時間データで前記基準時刻を調整する
 受信装置。
(4)前記(1)から(3)に記載のいずれかの受信装置であって、
 前記基準時刻生成部は、前記放送ストリームに付加された時刻参照値を用いて前記基準時刻を生成する
 受信装置。
(5)前記(1)から(4)に記載のいずれかの受信装置であって、
 前記基準時刻生成部は、前記放送ストリームに付加された時刻参照値を用いて前記基準時刻を生成する
 受信装置。
(6)前記(1)から(5)に記載のいずれかの受信装置であって、
 前記第1の映像ストリームには、GOPの先頭ピクチャに前記第1のタイムコードが付加され、前記第2の映像ストリームには、ピクチャ毎に前記第2のタイムコードが付加されたものである。
受信装置。
(7)前記(1)に記載の受信装置であって、
 前記第2の映像ストリームには提示時刻情報が付加され、
 前記受信装置は、
 前記放送受信部により受信された前記第1の映像ストリームを、当該第1の映像ストリームに付加された前記提示時刻情報と前記基準時刻とが一致したタイミングで提示するようにデコードする第1の映像デコーダと、
 前記通信受信部により受信された前記第2の映像ストリームを、当該第2の映像ストリームに付加された前記提示時刻情報と前記基準時刻とが一致したタイミングで提示するようにデコードする第2の映像デコーダと、
 をさらに具備する受信装置。
(8)前記(7)に記載の受信装置であって、
 前記調整部は、前記遅れ分に所定のマージンを付加した時間データで前記基準時刻を調整する
 受信装置。
(9)前記(7)から(8)に記載のいずれかの受信装置であって、
 前記基準時刻生成部は、前記放送ストリームに付加された時刻参照値を用いて前記基準時刻を生成する
 受信装置。
(10)前記(7)から(9)に記載のいずれかの受信装置であって、
 前記基準時刻生成部は、前記放送ストリームに付加された時刻参照値を用いて前記基準時刻を生成する
 受信装置。
(11)前記(7)から(10)に記載のいずれかの受信装置であって、
 前記第1の映像ストリームには、GOPの先頭ピクチャに前記第1のタイムコードが付加され、前記第2の映像ストリームには、ピクチャ毎に前記第2のタイムコードが付加されたものである。
受信装置。
 100…放送・通信設備
 300…受信装置
 301…チューナ
 302…放送用のDeMUX
 303…放送用の映像バッファ
 304…放送用の映像デコーダ
 305…STC生成部
 307…ネットワークI/F
 308…HTMLブラウザ
 309…VODプレーヤ
 310…ストリーミングバッファ
 311…通信用のDeMUX
 312…通信用の映像バッファ
 313…STC調整部
 314…通信用の映像デコーダ
 315…映像マージャ
 316…タイムコード処理部
 317…ホストコントローラ

Claims (10)

  1.  第1の映像データの第1の単位毎に第1のタイムコードが付加された第1の映像ストリームを放送を通じて受信可能な放送受信部と、
     前記第1の映像データに対して同期して再生されるべき第2の映像データの少なくとも前記第1の単位毎に第2のタイムコードが付加された第2の映像ストリームをネットワークを通じて受信可能な通信受信部と、
     前記第1の映像データを提示する処理のタイミングを生成するための基準時刻を生成する基準時刻生成部と、
     予め決められたタイミングで、前記受信された第1の映像ストリームに付加された前記第1のタイムコードと前記第2の映像ストリームに付加された前記第2のタイムコードを取得し、前記第1のタイムコードに対する前記第2のタイムコードの遅れ分を算出するタイムコード処理部と、
     前記遅れ分を加味して前記基準時刻を調整する調整部と
     を具備する受信装置。
  2.  請求項1に記載の受信装置であって、
     前記第1の映像ストリームには提示時刻情報が付加され、
     前記受信装置は、
     前記放送受信部により受信された前記第1の映像ストリームを、当該第1の映像ストリームに付加された前記提示時刻情報と前記基準時刻とが一致したタイミングで提示するようにデコードする第1の映像デコーダと、
     前記通信受信部により受信された前記第2の映像ストリームをデコードする第2の映像デコーダと、をさらに具備し、
     前記タイムコード処理部は、前記第1の映像デコーダによるデコード対象の前記第1の映像ストリームの前記第1の単位に付加された前記第1のタイムコードを取得して前記第2の映像デコーダに供給し、
     前記第2の映像デコーダは、前記供給された前記第1のタイムコードと同じ値の前記第2のタイムコードが付加された前記第2の映像ストリームの前記第1の単位をデコードする
     受信装置。
  3.  請求項2に記載の受信装置であって、
     前記タイムコード処理部は、少なくとも、前記放送ストリームの受信中に前記通信ストリームが最初に受信されたとき、前記受信された第1の映像ストリームに付加された前記第1のタイムコードと前記第2の映像ストリームに付加された前記第2のタイムコードを取得し、前記第1のタイムコードに対する前記第2のタイムコードの遅れ分を算出する
     受信装置。
  4.  請求項3に記載の受信装置であって、
     前記調整部は、前記遅れ分に所定のマージンを付加した時間データで前記基準時刻を調整する
     受信装置。
  5.  請求項4に記載の受信装置であって、
     前記基準時刻生成部は、前記放送ストリームに付加された時刻参照値を用いて前記基準時刻を生成する
     受信装置。
  6.  請求項5に記載の受信装置であって、
     前記第1の映像ストリームには、GOPの先頭ピクチャに前記第1のタイムコードが付加され、
     前記第2の映像ストリームには、ピクチャ毎に前記第2のタイムコードが付加されたものである
     受信装置。
  7.  請求項1に記載の受信装置であって、
     前記第2の映像ストリームには提示時刻情報が付加され、
     前記受信装置は、
     前記放送受信部により受信された前記第1の映像ストリームを、当該第1の映像ストリームに付加された前記提示時刻情報と前記基準時刻とが一致したタイミングで提示するようにデコードする第1の映像デコーダと、
     前記通信受信部により受信された前記第2の映像ストリームを、当該第2の映像ストリームに付加された前記提示時刻情報と前記基準時刻とが一致したタイミングで提示するようにデコードする第2の映像デコーダと、
     をさらに具備する受信装置。
  8.  放送受信部が、第1の映像データの第1の単位毎に第1のタイムコードが付加された第1の映像ストリームを放送を通じて受信し、
     通信受信部が、前記第1の映像データに対して同期して再生されるべき第2の映像データの少なくとも前記第1の単位毎に第2のタイムコードが付加された第2の映像ストリームをネットワークを通じて受信し、
     タイムコード処理部が、予め決められたタイミングで、前記受信された第1の映像ストリームに付加された前記第1のタイムコードと前記第2の映像ストリームに付加された前記第2のタイムコードを取得し、前記第1のタイムコードに対する前記第2のタイムコードの遅れ分を算出し、
     調整部が、前記遅れ分を加味して前記第1の映像ストリームを提示する処理のタイミングを生成するための基準時刻を調整する
     同期処理方法。
  9.  請求項8に記載の同期処理方法であって、
     前記基準時刻の調整後、前記タイムコード処理部が、第1の映像デコーダによるデコード対象の前記第1の映像ストリームの前記第1の単位に付加された前記第1のタイムコードを取得して第2の映像デコーダに供給し、
     前記第2の映像デコーダが、前記供給された前記第1のタイムコードと同じ値の前記第2のタイムコードが付加された前記第2の映像ストリームの前記第1の単位をデコードする
     同期処理方法。
  10.  請求項8に記載の同期処理方法であって、
     前記基準時刻の調整後、第1の映像デコーダが、前記受信された前記第1の映像ストリームを、当該第1の映像ストリームに付加された前記提示時刻情報と前記基準時刻とが一致したタイミングで提示するようにデコードし、
     前記基準時刻の調整後、第2の映像デコーダが、前記受信された前記第2の映像ストリームを、当該第2の映像ストリームに付加された前記提示時刻情報と前記基準時刻とが一致したタイミングで提示するようにデコードする
     同期処理方法。
PCT/JP2013/003527 2012-06-22 2013-06-05 受信装置およびその同期処理方法 Ceased WO2013190789A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US14/400,612 US10397633B2 (en) 2012-06-22 2013-06-05 Receiver apparatus and synchronization processing method thereof
JP2014520906A JP6313704B2 (ja) 2012-06-22 2013-06-05 受信装置およびその同期処理方法
EP13806945.5A EP2866457B1 (en) 2012-06-22 2013-06-05 Reception device, and synchronous processing method therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012140938 2012-06-22
JP2012-140938 2012-06-22

Publications (1)

Publication Number Publication Date
WO2013190789A1 true WO2013190789A1 (ja) 2013-12-27

Family

ID=49768404

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/003527 Ceased WO2013190789A1 (ja) 2012-06-22 2013-06-05 受信装置およびその同期処理方法

Country Status (5)

Country Link
US (1) US10397633B2 (ja)
EP (1) EP2866457B1 (ja)
JP (1) JP6313704B2 (ja)
AR (1) AR091450A1 (ja)
WO (1) WO2013190789A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015098376A1 (ja) * 2013-12-27 2015-07-02 日立マクセル株式会社 放送受信装置及び映像表示方法
CN105516118A (zh) * 2015-12-03 2016-04-20 Tcl集团股份有限公司 一种基于非rtc智能电视的时间同步方法及系统
WO2017038481A1 (ja) * 2015-09-01 2017-03-09 ソニー株式会社 受信装置、データ処理方法、及び、プログラム
US20170208220A1 (en) * 2016-01-14 2017-07-20 Disney Enterprises, Inc. Automatically synchronizing multiple real-time video sources
JP2018207505A (ja) * 2018-07-27 2018-12-27 マクセル株式会社 放送受信装置及び映像表示方法
JP2020188497A (ja) * 2019-03-26 2020-11-19 ソニー株式会社 送信方法
JP2021166396A (ja) * 2020-07-29 2021-10-14 ソニーグループ株式会社 送信方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8560719B2 (en) * 2011-09-14 2013-10-15 Mobitv, Inc. Fragment server directed device fragment caching
US20150109413A1 (en) * 2013-10-21 2015-04-23 Electronics And Telecommunications Research Institute Video reception apparatus to provide hybrid service based on transport stream system target decoder model
KR20150057149A (ko) * 2013-11-18 2015-05-28 한국전자통신연구원 재전송망에 기초한 3d 방송 서비스 제공 시스템 및 방법
JP6127964B2 (ja) * 2013-12-26 2017-05-17 ソニー株式会社 信号切換装置および信号切換装置の動作制御方法
US9374604B2 (en) 2014-03-31 2016-06-21 Arris Enterprises, Inc. Adaptive streaming transcoder synchronization
CN114598909B (zh) * 2022-03-30 2023-12-01 青岛海信宽带多媒体技术有限公司 一种智能机顶盒及直播节目的时间轴显示方法
JP2025079585A (ja) * 2023-11-10 2025-05-22 キヤノン株式会社 通信装置、通信装置の制御方法及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005159592A (ja) 2003-11-25 2005-06-16 Nippon Hoso Kyokai <Nhk> コンテンツ送信装置およびコンテンツ受信装置
JP2008252831A (ja) * 2007-03-30 2008-10-16 Sharp Corp 放送受信装置、放送再送信装置、放送再送信方法、放送受信システム、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2011166615A (ja) * 2010-02-12 2011-08-25 Nippon Telegr & Teleph Corp <Ntt> 映像同期装置、映像表示装置、映像同期方法及びプログラム
JP2012010009A (ja) * 2010-06-23 2012-01-12 Nippon Hoso Kyokai <Nhk> 送信装置、サーバ装置、および受信装置

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1032815A (ja) * 1996-07-16 1998-02-03 Toshiba Corp 画面合成装置
US6587505B1 (en) * 1998-08-31 2003-07-01 Canon Kabushiki Kaisha Image processing apparatus and method
US6512552B1 (en) * 1999-03-29 2003-01-28 Sony Corporation Subpicture stream change control
EP1158799A1 (en) * 2000-05-18 2001-11-28 Deutsche Thomson-Brandt Gmbh Method and receiver for providing subtitle data in several languages on demand
US7346698B2 (en) * 2000-12-20 2008-03-18 G. W. Hannaway & Associates Webcasting method and system for time-based synchronization of multiple, independent media streams
JP4380930B2 (ja) * 2001-03-19 2009-12-09 株式会社東芝 オーディオ・ビデオ復号再生装置とその同期再生方法
US9948977B2 (en) * 2003-01-09 2018-04-17 Avago Technologies General Ip (Singapore) Pte. Ltd. System, method, and apparatus for determining presentation time for picture without presentation time stamp
EP1662793B1 (en) * 2003-09-02 2020-01-15 Sony Corporation Content reception device, video/audio output timing control method, and content providing system
JP2005123789A (ja) * 2003-10-15 2005-05-12 Matsushita Electric Ind Co Ltd Av同期システム
KR100526189B1 (ko) * 2004-02-14 2005-11-03 삼성전자주식회사 트랜스코딩 전후에 타이밍 파라미터를 일정하게유지시키는 트랜스코딩 시스템 및 방법
JP4229035B2 (ja) * 2004-09-28 2009-02-25 ソニー株式会社 記録再生装置および方法、再生装置および方法、記録装置および方法、並びにプログラム
US8140954B2 (en) * 2005-06-05 2012-03-20 International Business Machines Corporation System and method for providing on demand captioning of broadcast programs
JP2007013714A (ja) * 2005-06-30 2007-01-18 Toshiba Corp 情報再生装置及び情報再生方法
CN100442858C (zh) * 2005-10-11 2008-12-10 华为技术有限公司 分组网络中多媒体实时传输的唇同步方法及其装置
JP2008005112A (ja) * 2006-06-21 2008-01-10 Matsushita Electric Ind Co Ltd ストリームエンコーダ及びストリームデコーダ
KR100905723B1 (ko) * 2006-12-08 2009-07-01 한국전자통신연구원 비실시간 기반의 디지털 실감방송 송수신 시스템 및 그방법
WO2009157078A1 (ja) 2008-06-26 2009-12-30 富士通マイクロエレクトロニクス株式会社 映像音声データ出力装置および映像音声データ出力方法
JP4409611B2 (ja) * 2008-08-04 2010-02-03 シャープ株式会社 放送受信装置、放送受信方法、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体
KR101535827B1 (ko) * 2008-12-05 2015-07-27 삼성전자주식회사 무선 통신 네트워크에서 오디오 및 비디오 동기화 장치 및 방법
KR101164857B1 (ko) * 2008-12-19 2012-07-11 한국전자통신연구원 비실시간으로 3차원 입체 방송을 제공하기 위한 방송 송수신 시스템 및 방법
JP2011066871A (ja) * 2009-08-21 2011-03-31 Sony Corp コンテンツ伝送方法及び表示装置
JP2011123195A (ja) 2009-12-09 2011-06-23 Fuji Xerox Co Ltd 定着装置及び画像形成装置
CA2795191C (en) * 2010-04-04 2016-11-29 Lg Electronics Inc. Method and apparatus for processing non-real-time broadcast service and content transmitted by broadcast signal
KR20120010785A (ko) * 2010-07-27 2012-02-06 대양롤랜트 주식회사 하우징 일체형 다중 베어링 유닛
KR101831775B1 (ko) * 2010-12-07 2018-02-26 삼성전자주식회사 멀티미디어 컨텐츠를 송수신하는 송신 장치 및 수신 장치와, 그 재생 방법
EP2498494A1 (en) * 2011-03-11 2012-09-12 Thomson Licensing Decoder and method at the decoder for synchronizing the rendering of contents received through different networks
WO2012151756A1 (en) * 2011-05-12 2012-11-15 Intel Corporation Techniques for synchronization of audio and video
CN103125123B (zh) * 2011-08-11 2017-04-26 松下知识产权经营株式会社 再现装置、再现方法、集成电路、广播系统及广播方法
JP5121993B1 (ja) * 2011-10-11 2013-01-16 株式会社東芝 コンテンツ処理装置、及びコンテンツ同期方法
JP5132808B1 (ja) * 2011-10-11 2013-01-30 株式会社東芝 デジタル放送録画再生装置およびデジタル放送録画再生方法
JP5903924B2 (ja) 2012-02-17 2016-04-13 ソニー株式会社 受信装置および字幕処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005159592A (ja) 2003-11-25 2005-06-16 Nippon Hoso Kyokai <Nhk> コンテンツ送信装置およびコンテンツ受信装置
JP2008252831A (ja) * 2007-03-30 2008-10-16 Sharp Corp 放送受信装置、放送再送信装置、放送再送信方法、放送受信システム、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2011166615A (ja) * 2010-02-12 2011-08-25 Nippon Telegr & Teleph Corp <Ntt> 映像同期装置、映像表示装置、映像同期方法及びプログラム
JP2012010009A (ja) * 2010-06-23 2012-01-12 Nippon Hoso Kyokai <Nhk> 送信装置、サーバ装置、および受信装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KINJI MATSUMURA ET AL.: "Hybridcast no Gaiyo to Gijutsu", NHK SCIENCE AND TECHNICAL RESEARCH LABORATORIES R&D REPORT, 15 November 2010 (2010-11-15), pages 10 - 17, XP008175577 *
KINJI MATSUMURA ET AL.: "Implementation Study of An Extra Content Service for Broadcast Programs using Synchronized IP Streaming", NEN THE INSTITUTE OF IMAGE INFORMATION AND TELEVISION ENGINEERS NENJI TAIKAI KOEN YOKOSHU, 2 August 2010 (2010-08-02), pages 10 - 5, XP008175584 *

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11134306B2 (en) 2013-12-27 2021-09-28 Maxell, Ltd. Broadcast reception device and video display method
JP2015126464A (ja) * 2013-12-27 2015-07-06 日立マクセル株式会社 放送受信装置及び映像表示方法
US12279011B2 (en) 2013-12-27 2025-04-15 Maxell, Ltd. Broadcast reception device and video display method
US12003813B2 (en) 2013-12-27 2024-06-04 Maxell, Ltd. Broadcast reception device and video display method
EP3089465A4 (en) * 2013-12-27 2017-07-05 Hitachi Maxell, Ltd. Broadcast reception device and video display method
US11716504B2 (en) 2013-12-27 2023-08-01 Maxell, Ltd. Broadcast reception device and video display method
WO2015098376A1 (ja) * 2013-12-27 2015-07-02 日立マクセル株式会社 放送受信装置及び映像表示方法
US11425455B2 (en) 2013-12-27 2022-08-23 Maxell, Ltd. Broadcast reception device and video display method
US10321186B2 (en) 2013-12-27 2019-06-11 Maxell, Ltd. Broadcast reception device and video display method
JPWO2017038481A1 (ja) * 2015-09-01 2018-06-21 ソニー株式会社 受信装置、データ処理方法、及び、プログラム
US10887644B2 (en) 2015-09-01 2021-01-05 Sony Corporation Reception device, data processing method, and program
WO2017038481A1 (ja) * 2015-09-01 2017-03-09 ソニー株式会社 受信装置、データ処理方法、及び、プログラム
CN105516118A (zh) * 2015-12-03 2016-04-20 Tcl集团股份有限公司 一种基于非rtc智能电视的时间同步方法及系统
CN105516118B (zh) * 2015-12-03 2019-06-11 Tcl集团股份有限公司 一种基于非rtc智能电视的时间同步方法及系统
US10764473B2 (en) * 2016-01-14 2020-09-01 Disney Enterprises, Inc. Automatically synchronizing multiple real-time video sources
US20170208220A1 (en) * 2016-01-14 2017-07-20 Disney Enterprises, Inc. Automatically synchronizing multiple real-time video sources
JP2018207505A (ja) * 2018-07-27 2018-12-27 マクセル株式会社 放送受信装置及び映像表示方法
JP2020188497A (ja) * 2019-03-26 2020-11-19 ソニー株式会社 送信方法
JP2022159374A (ja) * 2020-07-29 2022-10-17 ソニーグループ株式会社 送信方法
JP7120399B2 (ja) 2020-07-29 2022-08-17 ソニーグループ株式会社 送信方法
JP7371734B2 (ja) 2020-07-29 2023-10-31 ソニーグループ株式会社 送信方法
JP2023181254A (ja) * 2020-07-29 2023-12-21 ソニーグループ株式会社 送信方法
JP2021166396A (ja) * 2020-07-29 2021-10-14 ソニーグループ株式会社 送信方法
JP7605273B2 (ja) 2020-07-29 2024-12-24 ソニーグループ株式会社 送信方法

Also Published As

Publication number Publication date
AR091450A1 (es) 2015-02-04
EP2866457A1 (en) 2015-04-29
US10397633B2 (en) 2019-08-27
JP6313704B2 (ja) 2018-04-18
EP2866457B1 (en) 2019-03-20
EP2866457A4 (en) 2015-11-04
US20150135247A1 (en) 2015-05-14
JPWO2013190789A1 (ja) 2016-02-08

Similar Documents

Publication Publication Date Title
JP6313704B2 (ja) 受信装置およびその同期処理方法
US12192548B2 (en) Reception method, transmission method, reception device, and transmission device
JP6333173B2 (ja) 受信装置および受信方法
JP5903924B2 (ja) 受信装置および字幕処理方法
CN102857796B (zh) Itv环境中的同步和自动化
US8760579B2 (en) Video display apparatus, video display system and video display method
EP1786209A1 (en) Content receiver, video-audio output timing control method, and content providing system
KR20170074866A (ko) 수신 장치, 송신 장치, 및 데이터 처리 방법
KR20140022716A (ko) 화상 데이터 송신 장치, 화상 데이터 송신 방법 및 화상 데이터 수신 장치
KR20060134911A (ko) 콘텐츠 수신 장치, 비디오 오디오 출력 타이밍 제어 방법및 콘텐츠 제공 시스템
EP2485501B1 (en) Fast channel change companion stream solution with bandwidth optimization
US20120173668A1 (en) Content transmitting apparatus, content receiving apparatus, content transmission program, content reception program, content transmitting method, and content receiving method
JP2004297628A (ja) ストリーム切替装置およびその装置にコンテンツを提供する装置
US20150109411A1 (en) Image playback apparatus for 3dtv and method performed by the apparatus
EP2814256B1 (en) Method and apparatus for modifying a stream of digital content
US9426506B2 (en) Apparatuses for providing and receiving augmented broadcasting service in hybrid broadcasting environment
US8769562B2 (en) Digital broadcast method, data receiving device, and data transmitting device
JP2012169993A (ja) コンテンツ同期装置、コンテンツ同期方法及びコンテンツ同期プログラム
CN114189737B (zh) 一种数字电视快速切台方法及数字电视
CN108702533B (zh) 发送装置、发送方法、接收装置和接收方法
KR100802133B1 (ko) 오디오/비디오신호의 동기화를 위한 디지털신호 처리장치및 그의 방법
JP2005198105A (ja) 同期信号発生装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13806945

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14400612

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2014520906

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2013806945

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE