WO2015115253A1 - 受信装置、受信方法、送信装置、及び、送信方法 - Google Patents
受信装置、受信方法、送信装置、及び、送信方法 Download PDFInfo
- Publication number
- WO2015115253A1 WO2015115253A1 PCT/JP2015/051443 JP2015051443W WO2015115253A1 WO 2015115253 A1 WO2015115253 A1 WO 2015115253A1 JP 2015051443 W JP2015051443 W JP 2015051443W WO 2015115253 A1 WO2015115253 A1 WO 2015115253A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- component
- service
- audio
- control signal
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/238—Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/438—Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
Definitions
- the present technology relates to a receiving device, a receiving method, a transmitting device, and a transmitting method, and more particularly, to a receiving device, a receiving method, a transmitting device, and a transmitting method that can flexibly cope with various operation modes. .
- MPEG2-TS Motion Picture Experts Group Phase 2-Transport Stream
- IP Internet Protocol
- IP transmission method By introducing the IP transmission method, it is expected that content in various formats can be transmitted in various distribution forms, and various operation forms can be used. The technical system to respond is not established.
- This technology has been made in view of such a situation, and is intended to be able to flexibly cope with various operation forms in digital broadcasting using an IP transmission method.
- a receiving apparatus includes a receiving unit that receives a broadcast wave of a digital broadcast using an IP (Internet Protocol) transmission method, and various services included in a control signal transmitted by the broadcast wave Based on information indicating the distribution form of the component that constitutes the component, the control unit that obtains the component constituting the selected service according to the distribution form and controls the operation of each part that performs a predetermined process relating to the obtained component A receiving device.
- IP Internet Protocol
- the distribution form of the component can be broadcast distribution or communication distribution.
- the control signal is transmitted for each service, and in the broadcast distribution, the component is distributed in the same service as the control signal of the selected service, and the component Can be included in a second broadcast distribution that is distributed in a different service different from the control signal of the selected service.
- the control signal includes a plurality of signaling information, and the component can be identified by a common ID in each signaling information.
- the component is a file format and can be transmitted by FLUTE (FileUTEDelivery over Unidirectional Transport) session.
- FLUTE FileUTEDelivery over Unidirectional Transport
- each segment in the FLUTE session can store data of a component of a specific category.
- Each segment in the FLUTE session stores data of a plurality of categories of components, and the control signal may include identification information for identifying the categories of the components.
- the control signal includes, as signaling information, a table in which parameters relating to at least one of various services and components constituting the service are described.
- the component ID and the category of the component are included as parameters relating to the component. Can be described.
- the control signal is transmitted in a layer higher than the IP layer among the protocol layers in the IP transmission scheme, and a common IP address is assigned to the component and the control signal constituting each service. can do.
- the receiving device may be an independent device or an internal block constituting one device.
- the reception method according to the first aspect of the present technology is a reception method corresponding to the reception device according to the first aspect of the present technology.
- a broadcast wave of digital broadcasting using the IP transmission method is received, and various services included in a control signal transmitted by the broadcast wave are configured.
- the components constituting the selected service are acquired according to the distribution form, and the operation of each unit that performs a predetermined process related to the acquired component is controlled.
- the transmission device includes a first acquisition unit that acquires one or more components constituting various services, and a second that acquires a control signal including information indicating a distribution form of the components. And a transmission unit that transmits a broadcast wave that uses the IP transmission method and includes the component that constitutes the service and the control signal.
- the distribution form of the component can be broadcast distribution or communication distribution.
- the control signal is transmitted for each service, and the broadcast distribution includes a first broadcast distribution in which the component is distributed in the same service as the control signal of the selected service;
- the second broadcast distribution distributed in a different service different from the control signal of the selected service may be included.
- the control signal includes a plurality of signaling information, and the component can be identified by a common ID in each signaling information.
- the component is in a file format and can be transmitted by a FLUTE session.
- each segment in the FLUTE session can store data of a component of a specific category.
- Each segment in the FLUTE session stores data of a plurality of categories of components, and the control signal may include identification information for identifying the categories of the components.
- the control signal includes, as signaling information, a table in which parameters relating to at least one of various services and components constituting the service are described.
- the component ID and the category of the component are included as parameters relating to the component. Can be described.
- the control signal is transmitted in a layer higher than the IP layer among the protocol layers in the IP transmission scheme, and a common IP address is assigned to the component and the control signal constituting each service. can do.
- the transmission device may be an independent device or an internal block constituting one device.
- the transmission method according to the second aspect of the present technology is a transmission method corresponding to the transmission device according to the second aspect of the present technology.
- one or a plurality of components constituting various services are acquired, a control signal including information indicating a distribution form of the components is acquired, and an IP transmission method A broadcast wave including the component constituting the service and the control signal is transmitted.
- the first aspect and the second aspect of the present technology it is possible to flexibly cope with various operation forms in digital broadcasting using the IP transmission method.
- FIG. 1 is a diagram showing a protocol stack for digital broadcasting of an IP transmission method.
- the lowest layer is a physical layer, and the frequency band of the broadcast wave allocated for the service (channel) corresponds to this.
- the upper layer adjacent to the physical layer is an IP layer with a BBP stream (Base Band Packet Stream) in between.
- the BBP stream is a stream including packets storing various data in the IP transmission method.
- the IP layer is equivalent to IP (Internet Protocol) in the TCP / IP protocol stack, and an IP packet is specified by an IP address.
- IP Internet Protocol
- the upper layer adjacent to the IP layer is a UDP layer, and further higher layers are RTP and FLUTE / ALS.
- UDP User Datagram Protocol
- RTP Real-time Transport Protocol
- FLUTE File Delivery over Unidirectional Transport
- the upper layer adjacent to FLUTE / ALS is fMP4 (Fragmented MP4), and the upper layer adjacent to RTP, fMP4 is video data (Video), audio data (Audio), subtitle data (Closed Caption), etc. Is done. That is, an RTP session is used when video data and audio data are transmitted in a stream format, and a FLUTE session is used when video data and audio data are transmitted in a file format.
- NRT content NRT Content
- ESG Electronic Service Service Guide
- SCS NRT content
- NRT content is content transmitted by NRT (Non-RealTime) broadcasting, and is reproduced after being temporarily stored in the storage of the receiver.
- NRT content is an example of content, and a file of another content may be transmitted by the FLUTE session.
- ESG Electronic Service Service Guide
- ESG Electronic Service Service Guide
- SCS Service Channel Signaling
- MPS Media Presentation Description
- SPT Service Parameter Table
- SDP Session Description Protocol
- USD User Service Description
- LLS Low Layer Signaling
- service configuration information such as SCT (Service Configuration Table), SAT (Service Association Table), EAT (Emergency Alerting Table), RRT (Region Rating Table), and the like is transmitted.
- FIG. 2 is a diagram showing a relationship between a broadcast wave signal of digital broadcasting using the IP transmission method and an ID system of the IP transmission method.
- a network wave (hereinafter also referred to as “network_id” or “networkId”) is assigned to a broadcast wave (broadcast network (Network)) having a predetermined frequency band (6 MHz).
- Each broadcast wave includes one or more BBP streams identified by a BBP stream ID (hereinafter also referred to as “BBP_stream_id” or “BBPStreamId”).
- BBP_stream_id BBP stream ID
- a BBP stream is composed of a plurality of BBP packets including a BBP header and a payload.
- Each BBP stream includes one or more services (Services) identified by service IDs (hereinafter also referred to as “service_id” and “ServiceId”).
- Service is composed of one or a plurality of components.
- Each component is information constituting a program such as video data, audio data, and caption data.
- IP transmission system ID system a combination of a network ID (network_id), a transport stream ID (transport_stream_id), and a service ID (service_id) used in the MPEG2-TS system (hereinafter referred to as “triplet”).
- the triplet represents the BBP stream configuration and the service configuration in the broadcast network.
- a BBP stream ID is used instead of the transport stream ID.
- FIG. 3 is a diagram showing a configuration of a broadcast wave of IP transmission type digital broadcasting.
- a plurality of BBP streams are transmitted on a broadcast wave (“Network” in the figure) having a predetermined frequency band (6 MHz).
- Each BBP stream includes NTP (Network Time Protocol), a plurality of service channels (Service Channel), an electronic service guide (ESG Service), and LLS.
- NTP Network Time Protocol
- Service Channel a plurality of service channels
- ESG Service electronic service guide
- LLS LLS
- NTP, service channel, and electronic service guide are transmitted according to the UDP / IP protocol, but LLS is transmitted on the BBP stream.
- NTP is time information and is common to a plurality of service channels.
- Each service channel includes components such as video data and audio data, and SCS such as SPT and SDP.
- SCS such as SPT and SDP.
- a common IP address is assigned to each service channel, and components, control signals, and the like can be packaged for each service channel or a plurality of service channels using this IP address.
- the network, the BBP stream (BBP Stream), and the component correspond to those in FIG. 2, but the service channel (Service Channel) is the service in FIG. It corresponds to.
- FIG. 4 is a diagram illustrating the configuration of the LLS in the IP transmission scheme.
- a BBP packet is composed of a BBP header and a payload.
- the payload portion is an IP packet.
- LLS when LLS is transmitted using a BBP stream, the LLS is placed next to the BBP header.
- LLS for example, SCT or SAT described in XML (Extensible Markup Language) format is arranged, but an SGDU header is added with the XML fragment (XML fragment) of a part of the data as the LLS body. .
- SCT and SAT are transmitted by SGDU container (ServiceDUGuide Delivery Unit Container).
- the BBP header contains 2-bit type information, and the type information can distinguish whether the BBP packet is an IP packet or an LLS.
- FIG. 5 is a diagram illustrating the configuration of the SCS in the IP transmission scheme.
- SCS Since SCS is transmitted using a FLUTE session, it is placed next to each BBP, IP, UDP, and LCT header.
- SPT and SDP are arranged as SCS, and an SGDU header is added with an SDP fragment (SDP fragment) of a part of the data as an SCS main body.
- SDP fragment SDP fragment
- the SCS main body is not limited to the SDP fragment.
- an SPT XML fragment (XML fragment) described in XML format can be arranged and transmitted by the SGDU container.
- FIG. 6 is a diagram illustrating the structure of the SGDU described in FIGS. 4 and 5.
- SGDU is adopted as a standard of OMA (Open Mobile Alliance).
- SGDU Service Guide Delivery Unit
- header information (Unit_Header) and payload (Unit_Payload).
- payload (Unit_Payload).
- extension information (extension_data) is arranged as necessary.
- fragmentTransportID indicates fragment identification.
- SCT and SDP are identified by fragmentTransportID.
- FragmentVersion indicates the version number of the fragment.
- the actual data of at least one of XML fragment (XML fragment) and SDP fragment (SDP fragment) is placed in the payload. That is, data of one or a plurality of fragments according to the number specified by the header information n_o_service_guide_fragments is arranged in the payload.
- a combination of a plurality of fragments arranged in the payload is arbitrary such that both of the XML fragment and the SDP fragment are arranged.
- the position of an arbitrary fragment among a plurality of arranged fragments can be indicated by the offset of the header information.
- fragmentType indicating the type of the fragment is arranged together with actual data.
- SDP fragment a fragment ID for identifying the fragment is arranged together with actual data.
- extension_type indicating the type of extension information is arranged together with the extension data (extension_data). Also, the location of the extension information can be indicated by specifying extension_offset in the header information.
- FIG. 7 is a diagram illustrating a structure of signaling information.
- SCT SCT
- SAT SAT
- EAT RRT
- the SCT employs a triplet used in the MPEG2-TS system, and the triplet indicates the BBP stream configuration and service configuration in the broadcast network.
- the SCT also includes information such as IP address as attribute / setting information for each service, bootstrap information for accessing ESG and SCS, and the like.
- SAT indicates on-air service for each BBP stream.
- the SAT can determine whether a particular service is on air (broadcasting).
- EAT contains information about emergency notifications.
- the RRT includes rating information.
- MPD MPD
- SPT Segment URL
- the SDP includes service attributes for each service, component configuration information, component attributes, component filter information, component location information, and the like.
- USD includes FDD (File Delivery Description), and a segment file transmitted by, for example, a FLUTE session is specified by SDP and USD.
- ESG is an electronic service guide including information such as program title and start time.
- the application (Application) is composed of a file in HTML (Hyper Text Markup Language) format, and is distributed from a server on the Internet, for example.
- the application is executed in conjunction with broadcast content such as a television program provided as a specific service.
- ESG and applications can be associated with USD.
- FIG. 8 is a diagram showing the structure of MPD (Media Presentation Description). The MPD is described in a markup language such as XML.
- the MPD is composed of a Period element, an AdaptationSet element, and a Representation element in a hierarchical structure.
- the MPD structure in FIG. 8 only main elements and attributes constituting the MPD are described, and actually other elements and attributes are described.
- the Period element is described in units that describe the composition of content and programs. For example, information such as language can be specified in the AdaptationSet element. In the Representation element, for example, information regarding the encoding speed and the screen size can be specified.
- the Representation element is a higher element of the id attribute and BaseURL element.
- a representation ID is specified. With this representation ID, it is possible to establish component correspondence with other signaling information (SPT, SDP, USD) of the SCS.
- SPT signaling information
- SDP SDP
- USD USD
- component location information is specified.
- FIG. 8 shows a case where one AdaptationSet element and one Representation element are arranged, but a plurality of AdaptationSet elements and Representation elements can be arranged.
- FIG. 9 is a diagram illustrating the syntax of an SPT (Service Parameter Table).
- SPT Service Parameter Table
- the SPT is described in a markup language such as XML.
- “@” is added to the attribute. Further, the indented element and attribute are specified for the upper element.
- the Spt element is a serviceId attribute, spIndicator attribute, ProtocolVersionDescriptor element, NRTServiceDescriptor element, CapabilityDescriptor element, IconDescriptor element, ISO639LanguageDescriptor element, ReceiverTargetingDescriptor element, AssociatedServiceDescriptor element, ContentAdvisoryDescriptor element, and upper elements of the Component element .
- the service ID is specified in the serviceId attribute.
- the spIndicator attribute whether or not each service identified by the service ID is encrypted is specified. When “on” is specified as the spIndicator attribute, it indicates that the service is encrypted, and when “off” is specified, it indicates that the service is not encrypted. .
- ProtocolVersionDescriptor element information indicating what kind of service the data service is specified.
- NRTServiceDescriptor element information related to the NRT service is specified.
- CapabilityDescriptor element information on a function (capability) required for a receiver that receives the provision of the NRT service is specified.
- IconDescriptor element information indicating the acquisition destination of the icon used in the NRT service is specified.
- the language code of the NRT service is specified in the ISO639LanguageDescriptor element.
- target information of the NRT service is specified.
- Information related to related subordinate services is specified in the AssociatedServiceDescriptor element.
- Information related to the rating region is specified.
- the Component element is an upper element of the componentId attribute, representationId attribute, subRepresentationLevel attribute, componentCategory attribute, locationType attribute, componentEncription attribute, TargetedDeviceDescriptor element, Content advisoryDescriptor element, VideoParameters element, AudioParameters element, and CaptionParameters element.
- the component ID is specified in the componentId attribute.
- the representation ID is specified in the representationId attribute. With this representation ID, it is possible to establish component correspondence with other signaling information (MPD, SDP, USD) of the SCS.
- the subrepresentation level is specified in the subRepresentationLevel attribute.
- the sub-representation level is information for identifying components of a plurality of categories (for example, video and audio) stored in each segment in the FLUTE session.
- the component category information is specified in the componentCategory attribute.
- this category information for example, “video”, “audio”, “caption”, “nrt” are designated. “video” indicates a video component, “audio” indicates an audio component, and “caption” indicates a subtitle component. “Nrt” indicates that the data is NRT content data.
- the locationType attribute specifies component location type information. As this type information, for example, “bb”, “bca”, “bco” are designated. “bb” is an abbreviation for Broadband and indicates that a component is distributed using communication. “bca” is an abbreviation for “Broadcast-actual”, and indicates that a component is distributed using broadcasting and distributed within the same service as the service in which the SPT (SCS) is transmitted. “bco” is an abbreviation for “Broadcast other”, and indicates that a component is distributed using broadcast and distributed in a service different from the service in which the SPT (SCS) is transmitted.
- bca is specified as the locationType attribute and the component is distributed within the same service is also referred to as “inband”.
- band is specified as the locationType attribute and the component is distributed within another service.
- componentEncription attribute it is specified whether each component identified by component ID is encrypted. If “on” is specified as the componentEncription attribute, it indicates that the component is encrypted. If “off” is specified, it indicates that the component is not encrypted. .
- TargetedDeviceDescriptor element information related to the target device is specified. Rating information for each component is specified in the ContentAdvisoryDescriptor element.
- Video parameters are specified in the VideoParameters element.
- the VideoParameters element is an upper element of the AVCVideoDescriptor element and the HEVCVideoDescriptor element. That is, when AVC (Advanced Video Coding) is used as the video data encoding method, an AVC Video Descriptor element is specified, and when HEVC (High Efficiency Video Coding) is used, the HEVC Video Descriptor element is It is specified.
- AVC and HEVC are examples of video data encoding schemes, and when other encoding schemes are used, corresponding VideoDescriptor elements are designated.
- Audio parameters are specified in the AudioParameters element.
- the AudioParameters element is an upper element of the MPEG4AACAudioDescriptor element and the AC3AudioDescriptor element. That is, when MPEG4AAC (Advanced Audio Coding) is used as the audio data encoding method, the MPEG4AACAudioDescriptor element is specified, and when AC3 (Audio Code number 3) is used, the AC3AudioDescriptor element is specified.
- the MPEG4AAC and AC3 are examples of audio data encoding schemes, and when other encoding schemes are used, corresponding AudioDescriptor elements are designated.
- the CaptionParameters element specifies subtitle parameters.
- ProtocolVersionDescriptor element the NRTServiceDescriptor element, the CapabilityDescriptor element, the IconDescriptor element, the ISO639 LanguageDescriptor element, and the ReceiverTargetingDescriptor element are defined for the NRT service.
- the number of occurrences (Cardinality) of SPT elements and attributes shown in FIG. 9 is shown.
- “1" is specified, only one element or attribute is specified, and "0..1” Is specified, whether or not to specify the element or attribute is arbitrary. If “1..n” is specified, one or more elements or attributes are specified. If “0..n” is specified, one or more elements or attributes are specified. It is optional. The meaning of the number of appearances is the same in other syntaxes described later.
- FIG. 10 is a diagram illustrating the syntax of the Associated Service Descriptor.
- the Associated Service Descriptor is described in, for example, a markup language such as XML.
- “@” is added to the attribute. Further, the indented element and attribute are specified for the upper element.
- the AssociatedServiceDescriptor element is an upper element of the networkId attribute, the BBPStreamId attribute, and the serviceId attribute.
- a network ID is specified in the networkId attribute.
- a BBP stream ID is specified in the BBPStreamId attribute.
- a service ID is specified in the serviceId attribute. That is, the related dependent service is specified by the triplet.
- FIG. 11 is a diagram showing the structure of SDP (Session Description Protocol). The SDP is described in a text format, for example.
- the SDP is composed of two parts, a session description part (Session Description) and a media description part (Media Description).
- Session Description Session Description
- Media Description media description part
- the session description part information related to the session is described.
- the media description unit can describe a plurality of media information such as audio data and video data transmitted in the RTP session or FLUTE session.
- the session description part includes protocol version (v), origin (o), session name (s), session information (i), URI (u), email address (e), phone number (p), connection data (c ), (Session) bandwidth (b), timing (t), repeat times (r), time zone (z), encryption keys (k), (session) attributes (a).
- Protocol version (v) specifies the protocol version. As this value, “0” or a value determined by service operation is designated. In RF2327, “0” is always specified.
- origin (o) the information of the creator of the SDP description document is specified. For example, as origin (o), user name (username), session ID (sess-id), session version (sess-version), network type (nettype), address type (addrtype), unicast address (unicast-address) ) Is specified.
- session name the name of the session is specified.
- session information information about the session is specified.
- URI Uniform Resource Identifier
- Email address (e) specifies the email address of the contact person in charge of session management.
- phone number (p) specifies the telephone number of the contact person in charge of the session management.
- connection data (c) information on the network address used in the session is specified. For example, information such as a network type (nettype), an address type (addrtype), and a connection address (connection-address) is specified as connection data (c).
- connection data (c) information on the network address used in the session is specified.
- information such as a network type (nettype), an address type (addrtype), and a connection address (connection-address) is specified as connection data (c).
- connection data (b) bandwidth used for the media used in the session is specified.
- Timing (t) specifies the effective start time and end time of the session. In repeat times (r), a repetition cycle or the like is specified when a session is periodically repeated.
- the timing description part is composed of timing (t) and repeat ⁇ times (r).
- Time zones (z) specifies the offset when it is necessary to switch between daylight saving time and winter time when repeat is specified in repeat times (r) of the time descriptor.
- encryption keys (k) the encryption key used in the session or its information is specified.
- session attributes (a) specifies various information related to a session.
- media announcements (m), media information (i), connection data (c), (media) bandwidth (b), encryption keys (k), (media) attributes can be described.
- media ⁇ announcements information such as media type (media), port number (port), protocol (proto), and format (fmt) is specified.
- media information information about the media is specified.
- connection data information on the network address used on the media is specified.
- (Media) bandwidth (b) specifies the bandwidth used by the media stream.
- encryption keys (k) an encryption key used for the media or its information is designated.
- attributes relating to media are specified in (media) attributes.
- FIG. 12 is a diagram illustrating SDP attribute types (Attributes).
- ptime ptime
- fmtp fmtp
- sendrecv recvonly
- sendonly inactive
- rtpmap rtpmap
- representation-id representation-id
- Ptime indicates the length of the media included in one packet, and the amount of data included in the packet is specified as the value.
- the fmtp indicates a format used in the media and specific parameters necessary for the format, and the format and parameters are specified as the value.
- Sendrecv indicates that the medium is bidirectional for transmission and reception. recvonly indicates that the media is only received. sendonly indicates that the medium is only for transmission. inactive indicates that the media is not sent in both directions. For example, it is used when media transmission / reception is suspended in the middle of a session or when a port number, codec, etc. are reserved before the session starts.
- Rtpmap indicates the mapping between the payload and the encoding type, and the payload type and the encoding type are specified as its value.
- the representation-id indicates the representation ID, and the representation ID is specified as the value. With this representation ID, it is possible to establish component correspondence with other signaling information (MPD, SPT, USD) of the SCS.
- FIG. 13 is a diagram illustrating a description example of SDP.
- the session description part contains "v” indicating the protocol version, "o” indicating the instance creator information, "c” indicating the connection data, and "t” indicating the session valid time. ing.
- IP address An IP address (URL) of “host.example.com” is specified for each address type.
- IP address information used in a specific session the network type that is "IN” (Internet), the IP address type that is “IP4" (IPv4), and the IP address that is "192.0.2.4" It is specified. Furthermore, “0 0” is specified as the session valid time.
- IP Internet
- IP6 IPv6
- the time scale of the RTP time stamp is 90000.
- FIG. 14 is a diagram showing the structure of USD (User Service Description). The USD is described in a markup language such as XML.
- the USBD element is a root element of USD, and the USD element can be described for each service. However, since the SCS for transmitting USD is provided for each service, only one USD element for each service is described in the USBD element.
- the USD element is an upper element of the appService element, broadcastAppService element, broadcastotherService element, broadcastAppService element, and DeliveryMethod element.
- the appService element is an upper element of the appServiceDescriptionURI element. MPD reference destination can be specified by this appService element and appServiceDescriptionURI element.
- the broadcastAppService element is a higher element of the basePattern element.
- basePattern element baseURL of component is specified.
- the base URL is described in the basePattern element.
- “Video1” and “Audio1” are described in the basePattern element as components distributed in-band.
- the broadcastotherService element is an upper element of the basePattern element where the baseURL of the component is specified.
- baseURL is described in the basePattern element.
- “Audio2” is described in the basePattern element as a component that is broadcast and distributed in the outband.
- the broadbandAppService element is an upper element of the basePattern element in which the baseURL of the component is specified.
- baseURL is described in the basePattern element.
- “Audio3” is described in the basePattern element as a component that is distributed by communication.
- the baseURL described in the MPD with the baseURL described in the broadcastAppService element, the broadcastotherService element, and the broadcastAppService element, what kind of distribution form the component specified by the baseURL described in the MPD Can be identified. Specifically, if the base URL of the MPD and broadcastAppService elements match, this indicates that the component is broadcast in-band, and if the base URL of the MPD and broadcastotherService elements match, the component is broadcast out-of-band. If the base URL of the MPD and the broadbandAppService element match, it indicates that the component is being delivered by communication.
- the broadcastAppService element, the broadcastotherService element, and the broadcastAppService element correspond to the type information specified in the locationType attribute of the Component element of the SPT (FIG. 9) described above, and not only in the SPT but also in the USD, The distribution form of the component can be identified.
- the DeliveryMethod element is a higher element of the SessionDescriptonURI element and the FDD element.
- the SDP reference destination can be specified by this DeliveryMethod element and SessionDescriptonURI element.
- the FDD (File Delivery Description) element contains TOI (Transport Object Identifier) that is identification information of multiple objects sent for each FLUTE session as index information for each TSI (Transport Session Identifier) that is identification information of each FLUTE session. ) Is described.
- the file to be transmitted is managed as one object by TOI.
- a set of a plurality of objects is managed as one session by TSI. That is, in the FLUTE session, a specific file can be designated by two pieces of identification information of TSI and TOI. Details of the FDD will be described later with reference to FIG.
- FIG. 15 is a diagram illustrating the syntax of FDD.
- the StaticFDD element is an upper element of the tsi attribute, objectDeliveryMode attribute, oufOfOrderSending attribute, contentEncoding attribute, contentEncoding attribute, byteRange attribute, representationId attribute, CodePoint element, File element, and FileTemplate element.
- ⁇ TSI is specified in the tsi attribute.
- objectDeliveryMode the distribution mode of the object is specified.
- Information related to distribution is specified in the oufOfOrderSending attribute.
- contentEncoding attribute information related to content encoding is specified.
- byteRange attribute information related to the byte range of the file is specified.
- the representation ID is specified in the representationId attribute. For example, this representation ID is used when a FLUTE session is used only for a specific component (eg, video). Also, with this representation ID, it is possible to establish a component correspondence with other signaling information (MPD, SDP, SDP) of the SCS. Information related to the LCT header is specified in the CodePoint element.
- the File element is an upper element of the contentLocation attribute, TOI attribute, contentEncoding attribute, contentMD5 attribute, and representationId attribute.
- the URL of the file is specified in the contentLocation attribute.
- TOI attribute specifies TOI.
- information related to content encoding is specified.
- information on MD5 (Message ⁇ Digest 5) is specified.
- the representation ID is specified in the representationId attribute.
- this representation ID is used when video and audio files are included in one FLUTE session and it is necessary to distinguish them in file units. Also, with this representation ID, it is possible to establish a component correspondence with other signaling information (MPD, SDP, SDP) of the SCS.
- the FileTemplate element is a higher element of the startTOI attribute and endTOI attribute.
- the startTOI attribute specifies the TOI start value when the TOI changes in time series.
- the endTOI attribute specifies the end value of the TOI when the TOI changes in time series. That is, by specifying the startTOI attribute and the endTOI attribute, the values are sequentially incremented from the TOI start value to the end value. This eliminates the need to obtain an FDD each time the TOI changes.
- the data structure of the SCS signaling information (MPD, SPT, SDP, USD) described above is merely an example, and other structures can be adopted.
- FIG. 16 is a diagram illustrating an operation example (hereinafter referred to as “operation example 1”) in the case of using a service-unit FLUTE session as the first embodiment.
- video and audio components are distributed using both broadcast and communication.
- a service 1 (Serice1) as a main service (main) and a service 2 (Service2) as an associated subordinate service (sub) are distributed using broadcasting, and an audio 3 (Audio3) is distributed. It is distributed using communication.
- components of video 1 (Video 1) and audio 1 (Audio 1) constituting service 1 are in-band, and components of audio 2 (Audio 2) constituting service 2 are out-of-band. Become.
- Service 1 (Serice 1) is, for example, a television program, and is composed of video 1 and audio 1. These components are transmitted in the same FLUTE session.
- MPD, SPT, SDP, and USD are transmitted as the SCS for service 1, and are acquired using the bootstrap information of the SCT transmitted as LLS.
- “10” is specified in the segment of video 1 as the startTOI attribute of the USD FDD element. Therefore, by sequentially incrementing the TOI value from “10” to “11”, “12”,..., N, it is possible to specify the TOI that changes in time series for each segment.
- “1010” is specified as the startTOI attribute for the audio 1 segment. Therefore, by sequentially incrementing the TOI value from “1010” to “1011”, “1012”,..., M, it is possible to specify the TOI that changes in time series for each segment.
- the audio 3 component is streamed from a distribution server provided on the Internet.
- the components of the audio 3 are divided into segments such as, for example, Segment 2010, Segment 2011, Segment 2012,.
- category information and location type information are specified for each component as service components, and the distribution form of each component can be specified.
- “bca” is designated as the location type information for the video 1 and audio 1 components, indicating that the components are broadcast in-band.
- “bco” is designated for the component of audio 2, and this component indicates that the component is being broadcasted out of band.
- “bb” is designated for the audio 3 component, which indicates that the component is distributed by communication.
- the MPD of service 1 describes URLs of components of video 1, audio 1, audio 2, and audio 3 as service components.
- the SDP of service 1 describes component configuration information, location information (for example, port number and TSI), and the like.
- the SPT of service 1 can specify that the video 1 and audio 1 components are broadcast in-band, so refer to the FDD element of service 1 USD.
- the segments specified by the TOI that changes in time series are sequentially specified starting from the startTOI of the FDD element of the service 1 USD. You can get the component.
- the SPT of service 1 can identify that the audio 2 component is being broadcasted out-of-band, and can recognize that the service 2 is being transmitted by the Associated Service Descriptor described in the SPT.
- the component of audio 3 can be identified by communication by the SPT of service 1, it is possible to access the distribution server (Server) according to the URL of audio 3 described in the MPD of service 1.
- the component of the audio 3 stream-distributed from the distribution server can be acquired.
- Service 1 and service 2 are distinguished by service_type specified for each service in the SCT.
- the location type information is not limited to SPT, and may be specified with reference to USD.
- FIG. 18 is a diagram illustrating a description example of the MPD in FIG. Note that MPD is described in XML, so the actual description is different from this example, but expresses and describes the hierarchical structure and attributes of XML elements.
- the MPD describes a representation ID and URL (BaseURL) of each component as service components.
- Video1 is specified as BaseURL for video 1, and the character string obtained by combining the URL of the distribution server ("http://10.1.200.10/”) and "Video1" (“http://10.1.200.10/Video1”) is the segment URL.
- Audio 1 is specified as the BaseURL, and the segment URL is “http://10.1.200.10/Audio1”.
- “Audio2” is specified as the BaseURL, and the segment URL is “http://10.1.200.10/Audio2”.
- “Audio3” is designated as the BaseURL for the audio 3
- the segment URL is “http://10.1.200.10/Audio3”.
- FIG. 19 is a diagram illustrating a description example of the SDP in FIG.
- FIG. 21 is a diagram showing an example of the structure of USD in FIG.
- MPD (FIG. 18) is referred to by appService element and appServiceDescriptionURI element.
- the representation ID and BaseURL (“Video1”) of the component of video 1 and the representation ID and BaseURL (“Audio1”) of the component of audio 1 are described.
- descriptions of the representation ID and BaseURL of the audio 2 and audio 3 components are omitted.
- the matching may be performed using the representation ID of each component of the MPD and the representation ID of the FDD element of USD instead of location information such as BaseURL and contentLocation attribute.
- each signaling information (MPD, SPT, SDP, USD (FDD)) includes a representation for commonly identifying a specific component including in-band and out-band. An ID is set, and each signaling information can be referred to using this representation ID.
- the segment URL (BaseURL) of MPD and the content_location of USD (FDD) correspond to each other, the location information can be referred to each other.
- the startTOI of the video 1 segment can be acquired by matching the segment URL (BaseURL) of the MPD with the content_location of the USD (FDD). Then, from the FLUTE session specified by the SDP port number (port_num) and the TSI, the segment specified by the TOI that changes in time series with the startTOI as the start value is sequentially specified to acquire the component of the video 1 Can do.
- the sub-representation level is not necessary, so the description is omitted in MPD and SPT.
- the description is omitted in MPD and SPT.
- IP_address IP address
- FIG. 23 is a diagram illustrating a configuration example of each segment in the FLUTE session of the operation example 1 of FIG.
- Each segment of the FLUTE session is configured by an ISO base media file format defined by ISO / IEC 14496-12.
- the video 1 segment is composed of an initialization segment (Initialization Segment) and a media segment (Media Segment).
- the initialization segment includes initialization information such as a data compression method.
- the media segment stores the video 1 component.
- the initialization segment consists of ftyp and moov.
- ftyp file type box
- moov moov
- the media segment consists of styp, sidx, ssix, moof, and mdat.
- styp indicates the file format specification version of the file in segment units.
- sidx shows the index information in a segment.
- ssix indicates index information for each subsegment (level) in the segment.
- “Moof (movie fragment box)” indicates fragment control information.
- moof includes traf. traf (track fragment box) indicates control information for each track.
- control information for each track of video 1 is arranged in traf.
- mdat media data box indicates the media data body of the fragment.
- video 1 data (file) is arranged in mdat.
- the audio 1 segment is basically configured in the same manner as the video 1 segment. However, since the media segment is an audio 1 segment, control information for each track of the audio 1 is arranged in the traf of the moof. Audio 1 data (file) is arranged in mdat.
- FIG. 23 shows a description example of MPD corresponding to the configuration of each segment of video 1 and audio 1 described above.
- the Representation elements of video 1 and audio 1 describe Initialization1Segment URL and a plurality of Each Media Segments URL.
- Initialization Segment URL describes the URL for identifying the initialization segment.
- the URL for identifying each media segment is described in the “Each Media Segments URL”.
- FIG. 24 is a diagram illustrating an operation example (hereinafter referred to as “operation example 2”) when a component-unit FLUTE session is used as the second embodiment.
- video and audio components are distributed using both broadcasting and communication.
- a service 1 as a main service and a service 2 as a related subordinate service are distributed using broadcasting, and an audio 3 is distributed using communication.
- the components of video 1 and audio 1 constituting service 1 are in-band, and the components of audio 2 constituting service 2 are out-of-band.
- the service 1 is, for example, a TV program, and is composed of a video 1 and an audio 1, but these components are transmitted in different FLUTE sessions.
- MPD, SPT, SDP, and USD are transmitted as the SCS for service 1, and are acquired using the bootstrap information of the SCT transmitted as LLS.
- the component of video 1 is transmitted, but the component is divided for each segment, and the file of each segment is specified by TOI.
- TOI For example, in the segment of video 1, “10” is specified as the startTOI attribute of the USD FDD element, and the TOI values are sequentially changed from “10” to “11”, “12”,.
- TOI By incrementing to n, it is possible to specify the TOI that changes in time series for each segment.
- the audio 2 component is transmitted in the audio 2 FLUTE session.
- the component is divided into segments, and the file of each segment is designated by the TOI.
- “10” is specified as the startTOI attribute of the USD FDD element, and the TOI values are sequentially changed from “10” to “11”, “12”,.
- By incrementing with m it is possible to specify a TOI that changes in time series for each segment.
- SDP and USD are transmitted as SCS for service 2.
- SCS SCS for service 2.
- “10” is specified as the startTOI attribute for the audio 2 segment, and the TOI values are sequentially set to “11”, “12”,. • By incrementing with p, TOI that changes in time series for each segment can be specified.
- the audio 3 component is streamed from a distribution server provided on the Internet.
- the components of the audio 3 are divided into segments such as, for example, Segment 2010, Segment 2011, Segment 2012,.
- category information and location type information are specified for each component as a service component, and the distribution form of the component can be specified.
- “bca” is specified for the components of video 1 and audio 1 as location type information, and this component indicates that the component is broadcast in-band.
- “bco” is designated for the component of audio 2, and this component indicates that the component is being broadcasted out of band.
- “bb” is designated for the audio 3 component, which indicates that the component is distributed by communication.
- the FLUTE session is different for each component, that is, when the service 1 is selected because the video 1 component and the audio 1 component are transmitted in different FLUTE sessions.
- the video 1 component and the audio 1 component can be acquired by sequentially acquiring all the segments transmitted in each FLUTE session.
- each FLUTE session is specified by the SDP (port number and TSI) of service 1, but all segments are identified. There is no need to use TOI for acquisition.
- URLs of components of video 1, audio 1, audio 2, and audio 3 are described as service components.
- matching between MPD and USD can be performed using the representation ID and location information.
- the audio 2 component is acquired by sequentially acquiring all the segments transmitted in the FLUTE session. Can do.
- the FLUTE session is specified by the SDP (port number and TSI) of the service 2 as indicated by the solid lines from the SPT “Audio2” of the service 1 and the SDP “Audio2” of the service 2 in the figure.
- SDP port number and TSI
- the component of audio 3 can be identified by communication by the SPT of service 1, it is possible to access the distribution server (Server) according to the URL of audio 3 described in the MPD of service 1.
- the component of the audio 3 stream-distributed from the distribution server can be acquired.
- FIG. 26 is a diagram illustrating a description example of the SDP in FIG.
- FIG. 27 is a diagram showing an example of the structure of USD in FIG.
- the video 1 and audio 1 components constituting the service 1 have different FLUTE sessions, that is, two FLUTE sessions of a video 1 FLUTE session and an audio 1 FLUTE session. Because it exists, the USD describes two FDDs for each FLUTE session.
- the MPD (FIG. 18) is referred to by the appService element and the appServiceDescriptionURI element.
- the representation ID (“23”) and BaseURL (“Video1”) of the component of video 1 and the representation ID (“45”) and BaseURL (“Audio1”) of the component of audio 1 are described. ing.
- matching may be performed using the representation ID of each component of MPD and the representation ID of each FDD instead of location information such as BaseURL and contentLocation attribute.
- each signaling information (MPD, SPT, SDP, USD (FDD)) includes a representation for commonly identifying a specific component including in-band and out-band. An ID is set, and each signaling information can be referred to using this representation ID.
- the segment URL (BaseURL) of MPD and the content_location of USD (FDD) correspond to each other, the location information can be referred to each other.
- the startTOI of the video 1 segment can be acquired by matching the segment URL (BaseURL) of the MPD with the content_location of the USD (FDD). Then, from the FLUTE session specified by the SDP port number (port_num) and the TSI, the segment specified by the TOI that changes in time series with the startTOI as the start value is sequentially specified to acquire the component of the video 1 Can do.
- the sub-representation level is not necessary, so the description is omitted in the MPD and SPT.
- Segment configuration example The configuration of each segment in the FLUTE session of the operation example 2 in FIG. 24 is the same as the segment configuration in the operation example 1 of FIG. 16 described with reference to FIG. Omitted.
- FIG. 29 is a diagram illustrating an operation example (hereinafter referred to as “operation example 3”) in the case where a plurality of components are included in one segment, as the third embodiment. is there.
- video and audio components are distributed using both broadcasting and communication.
- a service 1 as a main service and a service 2 as a related subordinate service are distributed using broadcasting, and an audio 3 is distributed using communication.
- the service 1 is, for example, a television program and is composed of a video 1 and an audio 1, and the video 1 component and the audio 1 component are merged into one segment.
- video 1 and audio 1 included in one segment are also referred to as “video / audio 1”.
- MPD, SPT, SDP, and USD are transmitted as the SCS for service 1, and are acquired using the bootstrap information of the SCT transmitted as LLS.
- the video 1 and audio 1 files are merged and divided and transmitted for each segment.
- the file for each segment is specified by the TOI.
- “10” is specified as the startTOI attribute of the USD FDD element in the segment in which video 1 and audio 1 are merged. Therefore, by sequentially incrementing the TOI value from “10” to “11”, “12”,..., N, it is possible to specify the TOI that changes in time series for each segment.
- the audio 3 component is streamed from a distribution server provided on the Internet.
- the components of the audio 3 are divided into segments such as, for example, Segment 2010, Segment 2011, Segment 2012,.
- category information and location type information are specified for each component in the SPT of service 1 as a component of the service, and the distribution destination of the component can be specified.
- a sub-representation level (sub representation level) is designated in the SPT of service 1, and each component can be identified when a plurality of components are included in one segment.
- “bca” is specified for the component of the video / audio 1 as the location type information, and this component indicates that the component is broadcast in-band.
- “bco” is designated for the component of audio 2, and this component indicates that the component is being broadcasted out of band.
- “bb” is designated for the audio 3 component, which indicates that the component is distributed by communication.
- the SDP of service 1 describes component configuration information and location information (for example, port number and TSI).
- the SPT of service 1 can specify that the component of video / audio 1 is broadcast in-band, so refer to the FDD element of USD of service 1,
- the startTOI “10” of the segment of the video / audio 1 can be acquired.
- the video 1 and audio 1 components can be identified from the video / audio 1 segment by using the SPT and MPD sub-representation levels of the service 1.
- the SPT of service 1 identifies that the component of audio 2 is broadcasted out-of-band, and recognizes that the component 2 is transmitted by service 2 using the Associated Service Descriptor described in the SPT.
- the component of audio 3 can be identified by communication by the SPT of service 1, it is possible to access the distribution server (Server) according to the URL of audio 3 described in the MPD of service 1.
- the component of the audio 3 stream-distributed from the distribution server can be acquired.
- FIG. 31 is a diagram illustrating a description example of the MPD in FIG.
- the representation ID and URL (BaseURL) of each component are described as service components.
- video / audio 1 in which “VA1” is specified as BaseURL includes the components of video 1 and audio 1 in one segment. Therefore, the sub-representation level is specified, and video 1 and audio 1 are specified. It is possible to identify the components.
- component the sub-representation level is for is specified by the contentType attribute of the ContentComponent element.
- FIG. 32 is a diagram illustrating a description example of the SDP of FIG.
- representation-id: 23 indicates that the representation ID of the component of the video / audio 1 transmitted in the FLUTE session is “23”.
- FIG. 33 shows an example of the structure of USD in FIG.
- the MPD (FIG. 31) is referred to by the appService element and the appServiceDescriptionURI element.
- the video / audio 1 representation ID and BaseURL (“VA1"), as well as the sub-representation levels of video 1 and audio 1 are described.
- the startTOI "10" of the segment of the video / audio 1 can be acquired.
- the MPD representation ID and the USD FDD element representation ID may be used instead of the location information such as BaseURL and contentLocation attribute.
- each signaling information includes a representation for commonly identifying a specific component including in-band and out-band.
- An ID is set, and each signaling information can be referred to using this representation ID.
- the MPD segment URL (BaseURL) and the USD (FDD) content_location correspond, it is possible to refer to each other for their location information.
- the startTOI of the video / audio 1 segment is obtained by matching the MPD segment URL (BaseURL) with the USD_FDD content_location. Can do.
- the segment specified by the TOI that changes in time series with the startTOI as the start value is sequentially specified, so that the video 1 and audio 1 components are identified. Can be acquired.
- the sub-representation level (sub ⁇ representation level) of SPT and MPD is used. From the audio 1 segment, the video 1 and audio 1 components can be identified.
- FIG. 35 is a diagram illustrating a configuration example of each segment in the FLUTE session of the operation example 3 in FIG.
- Each segment of the FLUTE session is configured by an ISO base media file format defined by ISO / IEC 14496-12.
- video 1 (Video 1) and audio 1 (Audio 1) are included in one segment and transmitted in the same FLUTE session. Therefore, in FIG. Only the segment of Audio1) is shown.
- the video / audio 1 segment consists of an initialization segment (Initialization Segment) and a media segment (Media Segment).
- the initialization segment includes initialization information such as a data compression method.
- the media segment stores a video 1 or audio 1 component.
- the initialization segment consists of ftyp and moov.
- moov includes leva.
- leva level assisment box
- level / track mapping information indicates level / track mapping information.
- the track moid of the moof traf of the media segment and the sub-representation level (level) matching information of each component of the MPD are described.
- the media segment consists of styp, sidx, ssix, moof, and mdat.
- styp, sidx, and ssix are header information.
- moof indicates fragment control information.
- moof includes traf. traf indicates control information for each track.
- mdat indicates the media data body of the fragment.
- FIG. 35 shows a description example of the MPD corresponding to each segment configuration of the video / audio 1 described above.
- the Representation element of Video / Audio 1 includes, as a SubRepresentation element for each component included in one segment, in addition to Initialization Segment URL and multiple Each Media Segments URL. Level attribute and contentcomponent attribute are described. In the ContentComponent element, an id attribute and a contentType attribute are described.
- the ID specified in the contentcomponent attribute of the SubRepresentation element and the ID specified in the id attribute of the ContentComponent element are associated, and the SubRepresentation element is determined by the type information (eg, video or audio) specified by the contentType attribute.
- the type of each component is specified.
- the media segment The video 1 and the audio 1 stored in the data can be identified and their data can be obtained.
- FIG. 36 is a diagram showing another configuration example of each segment in the FLUTE session of the operation example 3 of FIG.
- video 1 (Video 1) and audio 1 (Audio 1) are included in one segment and transmitted in the same FLUTE session. Therefore, in FIG. Only the segment of Audio1) is shown.
- the initialization segment consists of ftyp and moov.
- moov includes leva.
- leva the track segment id of the media segment's moof traf and the sub-representation level (level) matching information of each component of the MPD are described.
- control information of video 1 and the control information of audio 1 are arranged in the traf of moof.
- video 1 data and audio 1 data are arranged. That is, in the segment configuration of FIG. 36, video 1 and audio 1 data are merged in one file.
- FIG. 36 shows a description example of the MPD corresponding to the segment structure of the video / audio 1 described above, but since the content is the same as the MPD of FIG. 35, the description thereof is omitted.
- video 1 and audio 1 are included in one segment and transmitted in the same FLUTE session, data of video 1 and audio 1 are merged in one file.
- the video 1 and audio 1 stored in the media segment can be identified and their data can be obtained.
- FIG. 37 is a diagram illustrating a configuration of an embodiment of a broadcast communication system to which the present technology is applied.
- the broadcast communication system 1 includes a transmission device 10, a reception device 20, and a distribution server 60. Further, the receiving device 20 and the distribution server 60 are connected to each other via the Internet 90.
- the transmission device 10 transmits broadcast content such as a TV program by a broadcast wave of digital broadcasting using an IP transmission method.
- Broadcast content is composed of components such as video, audio, and subtitles.
- the transmission device 10 transmits a control signal (signaling information in FIG. 7) together with the component using a broadcast wave of digital broadcasting.
- the receiving device 20 receives a broadcast signal transmitted from the transmitting device 10.
- the receiving device 20 acquires components such as video, audio, and subtitles based on a control signal obtained from the broadcast signal, and outputs video and audio of broadcast content such as a TV program.
- the reception device 20 may be configured as a single unit including a display and a speaker, or may be incorporated in a television receiver, a video recorder, or the like.
- the distribution server 60 performs streaming distribution of communication contents such as broadcast programs that have already been broadcast and movies that have been released.
- the communication content is composed of components such as video, audio, and subtitles.
- the receiving device 20 acquires components such as video, audio, and subtitles that are stream-distributed from the distribution server 60 via the Internet 90, and video and audio of communication content such as broadcast programs that have already been broadcast. Is output.
- the broadcast communication system 1 is configured as described above. Next, with reference to FIGS. 38 to 39, the detailed configuration of each apparatus constituting the broadcast communication system 1 of FIG. 37 will be described.
- FIG. 38 is a diagram illustrating a configuration of an embodiment of a transmission device to which the present technology is applied.
- the transmission device 10 includes a video data acquisition unit 111, a video encoder 112, an audio data acquisition unit 113, an audio encoder 114, a caption data acquisition unit 115, a caption encoder 116, a file data acquisition unit 117, and file processing.
- the video data acquisition unit 111 acquires video data as a component from a built-in storage, an external server, a camera, and the like, and supplies the video data to the video encoder 112.
- the video encoder 112 encodes the video data supplied from the video data acquisition unit 111 in accordance with an encoding method such as MPEG, and supplies the encoded data to the Mux 121.
- the audio data acquisition unit 113 acquires audio data as a component from a built-in storage, an external server, a microphone, or the like, and supplies the audio data to the audio encoder 114.
- the audio encoder 114 encodes the audio data supplied from the audio data acquisition unit 113 in accordance with an encoding method such as MPEG, and supplies the encoded audio data to the Mux 121.
- the subtitle data acquisition unit 115 acquires subtitle data as a component from a built-in storage or an external server and supplies the subtitle data to the subtitle encoder 116.
- the caption encoder 116 encodes the caption data supplied from the caption data acquisition unit 115 in accordance with a predetermined encoding method, and supplies the encoded data to the Mux 121.
- the file data acquisition unit 117 acquires file data such as video, audio, subtitles, NRT content, and applications from an internal storage or an external server, and performs file processing. To the unit 118.
- the file processing unit 118 performs predetermined file processing on the file data supplied from the file data acquisition unit 117 and supplies the file data to the Mux 121. For example, the file processing unit 118 performs file processing for transmitting the file data acquired by the file data acquisition unit 117 through the FLUTE session.
- the control signal acquisition unit 119 acquires a control signal (signaling information in FIG. 7) from a built-in storage or an external server and supplies the control signal to the control signal processing unit 120.
- the control signal processing unit 120 performs predetermined signal processing on the control signal supplied from the control signal acquisition unit 119 and supplies the signal to the Mux 121. For example, the control signal processing unit 120 performs signal processing for transmission through the FLUTE session on the SCS acquired by the control signal acquisition unit 119.
- the Mux 121 multiplexes the video data from the video encoder 112, the audio data from the audio encoder 114, the caption data from the caption encoder 116, the file data from the file processing unit 118, and the control signal from the control signal processing unit 120. Then, an IP transmission format BBP stream is generated and supplied to the transmission unit 122.
- the transmission unit 122 transmits the BBP stream supplied from the Mux 121 as a broadcast signal via the antenna 123.
- FIG. 39 is a diagram illustrating a configuration of an embodiment of a reception device to which the present technology is applied.
- the receiving apparatus 20 includes a tuner 212, a Demux 213, a clock generator 214, a selection / synthesis unit 215, a selection / synthesis unit 216, a selection / synthesis unit 217, a FLUTE processing unit 218, a storage 219, and a control unit. 220, NVRAM 221, communication I / F 222, Demux 223, video decoder 224, video output unit 225, audio decoder 226, audio output unit 227, and subtitle decoder 228.
- the tuner 212 extracts and demodulates the broadcast signal of the service instructed to be selected from the broadcast signal received by the antenna 211 in accordance with the control from the control unit 220, and obtains the IP transmission format BBP stream obtained as a result. , Supplied to Demux 213.
- the Demux 213 converts the IP transmission format BBP stream supplied from the tuner 212 into video data, audio data, caption data, file data, a control signal (signaling information in FIG. 7), and the like. Separate and output to subsequent block.
- the Demux 213 includes a BBP filter 251, an IP filter 252, a UDP filter 253, an LCT filter 254, and an SGDU filter bank 255.
- the BBP filter 251 performs a filtering process based on the BBP header and supplies the LLS to the SGDU filter bank 255.
- the IP filter 252 performs a filtering process based on the IP header. Further, the UDP filter 253 performs a filtering process based on the UDP header.
- the LCT filter 254 performs a filtering process based on the LCT header.
- NTP is supplied to the clock generation unit 214
- SCS is supplied to the SGDU filter bank 255.
- video data, audio data, and caption data as components are supplied to the selection / synthesis unit 215, the selection / synthesis unit 216, and the selection / synthesis unit 217, respectively.
- Various file data are supplied to the FLUTE processing unit 218.
- the SGDU filter bank 255 performs filtering processing based on the SGDU header, and supplies LLS (for example, SCT, SAT, etc.) and SCS (for example, SPT, SDP, etc.) to the control unit 220 as appropriate.
- LLS for example, SCT, SAT, etc.
- SCS for example, SPT, SDP, etc.
- the clock generator 214 generates a clock signal based on the NTP supplied from the Demux 213 according to the control from the control unit 220, and supplies the clock signal to the video decoder 224, the audio decoder 226, and the caption decoder 228.
- the FLUTE processing unit 218 restores video, audio, subtitles, NRT content, and application files from the file data supplied from the Demux 213 in accordance with control from the control unit 220.
- the FLUTE processing unit 218 records the restored video and audio file data in a storage 219 that is a large-capacity recording device such as an HDD (Hard Disk Drive).
- HDD Hard Disk Drive
- the FLUTE processing unit 218 supplies the video, audio, and subtitle file data restored as components to the selection / synthesis unit 215, the selection / synthesis unit 216, and the selection / synthesis unit 217, respectively.
- the file data may be data stored in the storage 219.
- the FLUTE processing unit 218 supplies the SCS supplied from the Demux 213 to the control unit 220.
- the SCS may be directly supplied from the Demux 213 to the control unit 220 without going through the FLUTE processing unit 218.
- the control unit 220 controls the operation of each unit constituting the receiving device 20 based on a control signal (signaling information in FIG. 7) supplied from the Demux 213 or the FLUTE processing unit 218.
- the NVRAM 221 is a nonvolatile memory, and records various data according to control from the control unit 220. For example, the control unit 220 records channel selection information obtained from the control signal (signaling information in FIG. 7) in the NVRAM 221. Then, the control unit 220 controls the channel selection process by the tuner 212 based on the channel selection information recorded in the NVRAM 221.
- the communication I / F 222 receives stream data of communication content that is stream-distributed via the Internet 90 from the distribution server 60 in accordance with control from the control unit 220, and supplies it to the Demux 223.
- the Demux 223 separates the stream data supplied from the communication I / F 222 into video data, audio data, and caption data as components, and sends them to the selection / synthesis unit 215, the selection / synthesis unit 216, and the selection / synthesis unit 217, respectively. Supply.
- the selection / synthesis unit 215 is supplied with video data (video component) from the Demux 213, the FLUTE processing unit 218, and the Demux 223.
- the selection / combination unit 215 performs selection / combination processing (for example, processing of each layer in the video component layer in FIG. 42 described later) on the video data (video components) in accordance with control from the control unit 220.
- the video data obtained as a result of the processing is supplied to the video decoder 224.
- the video decoder 224 corresponds to the video encoder 112 (FIG. 38) the video data supplied from the selection / synthesis unit 215 based on the clock signal supplied from the clock generator 214 in accordance with the control from the control unit 220.
- the video is decoded by the decoding method and supplied to the video output unit 225.
- the video output unit 225 outputs the video data supplied from the video decoder 224 to a subsequent display (not shown) according to the control from the control unit 220. Thereby, for example, a video of a television program is displayed on the display.
- the audio data (audio component) is supplied to the selection / synthesis unit 216 from the Demux 213, the FLUTE processing unit 218, and the Demux 223.
- the selection / synthesis unit 216 performs selection / synthesis processing (for example, processing of each layer in the audio component layer of FIG. 42 described later) on the audio data (audio component) in accordance with control from the control unit 220.
- the audio data obtained as a result of the processing is supplied to the audio decoder 226.
- the audio decoder 226 corresponds to the audio encoder 114 (FIG. 38) the audio data supplied from the selection / synthesis unit 216 based on the clock signal supplied from the clock generator 214 in accordance with the control from the control unit 220.
- the data is decoded by the decoding method and supplied to the audio output unit 227.
- the audio output unit 227 supplies the audio data supplied from the audio decoder 226 to a subsequent speaker (not shown) in accordance with the control from the control unit 220. Thereby, for example, audio synchronized with the video of the TV program is output from the speaker.
- Subtitle data (subtitle component) is supplied to the selection / synthesis unit 217 from the Demux 213, the FLUTE processing unit 218, and the Demux 223.
- the selection / synthesis unit 217 performs selection / synthesis processing (for example, processing of each layer in the caption component layer (in the video component layer in FIG. 42) on the caption data (subtitle component) according to control from the control unit 220. Processing similar to the processing of each layer)) is performed, and the caption data obtained as a result of the processing is supplied to the caption decoder 228.
- the subtitle decoder 228 decodes the subtitle data supplied from the Demux 213 with a decoding method corresponding to the subtitle encoder 116 (FIG. 38) based on the clock signal supplied from the clock generator 214 according to the control from the control unit 220. Then, it is supplied to the video output unit 225. In accordance with control from the control unit 220, the video output unit 225, when subtitle data is supplied from the subtitle decoder 228, synthesizes the subtitle data with the video data from the video decoder 224, and displays it on a subsequent display (not shown). Supply. Thereby, the subtitle synchronized with the video is displayed on the display together with the video of the television program.
- the configuration in which the selection / synthesis units 215 to 217 are provided in the preceding stage of each decoder is shown. However, depending on the content of the selection / synthesis process, the selection / synthesis A configuration in which the units 215 to 217 are provided in the subsequent stage of each decoder may be adopted.
- the storage 219 is described as being built in, but an external storage may be used.
- the receiving device 20 may employ a configuration having a display and a speaker.
- step S111 when transmitting video data as a component, the video data acquisition unit 111 acquires video data to be transmitted and supplies it to the video encoder 112.
- step S 112 the video encoder 112 encodes the video data supplied from the video data acquisition unit 111 and supplies the encoded video data to the Mux 121.
- step S113 the audio data acquisition unit 113 acquires audio data to be transmitted and supplies the audio data to the audio encoder 114 when transmitting audio data as a component.
- step S ⁇ b> 114 the audio encoder 114 encodes the audio data supplied from the audio data acquisition unit 113 and supplies the encoded audio data to the Mux 121.
- step S115 the caption data acquisition unit 115 acquires the caption data to be transmitted and supplies it to the caption encoder 116 when transmitting caption data as a component.
- step S ⁇ b> 116 the caption encoder 116 encodes the caption data supplied from the caption data acquisition unit 115 and supplies the encoded caption data to the Mux 121.
- step S117 the file data acquisition unit 117 acquires file data such as video, audio, subtitles, NRT content, application, and the like when transmitting data in the file format, and supplies the file data to the file processing unit 118.
- step S ⁇ b> 118 the file processing unit 118 performs predetermined file processing on the file data supplied from the file data acquisition unit 117 and supplies the file data to the Mux 121.
- step S119 the control signal acquisition unit 119 acquires a control signal (signaling information in FIG. 7) and supplies the control signal to the control signal processing unit 120.
- step S ⁇ b> 120 the control signal processing unit 120 performs predetermined signal processing on the control signal supplied from the control signal acquisition unit 119 and supplies the signal to the Mux 121.
- step S121 the Mux 121 controls the video data from the video encoder 112, the audio data from the audio encoder 114, the subtitle data from the subtitle encoder 116, the file data from the file processing unit 118, and the control from the control signal processing unit 120.
- the signals are multiplexed to generate an IP transmission BBP stream and supplied to the transmitter 122.
- step S122 the transmission unit 122 transmits the BBP stream supplied from the Mux 121 as a broadcast signal via the antenna 123. Then, when the process of step S122 ends, the transmission process ends.
- the transmission process has been described above.
- components such as video (Video) and audio (Audio) received by the receiving device 20 are a selective layer (Selective Layer), a composite layer (Composite Layer), and an adaptive layer. It consists of three layers (Adaptive Layer). In this hierarchical structure, a composite layer is disposed as an upper layer of the adaptive layer, and a selective layer is disposed as an upper layer of the composite layer.
- one circular symbol with a different pattern represents a component that is distributed using broadcast (Broadcast Component), and the other symbol is distributed using communication.
- These components are distributed as so-called adaptive streaming, and a plurality of components having different bit rates are prepared.
- a straight line that swings left and right on the dotted arc in the figure functions as a switch, so that one component is selected from a plurality of components.
- the composite layer that is an upper layer of the adaptive layer, a plurality of components adaptively selected by the adaptive layer are combined into one component. That is, the composite layer is a hierarchy for combining a plurality of components in the component group to be combined and functioning as one component (composite component) in each component category.
- the selective layer which is the upper layer of the composite layer and is the highest layer, a straight line that swings left and right on the dotted arc in the figure functions as a switch, so that one component can be selected from multiple components. Is selected. That is, the selective layer is a hierarchy for statically selecting one or a plurality of components from a component group to be fixedly selected in each component category according to a predetermined selection method.
- the control unit 220 controls the tuner 212 based on the bootstrap information of the SCT held in the NVRAM 221 as channel selection information, and broadcasts the broadcast signal of the service to be selected. To be received.
- the control unit 220 collects and analyzes the SCS (MPD, SPT, SDP, USD) of the services to be selected separated by the Demux 213, and extracts the information elements.
- step S212 the control unit 220 specifies the first component category among all the component categories specified in the description of the SPT component.
- video is designated as the first component category.
- step S213 the control unit 220 selects a component by listing the component options of the selective layer with respect to the description of each component of the MPD within the range of the component category specified in the process of step S212.
- the names of component options may be displayed on the screen to allow the user to select them, or the receiving apparatus 20 may automatically select them according to compatible functions and initial settings.
- the selected component is a composite component according to the description of the composite layer of the MPD, a specific component is selected from among the components constituting the composite component.
- step S214 the control unit 220 determines whether or not the component selected in the process of step S213 is the adaptive layer switching target based on the description of the adaptive layer of the MPD.
- step S214 If it is determined in step S214 that the target is an adaptive layer switching target, the process proceeds to step S215.
- step S215 the control unit 220 controls the selection / synthesis units 215 to 217 to select a predetermined default component from among the adaptive component selection targets.
- step S216 If it is determined in step S214 that the target is not an adaptive layer switching target, the process in step S215 is skipped, and the process proceeds to step S216.
- step S216 the control unit 220 refers to the SPT or USD by using a representation ID for commonly identifying a specific component with respect to the component narrowed down to one in the component category being designated, Check whether the component is distributed by broadcast or communication.
- step S216 If it is determined in step S216 that the component is distributed by broadcasting, the process proceeds to step S218.
- the control unit 220 refers to the SPT or USD, so that the component is a component that is broadcast and distributed within the same service or a component that is broadcast and distributed within a different service. Determine if. In this determination process, whether the IP address is the same as that of the acquired SCS may be confirmed, for example, whether it is in the same service, that is, whether it is in-band or out-band. Therefore, if the IP address is different from the acquired SCS, it is a different service.
- step S217 If it is determined in step S217 that the component is a component that is broadcast and distributed within the same service, that is, a component that is broadcast and distributed in-band, the process proceeds to step S218.
- the control unit 220 refers to the IP address, the port number, the TSI obtained by referring to the SDP, and the TOI obtained by referring to the USD from the segment URL specified by the MPD with respect to the component narrowed down to one. To get. Then, the control unit 220 controls the FLUTE processing unit 218 to acquire the component in the same service by specifying the segment specified by the TOI from the FLUTE session specified by the IP address, the port number, and the TSI. can do.
- step S217 If it is determined in step S217 that the component is a component that is broadcast and distributed in a different service, that is, a component that is broadcast and distributed in the out band, the process proceeds to step S219.
- the control unit 220 controls the tuner 212 based on the SCT bootstrap information held in the NVRAM 221 as the channel selection information, and receives a broadcast signal of another service specified by the SPT Associated Service Descriptor. So that In addition, the control unit 220 acquires and analyzes the SDP and USD of another service separated by the Demux 213, and extracts the information element.
- control unit 220 refers to the USD from the IP address, the port number, the TSI obtained by referring to the SDP and the segment URL specified by the MPD of the original service for the component narrowed down to one. Get the resulting TOI. Then, the control unit 220 controls the FLUTE processing unit 218 to specify the segment specified by the TOI from the FLUTE session specified by the IP address, the port number, and the TSI. Can be acquired.
- step S216 If it is determined in step S216 that the component is distributed by communication, the process proceeds to step S220.
- step S220 the control unit 220 acquires the segment URL specified by the MPD for the component narrowed down to one. Then, the control unit 220 controls the communication I / F 222, accesses the distribution server 60 according to the segment URL, and acquires components via the Internet 90.
- step S221 the control unit 220 determines whether or not the component is a composite component based on the description of the composite layer of the MPD.
- step S221 If it is determined in step S221 that the component is a composite component, the process proceeds to step S222.
- step S222 the control unit 220 determines whether or not the component acquisition process of the component of the composite component has been completed. If the component component acquisition process is not completed in step S222, that is, if there are still components to be acquired, the process proceeds to step S223.
- step S223 the control unit 220 selects the next component to be acquired based on the description of the MPD composite layer.
- the process of step S223 ends, the process returns to step S214, and the subsequent processes are repeated. Thereby, the component of the component of a synthetic
- step S224 the control unit 220 controls the operation of each unit and performs the decoding / presentation processing of the composite component.
- the control unit 220 controls the selection / synthesis unit 215, the video decoder 224, and the video output unit 225 to synchronize the components of the components of the synthesis component.
- decoding is performed, and presentation of a video corresponding to the synthesized component is started.
- the control unit 220 controls the selection / synthesis unit 216, the audio decoder 226, and the audio output unit 227 to synchronize the components of the components of the synthesis component. After synthesizing these components, decoding is performed, and output of audio corresponding to the synthesis component is started.
- step S225 the control unit 220 controls the operation of each unit, and performs the decoding / presentation processing of the single component.
- the control unit 220 controls the selection / combination unit 215, the video decoder 224, and the video output unit 225 when the component category being designated is video and a broadcast-distributed component is acquired. Then, the component is decoded and the presentation of the video is started. Further, for example, when the component category being designated is audio, and the component distributed by broadcast is acquired, the control unit 220 selects / combines the unit 216, the audio decoder 226, and the audio output unit 227. Is controlled to decode the component and start outputting the sound.
- step S224 or S225 the process proceeds to step S226.
- the control unit 220 determines whether all the component categories specified in the description of the component of the SPT have been specified and are the last component category.
- step S226 If it is determined in step S226 that it is not the last component category, the process proceeds to step S227.
- step S227 the control unit 220 designates the next component category among all the component categories designated by the description of the SPT component.
- audio is designated as the next component category.
- step S227 the process returns to step S213, and the subsequent processes are repeated. Thereby, the component of the next component category (for example, audio) is acquired and decoded, and presentation (output) is started. If it is determined in the determination process in step S226 that the component category is the last component category, the reception process ends. The reception process has been described above.
- the series of processes described above can be executed by hardware or software.
- a program constituting the software is installed in the computer.
- the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing a computer incorporated in dedicated hardware and various programs.
- FIG. 43 is a block diagram showing an example of the hardware configuration of a computer that executes the above-described series of processing by a program.
- a CPU Central Processing Unit
- ROM Read Only Memory
- RAM Random Access Memory
- An input / output interface 905 is further connected to the bus 904.
- An input unit 906, an output unit 907, a recording unit 908, a communication unit 909, and a drive 910 are connected to the input / output interface 905.
- the input unit 906 includes a keyboard, a mouse, a microphone, and the like.
- the output unit 907 includes a display, a speaker, and the like.
- the recording unit 908 includes a hard disk, a nonvolatile memory, and the like.
- the communication unit 909 includes a network interface or the like.
- the drive 910 drives a removable medium 911 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
- the CPU 901 loads the program stored in the recording unit 908 to the RAM 903 via the input / output interface 905 and the bus 904 and executes the program, as described above. A series of processing is performed.
- the program executed by the computer 900 can be provided by being recorded on a removable medium 911 as a package medium, for example.
- the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
- the program can be installed in the recording unit 908 via the input / output interface 905 by installing the removable medium 911 in the drive 910. Further, the program can be received by the communication unit 909 via a wired or wireless transmission medium and installed in the recording unit 908. In addition, the program can be installed in the ROM 902 or the recording unit 908 in advance.
- the program executed by the computer 900 may be a program that is processed in time series in the order described in this specification, or a necessary timing such as when a call is made in parallel. It may be a program in which processing is performed.
- processing steps for describing a program for causing the computer 900 to perform various processes do not necessarily have to be processed in time series in the order described in the flowchart, and may be performed in parallel or individually. (For example, parallel processing or object processing).
- the program may be processed by one computer, or may be processed in a distributed manner by a plurality of computers. Furthermore, the program may be transferred to a remote computer and executed.
- the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .
- the embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.
- the present technology can take a configuration of cloud computing in which one function is shared by a plurality of devices via a network and jointly processed.
- each step described in the above flowchart can be executed by one device or can be shared by a plurality of devices. Further, when a plurality of processes are included in one step, the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
- this technique can take the following structures.
- the receiving device according to (1) wherein a distribution form of the component is broadcast distribution or communication distribution.
- the control signal is transmitted for each service,
- the broadcast distribution includes a first broadcast distribution in which the component is distributed in the same service as the control signal of the selected service, and another service in which the component is different from the control signal of the selected service.
- the receiving device according to (2) including a second broadcast distribution distributed within the network.
- the control signal is composed of a plurality of signaling information, The receiving device according to any one of (1) to (3), wherein the component is identified by a common ID in each signaling information.
- each segment in the FLUTE session stores data of a component of a specific category.
- Each segment in the FLUTE session stores data for multiple categories of components,
- the receiving apparatus according to (5), wherein the control signal includes identification information for identifying a category of the component.
- the control signal includes a table in which parameters relating to at least one of various services and components constituting the service are described as signaling information,
- the receiving apparatus according to any one of (1) to (7), wherein the table describes a component ID and a category of the component as parameters relating to the component.
- the control signal is transmitted in a layer higher than the IP layer among the protocol layers in the IP transmission method,
- the receiving device according to any one of (1) to (8), wherein a common IP address is assigned to the component and the control signal that constitute each service.
- the receiving device is Receive broadcast waves of digital broadcasting using the IP transmission method, Based on the information included in the control signal transmitted by the broadcast wave and indicating the distribution form of the components constituting the various services, the components constituting the selected service are obtained according to the distribution form.
- a receiving method including a step of controlling operation of each unit that performs predetermined processing relating to the component.
- a first acquisition unit that acquires one or more components constituting various services;
- a second acquisition unit that acquires a control signal including information indicating a distribution form of the component;
- a transmission apparatus comprising: a transmission unit that transmits a broadcast wave that uses an IP transmission method and includes the component that constitutes the service and the control signal.
- the transmission device (12) The transmission device according to (11), wherein a distribution form of the component is broadcast distribution or communication distribution. (13) The control signal is transmitted for each service, The broadcast distribution includes a first broadcast distribution in which the component is distributed in the same service as the control signal of the selected service, and another service in which the component is different from the control signal of the selected service. The transmission device according to (12), including a second broadcast distribution distributed within the network. (14) The control signal is composed of a plurality of signaling information, The transmission component according to any one of (11) to (13), wherein the component is identified by a common ID in each signaling information. (15) The transmission device according to any one of (11) to (14), wherein the component has a file format and is transmitted by a FLUTE session.
- each segment in the FLUTE session stores data of a component of a specific category.
- Each segment in the FLUTE session stores data for multiple categories of components,
- the control signal includes a table in which parameters relating to at least one of various services and components constituting the service are described as signaling information,
- the control signal is transmitted in a layer higher than the IP layer among the protocol layers in the IP transmission method,
- the transmission apparatus according to any one of (11) to (18), wherein a common IP address is assigned to the component and the control signal that constitute each service.
- the transmitting device is Obtain one or more components that make up various services, Obtaining a control signal including information indicating a distribution form of the component;
- a transmission method including a step of transmitting a broadcast wave using an IP transmission method and including the component constituting the service and the control signal.
- 1 broadcast communication cooperation system 10 transmitting device, 20 receiving device, 60 distribution server, 90 internet, 111 video data acquisition unit, 113 audio data acquisition unit, 115 subtitle data acquisition unit, 117 file data acquisition unit, 119 control signal acquisition unit , 122 transmission unit, 212 tuner, 220 control unit, 222 communication I / F, 900 computer, 901 CPU
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本技術は、IP伝送方式を導入したデジタル放送において、様々な運用形態に柔軟に対応することができるようにする受信装置、受信方法、送信装置、及び、送信方法に関する。 IP伝送方式を用いたデジタル放送の放送波を受信する受信部と、放送波で伝送される制御信号に含まれる、各種のサービスを構成するコンポーネントの配信形態を示す情報に基づいて、選択されたサービスを構成するコンポーネントを配信形態に応じて取得するとともに、取得されたコンポーネントに関する所定の処理を行う各部の動作を制御する制御部とを備える受信装置が提供される。本技術は、例えば、テレビジョン受像機に適用することができる。
Description
本技術は、受信装置、受信方法、送信装置、及び、送信方法に関し、特に、様々な運用形態に柔軟に対応することができるようにした受信装置、受信方法、送信装置、及び、送信方法に関する。
各国のデジタル放送の規格では、伝送形式としてMPEG2-TS(Moving Picture Experts Group phase 2-Transport Stream)方式が採用されている(例えば、特許文献1参照)。今後は、通信の分野で用いられているIP(Internet Protocol)パケットをデジタル放送に用いたIP伝送方式を導入することで、より高度なサービスを提供することが想定されている。
IP伝送方式を導入することで、多様なフォーマットのコンテンツを多様な配信形態で伝送することが可能となり、様々な運用形態を利用できるようになることが想定されるが、そのような運用形態に対応するための技術方式は確立されていない。
本技術はこのような状況に鑑みてなされたものであり、IP伝送方式を導入したデジタル放送において、様々な運用形態に柔軟に対応することができるようにするものである。
本技術の第1の側面の受信装置は、IP(Internet Protocol)伝送方式を用いたデジタル放送の放送波を受信する受信部と、前記放送波で伝送される制御信号に含まれる、各種のサービスを構成するコンポーネントの配信形態を示す情報に基づいて、選択されたサービスを構成するコンポーネントを配信形態に応じて取得するとともに、取得されたコンポーネントに関する所定の処理を行う各部の動作を制御する制御部とを備える受信装置である。
前記コンポーネントの配信形態は、放送配信又は通信配信であるようにすることができる。
前記制御信号は、前記サービスごとに伝送されており、前記放送配信には、前記コンポーネントが、選択されたサービスの前記制御信号と同一のサービス内で配信される第1の放送配信と、前記コンポーネントが、選択されたサービスの前記制御信号と異なる別サービス内で配信される第2の放送配信が含まれるようにすることができる。
前記制御信号は、複数のシグナリング情報から構成されており、前記コンポーネントは、各シグナリング情報において共通のIDによって同定されるようにすることができる。
前記コンポーネントはファイル形式であって、FLUTE(File Delivery over Unidirectional Transport)セッションにより伝送されるようにすることができる。
前記FLUTEセッションにおける各セグメントには、特定のカテゴリのコンポーネントのデータが格納されるようにすることができる。
前記FLUTEセッションにおける各セグメントには、複数のカテゴリのコンポーネントのデータが格納され、前記制御信号は、当該コンポーネントのカテゴリを識別するための識別情報を含んでいるようにすることができる。
前記制御信号は、シグナリング情報として、各種のサービス及びサービスを構成するコンポーネントの少なくとも一方に関するパラメータが記述されたテーブルを含み、前記テーブルには、コンポーネントに関するパラメータとして、コンポーネントのIDと、当該コンポーネントのカテゴリが記述されるようにすることができる。
前記制御信号は、前記IP伝送方式におけるプロトコルの階層のうち、IP層よりも上位の階層で伝送され、各サービスを構成する前記コンポーネントと前記制御信号には、共通のIPアドレスが割り当てられるようにすることができる。
受信装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。
本技術の第1の側面の受信方法は、本技術の第1の側面の受信装置に対応する受信方法である。
本技術の第1の側面の受信装置及び受信方法においては、IP伝送方式を用いたデジタル放送の放送波が受信され、前記放送波で伝送される制御信号に含まれる、各種のサービスを構成するコンポーネントの配信形態を示す情報に基づいて、選択されたサービスを構成するコンポーネントを配信形態に応じて取得するとともに、取得されたコンポーネントに関する所定の処理を行う各部の動作が制御される。
本技術の第2の側面の送信装置は、各種のサービスを構成する1又は複数のコンポーネントを取得する第1の取得部と、前記コンポーネントの配信形態を示す情報を含む制御信号を取得する第2の取得部と、IP伝送方式を用いた放送波であって、前記サービスを構成する前記コンポーネント及び前記制御信号を含む放送波を送信する送信部とを備える送信装置である。
前記コンポーネントの配信形態は、放送配信又は通信配信であるようにすることができる。
前記制御信号は、前記サービスごとに伝送され、前記放送配信には、前記コンポーネントが、選択されたサービスの前記制御信号と同一のサービス内で配信される第1の放送配信と、前記コンポーネントが、選択されたサービスの前記制御信号と異なる別サービス内で配信される第2の放送配信が含まれるようにすることができる。
前記制御信号は、複数のシグナリング情報から構成されており、前記コンポーネントは、各シグナリング情報において共通のIDによって同定されるようにすることができる。
前記コンポーネントはファイル形式であって、FLUTEセッションにより伝送されるようにすることができる。
前記FLUTEセッションにおける各セグメントには、特定のカテゴリのコンポーネントのデータが格納されるようにすることができる。
前記FLUTEセッションにおける各セグメントには、複数のカテゴリのコンポーネントのデータが格納され、前記制御信号は、当該コンポーネントのカテゴリを識別するための識別情報を含んでいるようにすることができる。
前記制御信号は、シグナリング情報として、各種のサービス及びサービスを構成するコンポーネントの少なくとも一方に関するパラメータが記述されたテーブルを含み、前記テーブルには、コンポーネントに関するパラメータとして、コンポーネントのIDと、当該コンポーネントのカテゴリが記述されるようにすることができる。
前記制御信号は、前記IP伝送方式におけるプロトコルの階層のうち、IP層よりも上位の階層で伝送され、各サービスを構成する前記コンポーネントと前記制御信号には、共通のIPアドレスが割り当てられるようにすることができる。
送信装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。
本技術の第2の側面の送信方法は、本技術の第2の側面の送信装置に対応する送信方法である。
本技術の第2の側面の送信装置及び送信方法においては、各種のサービスを構成する1又は複数のコンポーネントが取得され、前記コンポーネントの配信形態を示す情報を含む制御信号が取得され、IP伝送方式を用いた放送波であって、前記サービスを構成する前記コンポーネント及び前記制御信号を含む放送波が送信される。
本技術の第1の側面及び第2の側面によれば、IP伝送方式を導入したデジタル放送において、様々な運用形態に柔軟に対応することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
以下、図面を参照しながら本技術の実施の形態について説明する。ただし、説明は以下の順序で行うものとする。
1.IP伝送方式によるデジタル放送の概要
2.シグナリング情報の詳細
(1)シグナリング情報の構造
(2)SCSのデータ構造
3.第1の実施の形態(サービス単位のFLUTEセッション)
(1)具体的な運用例
(2)SCSの記述例
(3)セグメントの構成例
4.第2の実施の形態(コンポーネント単位のFLUTEセッション)
(1)具体的な運用例
(2)SCSの記述例
(3)セグメントの構成例
5.第3の実施の形態(1つのセグメントに複数のコンポーネントが含まれる場合)
(1)具体的な運用例
(2)SCSの記述例
(3)セグメントの構成例
6.放送通信システムの構成
7.各装置で実行される具体的な処理の流れ
8.コンピュータの構成
2.シグナリング情報の詳細
(1)シグナリング情報の構造
(2)SCSのデータ構造
3.第1の実施の形態(サービス単位のFLUTEセッション)
(1)具体的な運用例
(2)SCSの記述例
(3)セグメントの構成例
4.第2の実施の形態(コンポーネント単位のFLUTEセッション)
(1)具体的な運用例
(2)SCSの記述例
(3)セグメントの構成例
5.第3の実施の形態(1つのセグメントに複数のコンポーネントが含まれる場合)
(1)具体的な運用例
(2)SCSの記述例
(3)セグメントの構成例
6.放送通信システムの構成
7.各装置で実行される具体的な処理の流れ
8.コンピュータの構成
<1.IP伝送方式によるデジタル放送の概要>
(プロトコルスタック)
図1は、IP伝送方式のデジタル放送のプロトコルスタックを示す図である。
図1は、IP伝送方式のデジタル放送のプロトコルスタックを示す図である。
図1に示すように、最も下位の階層は、物理層(Physical Layer)とされ、サービス(チャンネル)のために割り当てられた放送波の周波数帯域がこれに対応する。物理層に隣接する上位の階層は、BBPストリーム(Base Band Packet Stream)を挟んでIP層とされる。BBPストリームは、IP伝送方式における各種のデータを格納したパケットを含むストリームである。
IP層は、TCP/IPのプロトコルスタックにおけるIP(Internet Protocol)に相当するものであり、IPアドレスによりIPパケットが特定される。IP層に隣接する上位階層はUDP層とされ、さらにその上位の階層は、RTP,FLUTE/ALSとされる。すなわち、IP伝送方式のデジタル放送においては、UDP(User Datagram Protocol)のポート番号が指定されたパケットが送信され、例えばRTP(Real-time Transport Protocol)セッションやFLUTE(File Delivery over Unidirectional Transport)セッションが確立されるようになされている。なお、FLUTEの詳細は、RFC3926として規定されている。
FLUTE/ALSに隣接する上位階層は、fMP4(Fragmented MP4)とされ、さらに、RTP,fMP4に隣接する上位階層は、ビデオデータ(Video)、オーディオデータ(Audio)、字幕データ(Closed Caption)等とされる。すなわち、ビデオデータやオーディオデータを、ストリーム形式で伝送する場合には、RTPセッションが利用され、ビデオデータやオーディオデータを、ファイル形式で伝送する場合には、FLUTEセッションが利用される。
また、FLUTE/ALSの上位階層は、NRTコンテンツ(NRT Content),ESG,SCSとされ、NRTコンテンツ,ESG,SCSは、FLUTEセッションにより伝送される。NRTコンテンツは、NRT(Non-RealTime)放送で伝送されるコンテンツであって、受信機のストレージに一旦蓄積された後で再生が行われる。なお、NRTコンテンツは、コンテンツの一例であって、他のコンテンツのファイルがFLUTEセッションにより伝送されるようにしてもよい。ESG(Electronic Service Guide)は、電子サービスガイドである。
SCS(Service Channel Signaling)は、サービス単位のシグナリング情報であって、FLUTEセッションにより伝送される。例えば、SCSとしては、MPD(Media Presentation Description),SPT(Service Parameter Table),SDP(Session Description Protocol),USD(User Service Description)が伝送される。
LLS(Low Layer Signaling)は、低レイヤのシグナリング情報であって、BBPストリーム上で伝送される。例えば、LLSとしては、SCT(Service Configuration Table),SAT(Service Association Table),EAT(Emergency Alerting Table),RRT(Region Rating Table)などのサービス構成情報(Service Configuration Information)が伝送される。
(IP伝送方式におけるID体系)
図2は、IP伝送方式を用いたデジタル放送の放送波の信号と、IP伝送方式のID体系との関係を示す図である。
図2は、IP伝送方式を用いたデジタル放送の放送波の信号と、IP伝送方式のID体系との関係を示す図である。
図2に示すように、所定の周波数帯域(6MHz)を有する放送波(放送ネットワーク(Network))には、ネットワークID(以下、「network_id」、「networkId」とも記述する)が割り当てられている。各放送波には、BBPストリームID(以下、「BBP_stream_id」、「BBPStreamId」とも記述する)により識別される、1又は複数のBBPストリームが含まれている。BBPストリームは、BBPヘッダとペイロードからなる複数のBBPパケットにより構成される。
各BBPストリームには、サービスID(以下、「service_id」、「ServiceId」とも記述する)により識別される1又は複数のサービス(Service)が含まれている。各サービスは、1又は複数のコンポーネント(Component)から構成されている。各コンポーネントは、例えば、ビデオデータやオーディオデータ、字幕データ等の番組を構成する情報である。
このように、IP伝送方式のID体系として、MPEG2-TS方式で用いられているネットワークID(network_id),トランスポートストリームID(transport_stream_id),サービスID(service_id)の組み合わせ(以下、「トリプレット(Triplet)」という。)に対応する構成を採用し、このトリプレットによって、放送ネットワーク内のBBPストリーム構成とサービス構成が示される。ただし、IP伝送方式のID体系においては、トランスポートストリームIDの代わりに、BBPストリームIDが用いられる。
これにより、現在広く普及しているMPEG2-TS方式との整合をとることができるため、例えば、MPEG2-TS方式からIP伝送方式への移行時のサイマルキャストに容易に対応することが可能となる。
(IP伝送方式の放送波の構成)
図3は、IP伝送方式のデジタル放送の放送波の構成を示す図である。
図3は、IP伝送方式のデジタル放送の放送波の構成を示す図である。
図3に示すように、所定の周波数帯域(6MHz)を有する放送波(図中の「Network」)には、複数のBBPストリームが伝送されている。また、各BBPストリームには、NTP(Network Time Protocol)、複数のサービスチャンネル(Service Channel)、電子サービスガイド(ESG Service)、及び、LLSが含まれる。ただし、NTP,サービスチャンネル,電子サービスガイドは、UDP/IPのプロトコルに従って伝送されるが、LLSは、BBPストリーム上で伝送される。また、NTPは、時刻情報であって、複数のサービスチャンネルで共通のものとなる。
各サービスチャンネルには、ビデオデータやオーディオデータ等のコンポーネント(Component)と、SPTやSDP等のSCSが含まれる。また、各サービスチャンネルには、共通のIPアドレスが付与されており、このIPアドレスを用いて、1又は複数のサービスチャンネルごとに、コンポーネントや制御信号などをパッケージ化することができる。なお、図3において、ネットワーク(Network)、BBPストリーム(BBP Stream)、及び、コンポーネント(Component)は、図2に対応しているが、サービスチャンネル(Service Channel)は、図2のサービス(Service)に対応するものである。
(LLSの構成)
図4は、IP伝送方式におけるLLSの構成を示す図である。
図4は、IP伝送方式におけるLLSの構成を示す図である。
図4に示すように、BBPパケットは、BBPヘッダとペイロードから構成される。BBPストリームによりIPパケットを伝送する場合には、ペイロードの部分がIPパケットとなる。
また、BBPストリームによりLLSを伝送する場合には、BBPヘッダの次にLLSが配置される。LLSとしては、例えば、XML(Extensible Markup Language)形式で記述されたSCTやSAT等が配置されるが、そのデータの一部のXMLフラグメント(XML fragment)をLLS本体として、SGDUヘッダが付加される。これにより、SCTやSATは、SGDUコンテナ(Service Guide Delivery Unit Container)により伝送されることになる。
BBPヘッダには、2ビットのタイプ情報が含まれており、そのタイプ情報によって、BBPパケットがIPパケットであるか、LLSであるかを区別することができる。
(SCSの構成)
図5は、IP伝送方式におけるSCSの構成を示す図である。
図5は、IP伝送方式におけるSCSの構成を示す図である。
図5に示すように、例えば、ビデオデータやオーディオデータを、ストリーム形式で伝送する場合には、RTPセッションが利用されるため、BBP,IP,UDP,RTPの各ヘッダがペイロードに付加される。また、fMP4やESG,NRTコンテンツ等のファイルデータを、ファイル形式で伝送する場合には、FLUTEセッションが利用されるため、BBP,IP,UDP,LCTの各ヘッダがペイロードに付加される。さらに、NTPは、UDP層の上位階層となるため、BBP,IP,UDPの各ヘッダの次に配置される。
SCSは、FLUTEセッションを利用して伝送されるため、BBP,IP,UDP,LCTの各ヘッダの次に配置される。SCSとしては、例えば、SPTやSDP等が配置されるが、そのデータの一部のSDPフラグメント(SDP fragment)をSCS本体として、SGDUヘッダが付加される。これにより、SDPは、SGDUコンテナにより伝送されることになる。なお、SCS本体として配置されるのは、SDPフラグメントに限らず、例えば、XML形式で記述されたSPTのXMLフラグメント(XML fragment)を配置して、SGDUコンテナにより伝送することができる。
(SGDUの構造)
図6は、図4及び図5で説明したSGDUの構造を示す図である。なお、SGDUは、OMA(Open Mobile Alliance)の規格として採用されている。
図6は、図4及び図5で説明したSGDUの構造を示す図である。なお、SGDUは、OMA(Open Mobile Alliance)の規格として採用されている。
図6に示すように、SGDU(Service Guide Delivery Unit)は、ヘッダ情報(Unit_Header)とペイロード(Unit_Payload)から構成される。また、SGDUでは必要に応じて、拡張情報(extension_data)が配置される。
ヘッダ情報には、fragmentTransportIDとfragmentVersionが配置される。fragmentTransportIDは、フラグメント識別を示す。例えば、fragmentTransportIDにより、SCTやSDPなどが識別される。また、fragmentVersionは、フラグメントのバージョン番号を示す。
ペイロードには、XMLフラグメント(XML fragment)及びSDPフラグメント(SDP fragment)の少なくとも一方の実データが配置される。すなわち、ヘッダ情報のn_o_service_guide_fragmentsにより指定された数に応じた1又は複数のフラグメントのデータがペイロードに配置されることになる。ここでは、例えば、XMLフラグメントとSDPフラグメントの両方のフラグメントが配置されるようにするなど、ペイロードに配置される複数のフラグメントの組み合わせは任意である。また、ヘッダ情報のoffsetによって、複数配置されたフラグメントのうち、任意のフラグメントの位置を示すことができる。
ただし、XMLフラグメントを配置する場合には、そのフラグメントのタイプを示すfragmentTypeが実データとともに配置される。また、SDPフラグメントを配置する場合には、そのフラグメントを識別するfragmentIDが実データとともに配置される。
また、拡張情報を配置する場合には、拡張情報のタイプを示すextension_typeが拡張データ(extension_data)とともに配置される。また、ヘッダ情報に、extension_offsetを指定することで、拡張情報の位置を示すことができる。
<2.シグナリング情報の詳細>
(1)シグナリング情報の構造
図7は、シグナリング情報の構造を示す図である。
図7は、シグナリング情報の構造を示す図である。
上述したように、LLSとしては、例えば、SCT,SAT,EAT,RRTが伝送される。SCTは、MPEG2-TS方式で用いられているトリプレットを採用し、このトリプレットによって、放送ネットワーク内のBBPストリーム構成とサービス構成が示される。また、SCTには、サービス単位の属性・設定情報としてのIPアドレス等の情報、ESGやSCSにアクセスするためのbootstrap情報などが含まれる。
SATは、BBPストリームごとのオンエア中のサービスを示す。SATによって、特定のサービスがオンエア中(放送中)であるかどうかを判定することができる。EATは、緊急告知に関する情報を含んでいる。RRTは、レーティング情報を含んでいる。
また、SCSとしては、例えば、MPD,SPT,SDP,USDが伝送される。MPDは、サービス単位で伝送されるコンポーネントごとのセグメントURL(Uniform Resource Locator)などを含んでいる。SPTは、サービスとコンポーネントのレベルで規定された各種のパラメータを含んで構成される。
SDPは、サービス単位のサービス属性、コンポーネントの構成情報、コンポーネント属性、コンポーネントのフィルタ情報、コンポーネントのロケーション情報などを含んでいる。USDは、FDD(File Delivery Description)を含み、SDPとUSDによって、例えばFLUTEセッションにより伝送されるセグメントファイルが特定される。
ESGは、例えば、番組タイトルや開始時刻などの情報を含む電子サービスガイドである。アプリケーション(Application)は、HTML(Hyper Text Markup Language)形式のファイル等から構成され、例えばインターネット上のサーバから配信される。アプリケーションは、特定のサービスとして提供される、テレビ番組等の放送コンテンツに連動して実行される。ESGとアプリケーションは、USDと関連付けることができる。
(2)SCSのデータ構造
次に、SCSとして伝送される、MPD,SPT,SDP,USDのデータ構造について説明する。
次に、SCSとして伝送される、MPD,SPT,SDP,USDのデータ構造について説明する。
(MPDの構造)
図8は、MPD(Media Presentation Description)の構造を示す図である。MPDは、例えば、XML等のマークアップ言語により記述される。
図8は、MPD(Media Presentation Description)の構造を示す図である。MPDは、例えば、XML等のマークアップ言語により記述される。
図8に示すように、MPDは、Period要素と、AdaptationSet要素と、Representation要素が階層構造になって構成される。ただし、図8のMPDの構造の例では、MPDを構成する主な要素と属性のみを記述しており、実際には、他の要素や属性が記述されることになる。
Period要素は、コンテンツや番組などの構成を記述する単位で記述される。AdaptationSet要素には、例えば言語などの情報を指定することができる。Representation要素には、例えば符号化速度や画面サイズに関する情報を指定することができる。
また、Representation要素は、id属性、及び、BaseURL要素の上位要素となる。id属性には、リプレゼンテーションIDが指定される。このリプレゼンテーションIDにより、SCSの他のシグナリング情報(SPT,SDP,USD)との間で、コンポーネントの対応をとることができる。BaseURL要素には、コンポーネントのロケーション情報が指定される。
なお、図8のMPDの構造の例では、AdaptationSet要素とRepresentation要素を1つずつ配置した場合を示しているが、AdaptationSet要素とRepresentation要素は、複数配置することができる。
(SPTのシンタックス)
図9は、SPT(Service Parameter Table)のシンタックスを示す図である。SPTは、例えば、XML等のマークアップ言語により記述される。なお、図9において、要素と属性のうち、属性には「@」が付されている。また、インデントされた要素と属性は、その上位の要素に対して指定されたものとなる。
図9は、SPT(Service Parameter Table)のシンタックスを示す図である。SPTは、例えば、XML等のマークアップ言語により記述される。なお、図9において、要素と属性のうち、属性には「@」が付されている。また、インデントされた要素と属性は、その上位の要素に対して指定されたものとなる。
図9に示すように、Spt要素は、serviceId属性、spIndicator属性、ProtocolVersionDescriptor要素、NRTServiceDescriptor要素、CapabilityDescriptor要素、IconDescriptor要素、ISO639LanguageDescriptor要素、ReceiverTargetingDescriptor要素、AssociatedServiceDescriptor要素、ContentAdvisoryDescriptor要素、及び、Component要素の上位要素となる。
serviceId属性には、サービスIDが指定される。spIndicator属性には、サービスIDにより識別されるサービスごとに、暗号化されているかどうかが指定される。spIndicator属性として"on"が指定された場合には、当該サービスが暗号化されていることを示し、"off"が指定された場合には、当該サービスが暗号化されていないことを示している。
ProtocolVersionDescriptor要素には、データのサービスがどのようなサービスであるかを示すための情報が指定される。NRTServiceDescriptor要素には、NRTサービスに関する情報が指定される。CapabilityDescriptor要素には、NRTサービスの提供を受ける受信機に要求される機能(キャパビリティ)に関する情報が指定される。
IconDescriptor要素には、NRTサービスで用いられるアイコンの取得先を示す情報が指定される。ISO639LanguageDescriptor要素には、NRTサービスの言語コードが指定される。ReceiverTargetingDescriptor要素には、NRTサービスのターゲット情報が指定される。
AssociatedServiceDescriptor要素には、関連従属サービスに関する情報が指定される。ContentAdvisoryDescriptor要素には、レーティングリージョンに関する情報が指定される。
SPTにおいては、上述したこれらのDescriptor要素により、サービスレベルでの各種のパラメータが規定される。また、以下のComponent要素により、コンポーネントレベルでの各種のパラメータが規定される。
Component要素は、componentId属性、representationId属性、subRepresentationLevel属性、componentCategory属性、locationType属性、componentEncription属性、TargetedDeviceDescriptor要素、ContentAdvisoryDescriptor要素、VideoParameters要素、AudioParameters要素、及び、CaptionParameters要素の上位要素となる。
componentId属性には、コンポーネントIDが指定される。
representationId属性には、リプレゼンテーションIDが指定される。このリプレゼンテーションIDにより、SCSの他のシグナリング情報(MPD,SDP,USD)との間で、コンポーネントの対応をとることができる。
subRepresentationLevel属性には、サブリプレゼンテーションレベルが指定される。例えば、サブリプレゼンテーションレベルは、FLUTEセッションにおける各セグメントに、複数のカテゴリ(例えばビデオやオーディオ)のコンポーネントが格納される場合において、それらのコンポーネントを識別するための情報となる。
componentCategory属性には、コンポーネントのカテゴリ情報が指定される。このカテゴリ情報としては、例えば、"video","audio","caption","nrt"が指定される。"video"はビデオのコンポーネント、"audio"はオーディオのコンポーネント、"caption"は字幕のコンポーネントであることを示している。また、"nrt"は、NRTコンテンツのデータであることを示している。
locationType属性には、コンポーネントのロケーションのタイプ情報が指定される。このタイプ情報としては、例えば、"bb","bca","bco"が指定される。"bb"は、Broadbandの略であって、コンポーネントが通信を利用して配信されることを示す。"bca"は、Broadcast actualの略であって、コンポーネントが放送を利用して配信され、かつ、当該SPT(SCS)が伝送されているサービスと同一のサービス内で配信されることを示す。"bco"は、Broadcast otherの略であって、コンポーネントが放送を利用して配信され、かつ、当該SPT(SCS)が伝送されているサービスと異なる別サービス内で配信されることを示す。
なお、以下の説明では、locationType属性として"bca"が指定され、コンポーネントが同一サービス内で配信されることを、「インバンド(Inband)」とも称する。また、locationType属性として"bco"が指定され、コンポーネントが別サービス内で配信されることを、「アウトバンド(Outband)」とも称する。
componentEncription属性には、コンポーネントIDにより識別されるコンポーネントごとに、暗号化されているかどうかが指定される。componentEncription属性として"on"が指定された場合には、当該コンポーネントが暗号化されていることを示し、"off"が指定された場合には、当該コンポーネントが暗号化されていないことを示している。TargetedDeviceDescriptor要素には、ターゲットの装置に関する情報が指定される。ContentAdvisoryDescriptor要素には、コンポーネント単位での、レーティング情報が指定される。
VideoParameters要素には、ビデオのパラメータが指定される。VideoParameters要素は、AVCVideoDescriptor要素、及び、HEVCVideoDescriptor要素の上位要素となる。すなわち、ビデオデータの符号化方式として、AVC(Advanced Video Coding)が用いられている場合には、AVCVideoDescriptor要素が指定され、HEVC(High Efficiency Video Coding)が用いられている場合には、HEVCVideoDescriptor要素が指定される。なお、AVCとHEVCは、ビデオデータの符号化方式の一例であって、他の符号化方式が用いられる場合には、対応するVideoDescriptor要素が指定されることになる。
AudioParameters要素には、オーディオのパラメータが指定される。AudioParameters要素は、MPEG4AACAudioDescriptor要素、及び、AC3AudioDescriptor要素の上位要素となる。すなわち、オーディオデータの符号化方式として、MPEG4AAC(Advanced Audio Coding)が用いられている場合には、MPEG4AACAudioDescriptor要素が指定され、AC3(Audio Code number 3)が用いられる場合には、AC3AudioDescriptor要素が指定される。なお、MPEG4AACとAC3は、オーディオデータの符号化方式の一例であって、他の符号化方式が用いられる場合には、対応するAudioDescriptor要素が指定されることになる。
CaptionParameters要素には、字幕のパラメータが指定される。
なお、図9において、ProtocolVersionDescriptor要素、NRTServiceDescriptor要素、CapabilityDescriptor要素、IconDescriptor要素、ISO639LanguageDescriptor要素、及び、ReceiverTargetingDescriptor要素は、NRTサービス用に規定されるものである。
また、図9に示したSPTの要素と属性の出現数(Cardinality)であるが、"1"が指定された場合にはその要素又は属性は必ず1つだけ指定され、"0..1"が指定された場合には、その要素又は属性を指定するかどうかは任意である。また、"1..n"が指定された場合には、その要素又は属性は1以上指定され、"0..n"が指定された場合には、その要素又は属性を1以上指定するかどうかは任意である。これらの出現数の意味は、後述する他のシンタックスでも同様とされる。
次に、図9のSPTに記述されるDescriptor要素の詳細構造について説明する。ここでは、それらのDescriptor要素を代表して、Associated Service Descriptor要素について説明する。
(Associated Service Descriptor)
図10は、Associated Service Descriptorのシンタックスを示す図である。Associated Service Descriptorは、例えば、XML等のマークアップ言語により記述される。なお、図10において、要素と属性のうち、属性には「@」が付されている。また、インデントされた要素と属性は、その上位の要素に対して指定されたものとなる。
図10は、Associated Service Descriptorのシンタックスを示す図である。Associated Service Descriptorは、例えば、XML等のマークアップ言語により記述される。なお、図10において、要素と属性のうち、属性には「@」が付されている。また、インデントされた要素と属性は、その上位の要素に対して指定されたものとなる。
AssociatedServiceDescriptor要素には、関連従属サービスに関する情報が指定される。AssociatedServiceDescriptor要素は、networkId属性、BBPStreamId属性、及び、serviceId属性の上位要素となる。networkId属性には、ネットワークIDが指定される。BBPStreamId属性には、BBPストリームIDが指定される。serviceId属性には、サービスIDが指定される。すなわち、関連従属サービスはトリプレットにより指定されることになる。
(SDPの構造)
図11は、SDP(Session Description Protocol)の構造を示す図である。SDPは、例えばテキスト形式で記述される。
図11は、SDP(Session Description Protocol)の構造を示す図である。SDPは、例えばテキスト形式で記述される。
図11に示すように、SDPは、セッション記述部(Session Description)と、メディア記述部(Media Description)の2つの部分から構成される。セッション記述部には、セッションに関する情報が記述される。また、メディア記述部は、RTPセッションやFLUTEセッションで伝送されるオーディオデータとビデオデータなど、複数のメディア情報を記述することができる。
セッション記述部には、protocol version(v),origin(o),session name(s),session information(i),URI(u),email address(e),phone number(p),connection data(c),(session) bandwidth(b),timing(t),repeat times(r),time zone(z),encryption keys(k),(session) attributes(a)を記述することができる。
protocol version(v)には、プロトコルのバージョンが指定される。この値としては、"0"又はサービスの運用で決める値が指定される。RF2327では、必ず"0"が指定される。
origin(o)には、SDP記述文書の生成者の情報が指定される。例えば、origin(o)としては、ユーザ名(username),セッションID(sess-id),セッションバージョン(sess-version),ネットワークタイプ(nettype),アドレスタイプ(addrtype),ユニキャストアドレス(unicast-address)などの情報が指定される。
session name(s)には、セッションの名称が指定される。session information(i)には、セッションに関する情報が指定される。URI(u)には、セッションに関する付加情報を得ることができるURI(Uniform Resource Identifier)が指定される。
email address(e)には、セッションの管理責任者のコンタクト先の電子メールアドレスが指定される。phone number(p)には、セッションの管理責任者のコンタクト先の電話番号が指定される。
connection data(c)には、セッションで利用するネットワークアドレスの情報が指定される。例えば、connection data(c)としては、ネットワークタイプ(nettype),アドレスタイプ(addrtype),コネクションアドレス(connection-address)などの情報が指定される。(session) bandwidth(b)には、セッションで使用されるメディアの利用帯域が指定される。
timing(t)には、セッションの有効な開始時刻と、終了時刻が指定される。repeat times(r)には、セッションが定期的に繰り返し有効となる場合に、繰り返し周期などが指定される。なお、timing(t)とrepeat times(r)でタイム記述部を構成している。
time zones(z)は、タイム記述子のrepeat times(r)で繰り返しが指定される場合に、夏時間と冬時間などの切り替えが必要な場合のオフセットが指定される。encryption keys(k)は、セッションで使用する暗号鍵若しくはその情報が指定される。(session) attributes(a)は、セッションに関する種々の情報が指定される。
メディア記述部には、media announcements(m),media information(i),connection data(c),(media) bandwidth(b),encryption keys(k),(media) attributesを記述することができる。
media announcements(m)には、メディア種別(media),ポート番号(port),プロトコル(proto),フォーマット(fmt)などの情報が指定される。media information(i)には、メディアに関する情報が指定される。connection data(c)には、メディアで使用するネットワークアドレスの情報が指定される。
(media) bandwidth(b)には、メディアストリームの利用する帯域が指定される。encryption keys(k)には、メディアで使用する暗号鍵若しくはその情報が指定される。(media) attributesには、メディアに関する種々の属性が指定される。
(SDPの属性種別)
図12は、SDPの属性種別(Attributes)を示す図である。
図12は、SDPの属性種別(Attributes)を示す図である。
"a="により指定される属性種別は、セッション記述部に含まれる場合には、セッション全体に関わる属性を示し、メディア記述部に含まれる場合には、メディアに関する属性を示している。なお、SDPの機能を拡張する場合には、"a="の属性の部分を拡張することで、SDPのセッション記述能力を拡張することができる。
例えば、属性種別としては、ptime,fmtp,sendrecv,recvonly,sendonly,inactive,rtpmap,representation-idが定義されている。
ptimeは、1つのパケットに含まれるメディアの長さを示しており、その値としてパケットに含まれるデータ量が指定される。fmtpは、メディアで利用されるフォーマットと、そのフォーマットで必要な特定のパラメータを示し、その値としてフォーマットとパラメータが指定される。
sendrecvは、メディアが送受信双方向であることを示している。recvonlyは、メディアが受信のみであることを示している。sendonlyは、メディアが送信のみであることを示している。inactiveは、メディアが双方向で送出されないことを示している。例えば、セッションの途中でメディアの送受信を保留する場合や、セッション開始前にポート番号やコーデックなどの確保を行う場合に利用される。
rtpmapは、ペイロードと符号化種別のマッピングを示しており、その値としてペイロードタイプと符号化種別が指定される。representation-idは、リプレゼンテーションIDを示しており、その値として、リプレゼンテーションIDが指定される。このリプレゼンテーションIDにより、SCSの他のシグナリング情報(MPD,SPT,USD)との間で、コンポーネントの対応をとることができる。
(SDPの記述例)
図13は、SDPの記述例を示す図である。
図13は、SDPの記述例を示す図である。
この記述例において、セッション記述部には、プロトコルのバージョンを示す"v",インスタンス生成者情報を示す"o",コネクションデータを示す"c",セッションの有効時刻を示す"t"が記述されている。
すなわち、この記述例では、プロトコルのバージョンとして、"0"が指定されている。また、インスタンス生成者情報として、"ricky"であるユーザ名、"28908764872"であるSDPインスタンスのID、"IN"(インターネット)である送信(ホスト)のタイプ、"IP4"(IPv4)であるIPアドレスのタイプ、"host.example.com"であるIPアドレス(URL)がそれぞれ指定されている。
また、特定のセッションで利用するネットワークアドレスの情報として、"IN"(インターネット)であるネットワークのタイプ、"IP4"(IPv4)であるIPアドレスのタイプ、"192.0.2.4"であるIPアドレスがそれぞれ指定されている。さらに、セッションの有効時刻として、"0 0"が指定されている。
なお、送信(ホスト)又はネットワークのタイプには、"IN"(インターネット)のほか、"BC"(放送)や"HB"(ハイブリッド)などを指定することができる。また、IPアドレスのタイプには、"IP4"(IPv4)のほか、"IP6"(IPv6)などを指定することができる。
また、この記述例においては、特定のセッションで伝送されるストリームとして、オーディオデータとビデオデータが伝送される場合に、オーディオに関するメディア情報がメディア記述部1に記述され、ビデオに関するメディア情報がメディア記述部2に記述されている。
メディア情報の値としては、メディアタイプ、メディアを送信するポート番号、メディアを送信するプロトコル、フォーマットなどが指定される。例えば、メディアタイプとしては、ビデオ(Video)やオーディオ(Audio)が指定される。また、メディアを送信するプロトコルとしては、"RTP/AVP"や"FLUTE/UDP"などが指定される。また、フォーマットとしては、プロトコルごとに必要があれば付加情報が記述される。また、"a="で始まる行は、対応するメディアの属性を示している。
すなわち、この記述例では、メディア記述部1の"m=audio"の行によって、RTPセッションで伝送されるオーディオデータのポート番号が、"49170"であることを示している。また、その次に続く3行の"a=rtpmap"によって、ペイロードタイプと符号化種別がマッピングされている。つまり、オーディオデータは、PCMU,GSM(登録商標),G729のいずれかにより符号化されていることになる。また、オーディオデータにおいて、RTPタイムスタンプのタイムスケールは、8000となる。
また、メディア記述部2の"m=video"の行によって、RTPセッションで伝送されるビデオデータのポート番号が、51372であることを示している。そして、その次に続く2行の"a=rtpmap"によって、ペイロードタイプと符号化種別がマッピングされている。つまり、ビデオデータは、H.261又はH.263により符号化されていることになる。また、ビデオデータにおいて、RTPタイムスタンプのタイムスケールは、90000となる。
なお、図13のSDPの記述例では、オーディオデータとビデオデータがRTPセッションにより伝送される場合について説明したが、FLUTEセッションにより伝送される場合もある。その場合には、メディアを送信するプロトコルとして、"RTP/AVP"の代わりに、"FLUTE/UDP"が指定されることになる。
(USDの構造)
図14は、USD(User Service Description)の構造を示す図である。USDは、例えば、XML等のマークアップ言語により記述される。
図14は、USD(User Service Description)の構造を示す図である。USDは、例えば、XML等のマークアップ言語により記述される。
USBD要素は、USDのルート要素であって、サービスごとに、USD要素を記述することができる。ただし、USDを伝送するSCSはサービスごとに提供されるため、USBD要素には、各サービスに対するUSD要素が1つだけ記述されることになる。
USD要素は、appService要素、broadcastAppService要素、broadcastotherService要素、broadbandAppService要素、及び、DeliveryMethod要素の上位要素となる。また、appService要素は、appServiceDescriptionURI要素の上位要素となる。このappService要素とappServiceDescriptionURI要素によって、MPDの参照先を指定することができる。
broadcastAppService要素は、basePattern要素の上位要素となる。basePattern要素には、コンポーネントのbaseURLが指定される。コンポーネントがインバンドで放送配信される場合には、basePattern要素に、baseURLが記述される。この例では、インバンドで放送配信されるコンポーネントとして、basePattern要素に、"Video1"と"Audio1"が記述されている。
broadcastotherService要素は、コンポーネントのbaseURLが指定されるbasePattern要素の上位要素となる。コンポーネントがアウトバンドで放送配信される場合には、basePattern要素に、baseURLが記述される。この例では、アウトバンドで放送配信されるコンポーネントとして、basePattern要素に、"Audio2"が記述されている。
broadbandAppService要素は、コンポーネントのbaseURLが指定されるbasePattern要素の上位要素となる。コンポーネントが通信配信される場合には、basePattern要素に、baseURLが記述される。この例では、通信配信されるコンポーネントとして、basePattern要素に、"Audio3"が記述されている。
すなわち、例えば、MPDに記述されたbaseURLと、broadcastAppService要素、broadcastotherService要素、及び、broadbandAppService要素に記述されたbaseURLをマッチングすることで、MPDに記述されたbaseURLで指定されるコンポーネントがどのような配信形態で伝送されているかを識別することができる。具体的には、MPDとbroadcastAppService要素のbaseURLが一致した場合、コンポーネントがインバンドで放送配信されていることを示し、MPDとbroadcastotherService要素のbaseURLが一致した場合、コンポーネントがアウトバンドで放送配信されていることを示し、MPDとbroadbandAppService要素のbaseURLが一致した場合、コンポーネントが通信配信されていることを示す。
このように、broadcastAppService要素、broadcastotherService要素、及び、broadbandAppService要素は、上述したSPT(図9)のComponent要素のlocationType属性に指定されるタイプ情報と対応しており、SPTだけでなく、USDにおいても、コンポーネントの配信形態を識別することができる。
DeliveryMethod要素は、SessionDescriptonURI要素とFDD要素の上位要素となる。このDeliveryMethod要素とSessionDescriptonURI要素によって、SDPの参照先を指定することができる。
FDD(File Delivery Description)要素には、各FLUTEセッションの識別情報であるTSI(Transport Session Identifier)ごとのインデックス情報として、当該FLUTEセッションごとに送られる複数のオブジェクトの識別情報であるTOI(Transport Object Identifier)が記述される。
ここで、FLUTE(File Delivery over Unidirectional Transport)では、送信するファイルなどを1つのオブジェクトとして、TOIにより管理する。また、複数のオブジェクトの集合を1つのセッションとして、TSIにより管理する。すなわち、FLUTEセッションにおいては、TSIとTOIの2つの識別情報により特定のファイルを指定することが可能となる。なお、FDDの詳細は、図15を参照して後述する。
(FDDのシンタックス)
図15は、FDDのシンタックスを示す図である。
図15は、FDDのシンタックスを示す図である。
図15に示すように、StaticFDD要素は、tsi属性、objectDeliveryMode属性、oufOfOrderSending属性、contentEncoding属性、contentEncoding属性、byteRange属性、representationId属性、CodePoint要素、File要素、及び、FileTemplate要素の上位要素となる。
tsi属性には、TSIが指定される。objectDeliveryMode属性には、オブジェクトの配信モードが指定される。oufOfOrderSending属性には、配信に関する情報が指定される。contentEncoding属性には、コンテンツの符号化に関する情報が指定される。byteRange属性には、ファイルのバイトレンジに関する情報が指定される。
representationId属性には、リプレゼンテーションIDが指定される。例えば、このリプレゼンテーションIDは、FLUTEセッションが特定のコンポーネント(例えばビデオ)でのみ使用される場合に用いられる。また、このリプレゼンテーションIDにより、SCSの他のシグナリング情報(MPD,SDP,SDP)との間で、コンポーネントの対応をとることができる。CodePoint要素には、LCTヘッダに関する情報が指定される。
File要素は、contentLocation属性、TOI属性、contentEncoding属性、contentMD5属性、及び、representationId属性の上位要素となる。
contentLocation属性には、ファイルのURLが指定される。TOI属性には、TOIが指定される。contentEncoding属性には、コンテンツの符号化に関する情報が指定される。contentMD5属性には、MD5(Message Digest 5)に関する情報が指定される。
representationId属性には、リプレゼンテーションIDが指定される。例えば、このリプレゼンテーションIDは、1つのFLUTEセッションにビデオやオーディオのファイルが含まれていて、それらをファイル単位で区別する必要がある場合に用いられる。また、このリプレゼンテーションIDにより、SCSの他のシグナリング情報(MPD,SDP,SDP)との間で、コンポーネントの対応をとることができる。
FileTemplate要素は、startTOI属性及びendTOI属性の上位要素となる。startTOI属性には、TOIが時系列で変化する場合におけるTOIの開始値が指定される。また、endTOI属性には、TOIが時系列で変化する場合におけるTOIの終了値が指定される。すなわち、startTOI属性とendTOI属性を指定することで、TOIの開始値から終了値まで、その値が順次インクリメントされる。これにより、TOIが変化する度に、その都度、FDDを取得する必要がなくなることになる。
なお、上述したSCSのシグナリング情報(MPD,SPT,SDP,USD)のデータ構造は一例であって、他の構造を採用することもできる。
<3.第1の実施の形態>
(1)具体的な運用例
図16は、第1の実施の形態としての、サービス単位のFLUTEセッションを用いた場合の運用例(以下、「運用例1」という。)を示す図である。
図16は、第1の実施の形態としての、サービス単位のFLUTEセッションを用いた場合の運用例(以下、「運用例1」という。)を示す図である。
図16の運用例1では、放送(Broadcast)と通信(Broadband)の両方を利用して、ビデオやオーディオのコンポーネントが配信されている。この例では、メインのサービス(main)となるサービス1(Serice1)と、関連従属サービス(sub:Associated Service)となるサービス2(Service2)が放送を利用して配信され、オーディオ3(Audio3)が通信を利用して配信されている。なお、この運用例1の場合、サービス1を構成するビデオ1(Video1)とオーディオ1(Audio1)のコンポーネントは、インバンドとなり、サービス2を構成するオーディオ2(Audio2)のコンポーネントは、アウトバンドとなる。
サービス1(Serice1)は、例えばテレビ番組などであって、ビデオ1とオーディオ1から構成されるが、それらのコンポーネントは、同一のFLUTEセッションで伝送されている。また、サービス1用のSCSとして、MPD,SPT,SDP,USDが伝送されており、LLSとして伝送されるSCTのbootstrap情報を用い、取得される。
サービス1のFLUTEセッションでは、ビデオ1とオーディオ1のコンポーネントが伝送されているが、これらのコンポーネントのファイルは、セグメントごとに分割されており、各セグメントのファイルは、TOIにより指定される。
例えば、ビデオ1のセグメントには、USDのFDD要素のstartTOI属性として、"10"が指定されている。したがって、TOIの値を、"10"から順次、"11","12",・・・,nとインクリメントすることで、セグメントごとに時系列で変化するTOIを特定することができる。また、例えば、オーディオ1のセグメントには、startTOI属性として、"1010"が指定されている。したがって、TOIの値を、"1010"から順次、"1011","1012",・・・,mとインクリメントすることで、セグメントごとに時系列で変化するTOIを特定することができる。
サービス2のFLUTEセッションでは、オーディオ2のコンポーネントのみが伝送されている。また、サービス2用のSCSとして、SDPとUSDが伝送されている。サービス2のFLUTEセッションにおいて、オーディオ2のセグメントには、startTOI属性として、"10"が指定されており、TOIの値を、"10"から順次、"11","12",・・・,pとインクリメントすることで、セグメントごとに時系列で変化するTOIを特定することができる。
オーディオ3のコンポーネントは、インターネット上に設けられた配信サーバから、ストリーミング配信される。オーディオ3のコンポーネントは、例えば、Segment2010,Segment2011,Segment2012,・・・,Segment qなど、セグメントごとに分割されている。
ここで、図17を参照して、図16の運用例1における、SCSを用いた各コンポーネントのロケーションの解決の全体構造について説明する。
図17に示すように、サービス1のSPTには、サービスの構成要素として、各コンポーネントごとに、カテゴリ情報やロケーションのタイプ情報が指定されており、各コンポーネントの配信形態を特定することができる。
この運用例1では、ロケーションのタイプ情報として、ビデオ1とオーディオ1のコンポーネントには、"bca"が指定されており、当該コンポーネントは、インバンドで放送配信されていることを示す。また、オーディオ2のコンポーネントには、"bco"が指定されており、当該コンポーネントは、アウトバンドで放送配信されていることを示す。さらに、オーディオ3のコンポーネントには、"bb"が指定されており、当該コンポーネントは、通信で配信されていることを示す。
サービス1のMPDには、サービスの構成要素として、ビデオ1、オーディオ1、オーディオ2、オーディオ3の各コンポーネントのURLが記述されている。また、サービス1のSDPには、コンポーネントの構成情報やロケーション情報(例えばポート番号やTSI)などが記述されている。
例えば、サービス1が選択された場合、サービス1のSPTによって、ビデオ1とオーディオ1のコンポーネントが、インバンドで放送配信されていることを特定できるので、サービス1のUSDのFDD要素を参照して、ビデオ1のセグメントのstartTOI="10"と、オーディオ1のセグメントのstartTOI="1010"を取得することができる。そして、サービス1のSDPにより特定されるFLUTEセッションから、サービス1のUSDのFDD要素のstartTOIを開始値として時系列で変化するTOIにより指定されるセグメントを順次特定して、ビデオ1とオーディオ1のコンポーネントを取得することができる。
また、サービス1のSPTによって、オーディオ2のコンポーネントが、アウトバンドで放送配信されていることを特定でき、かつ、SPTに記述されたAssociated Service Descriptorによりサービス2で伝送されていることが認知できるので、サービス2もサービス1と同時に選局して、サービス2のUSDのFDD要素を参照して、オーディオ2のセグメントのstartTOI="10"を取得することができる。そして、サービス2のSDPにより特定されるFLUTEセッションから、サービス2のUSDのFDD要素のstartTOIを開始値として時系列で変化するTOIにより指定されるセグメントを順次特定して、オーディオ2のコンポーネントを取得することができる。
さらに、サービス1のSPTによって、オーディオ3のコンポーネントが、通信で配信されていることを特定できるので、サービス1のMPDに記述されたオーディオ3のURLに従い、配信サーバ(Server)にアクセスすることで、配信サーバからストリーミング配信される、オーディオ3のコンポーネントを取得することができる。
なお、サービス1とサービス2は、SCTにおいて、サービスごとに指定されるservice_typeなどにより区別される。ロケーションのタイプ情報は、SPTに限らず、USDを参照して特定するようにしてもよい。
(2)SCSの記述例
次に、図18乃至図22を参照して、図16の運用例1を実現するためのSCSの記述例を示す。なお、ここでは、サービス1を構成するビデオ1とオーディオ1のコンポーネントが、同一のFLUTEセッションで伝送されている運用例1(図16)において、サービス1が選択された場合を代表して説明するものとする。
次に、図18乃至図22を参照して、図16の運用例1を実現するためのSCSの記述例を示す。なお、ここでは、サービス1を構成するビデオ1とオーディオ1のコンポーネントが、同一のFLUTEセッションで伝送されている運用例1(図16)において、サービス1が選択された場合を代表して説明するものとする。
(MPDの記述例)
図18は、図17のMPDの記述例を示す図である。なお、MPDはXMLで記述されるので、実際の記述は本記述例と異なるが、XMLの要素の階層構造と属性を表現して記述する。
図18は、図17のMPDの記述例を示す図である。なお、MPDはXMLで記述されるので、実際の記述は本記述例と異なるが、XMLの要素の階層構造と属性を表現して記述する。
図18に示すように、MPDには、サービスの構成要素として、各コンポーネントのリプレゼンテーションIDと、URL(BaseURL)が記述されている。
具体的には、ビデオ1には、BaseURLとして"Video1"が指定されており、配信サーバのURL("http://10.1.200.10/")と、"Video1"を結合させて得られる文字列("http://10.1.200.10/Video1")が、セグメントURLとされる。
同様に、オーディオ1には、BaseURLとして"Audio1"が指定されており、セグメントURLは、"http://10.1.200.10/Audio1"となる。また、オーディオ2には、BaseURLとして"Audio2"が指定されており、セグメントURLは、"http://10.1.200.10/Audio2"となる。さらに、オーディオ3には、BaseURLとして"Audio3"が指定されており、セグメントURLは、"http://10.1.200.10/Audio3"となる。
(SDPの記述例)
図19は、図17のSDPの記述例を示す図である。
図19は、図17のSDPの記述例を示す図である。
図19において、メディア記述部の"m=application"の行によって、ビデオ1とオーディオ1のコンポーネントを伝送するFLUTEセッションのポート番号が"67890"であることを示している。
また、"a=flute-tsi:3"によって、当該FLUTEセッションのTSIが"3"であることを示している。さらに、"a=representation-id"によって、当該FLUTEセッションで伝送されるビデオ1とオーディオ1のコンポーネントのリプレゼンテーションIDが指定される。このSDPの記述例では、リプレゼンテーションIDとして、ビデオ1のコンポーネントには"23"が指定され、オーディオ1のコンポーネントには"45"が指定されている。
なお、図20に示すように、複数のコンポーネントのリプレゼンテーションIDのうち、特定のコンポーネントのリプレゼンテーションIDのみを代表して記述するようにしてもよい。このSDPの記述例では、"23"であるビデオ1のコンポーネントのリプレゼンテーションIDが代表して記述されている。
(USDの構造例)
図21は、図17のUSDの構造例を示す図である。
図21は、図17のUSDの構造例を示す図である。
図16の運用例1におけるサービス1では、当該サービス1を構成するビデオ1とオーディオ1のコンポーネントが、同一のFLUTEセッションで伝送されているため、USDには、1つのFDDのみが記述されている。
図21に示すように、USDでは、appService要素とappServiceDescriptionURI要素によって、MPD(図18)が参照される。当該MPDには、ビデオ1のコンポーネントのリプレゼンテーションID及びBaseURL("Video1")と、オーディオ1のコンポーネントのリプレゼンテーションID及びBaseURL("Audio1")が記述されている。ただし、図21のMPDでは、オーディオ2とオーディオ3のコンポーネントのリプレゼンテーションIDとBaseURLの記述は省略している。
そして、MPDの各コンポーネントのBaseURL(セグメントURL)と、USDのFDD要素のcontentLocation属性をマッチングすることで、ビデオ1のセグメントのstartTOI="10"と、オーディオ1のセグメントのstartTOI="1010"をそれぞれ取得することができる。なお、当該マッチングの際には、BaseURLやcontentLocation属性などのロケーション情報の代わりに、MPDの各コンポーネントのリプレゼンテーションIDと、USDのFDD要素のリプレゼンテーションIDを用い、マッチングを行ってもよい。
以上のように、例えば、図16の運用例1におけるサービス1のビデオ1とオーディオ1のように、特定のサービスを構成する複数のコンポーネントが、同一のFLUTEセッションで伝送されている場合、SCSの各シグナリング情報が連携することで、コンポーネントのロケーションを解決して、特定のコンポーネントを取得することが可能となる。
すなわち、図22に示すように、各シグナリング情報(MPD,SPT,SDP,USD(FDD))には、それぞれ、インバンドとアウトバンドを含めて、特定のコンポーネントを共通に同定するためのリプレゼンテーションIDが設定されており、このリプレゼンテーションIDを用いて、各シグナリング情報を参照し合うことができる。また、MPDのセグメントURL(BaseURL)と、USD(FDD)のcontent_locationは対応しているため、それらのロケーション情報を互いに参照し合うこともできる。
例えば、ビデオ1のコンポーネントのロケーションを特定する際には、MPDのセグメントURL(BaseURL)と、USD(FDD)のcontent_locationをマッチングすることで、ビデオ1のセグメントのstartTOIを取得することができる。そして、SDPのポート番号(port_num)とTSIにより特定されるFLUTEセッションから、startTOIを開始値として時系列で変化するTOIにより指定されるセグメントを順次特定することで、ビデオ1のコンポーネントを取得することができる。
なお、図16の運用例1では、サブリプレゼンテーションレベル(sub representation level)は必要ないため、MPDとSPTにおいてその記述を省略している。また、上述したように、同一のサービスであれば、同一のIPアドレスとなるため、SDPにおいて、ポート番号(port_num)とTSIのほかに、あえてIPアドレス(IP_address)を指定するかどうかは任意である。
(3)セグメントの構成例
図23は、図16の運用例1のFLUTEセッションにおける各セグメントの構成例を示す図である。なお、FLUTEセッションの各セグメントは、ISO/IEC 14496-12で規定されているISOベースメディアファイルフォーマット(ISO Base Media File Format)により構成されている。
図23は、図16の運用例1のFLUTEセッションにおける各セグメントの構成例を示す図である。なお、FLUTEセッションの各セグメントは、ISO/IEC 14496-12で規定されているISOベースメディアファイルフォーマット(ISO Base Media File Format)により構成されている。
図16の運用例1では、ビデオ1(Video1)とオーディオ1(Audio1)のファイルが異なるセグメントで伝送されているため、図23においては、ビデオ1のセグメントと、オーディオ1のセグメントを別々に図示している。
ビデオ1のセグメントは、イニシャライゼイションセグメント(Initialization Segment)とメディアセグメント(Media Segment)から構成される。イニシャライゼイションセグメントは、データ圧縮方式などの初期化情報を含んでいる。また、メディアセグメントは、ビデオ1のコンポーネントを格納している。
イニシャライゼイションセグメントは、ftyp,moovから構成される。ftyp(file type box)は、ファイルが準拠するファイルフォーマット仕様のバージョンを示す。moov(movie box)には、全体の制御情報が含まれる。
メディアセグメントは、styp,sidx,ssix,moof,mdatから構成される。styp(segment type box)は、セグメント単位のファイルのファイルフォーマット仕様のバージョンを示す。sidx(segment index box)は、セグメント内のインデックス情報を示す。ssix(subsegment index box)は、セグメント内の各サブセグメント(レベル)ごとのインデックス情報を示す。
moof(movie fragment box)は、フラグメントの制御情報を示す。また、moofには、trafが含まれる。traf(track fragment box)は、トラック単位の制御情報を示す。この例では、trafには、ビデオ1のトラック単位の制御情報が配置される。mdat(media data box)は、フラグメントのメディアデータ本体を示す。この例では、mdatには、ビデオ1のデータ(ファイル)が配置される。
オーディオ1のセグメントは、基本的にビデオ1のセグメントと同様に構成されるが、メディアセグメントがオーディオ1のセグメントとなるため、moofのtrafには、オーディオ1のトラック単位の制御情報が配置され、mdatには、オーディオ1のデータ(ファイル)が配置される。
また、図23には、上述したビデオ1とオーディオ1の各セグメントの構成に対応したMPDの記述例が示されている。このMPDの記述例に示すように、ビデオ1とオーディオ1のRepresentation要素には、Initialization Segment URLと、複数のEach Media Segments URLが記述されている。Initialization Segment URLには、イニシャライゼイションセグメントを特定するためのURLが記述されている。また、Each Media Segments URLには、各メディアセグメントを特定するためのURLが記述されている。このようなMPDを用いることで、同一のFLUTEセッションで伝送されるビデオ1のセグメントと、オーディオ1のセグメントを順次取得することができる。
<4.第2の実施の形態>
(1)具体的な運用例
図24は、第2の実施の形態としての、コンポーネント単位のFLUTEセッションを用いた場合の運用例(以下、「運用例2」という。)を示す図である。
図24は、第2の実施の形態としての、コンポーネント単位のFLUTEセッションを用いた場合の運用例(以下、「運用例2」という。)を示す図である。
図24の運用例2では、放送と通信の両方を利用して、ビデオやオーディオのコンポーネントが配信されている。この例では、メインのサービスとなるサービス1と、関連従属サービスとなるサービス2が放送を利用して配信され、オーディオ3が通信を利用して配信されている。なお、この運用例2の場合、サービス1を構成するビデオ1とオーディオ1のコンポーネントは、インバンドとなり、サービス2を構成するオーディオ2のコンポーネントは、アウトバンドとなる。
サービス1は、例えばテレビ番組などであって、ビデオ1とオーディオ1から構成されるが、それらのコンポーネントは、異なるFLUTEセッションで伝送されている。また、サービス1用のSCSとして、MPD,SPT,SDP,USDが伝送されており、LLSとして伝送されるSCTのbootstrap情報を用い、取得される。
サービス1のFLUTEセッションのうち、ビデオ1のFLUTEセッションでは、ビデオ1のコンポーネントが伝送されるが、当該コンポーネントは、セグメントごとに分割されており、各セグメントのファイルは、TOIにより指定される。例えば、ビデオ1のセグメントには、USDのFDD要素のstartTOI属性として、"10"が指定されており、TOIの値を、"10"から順次、"11","12",・・・,nとインクリメントすることで、セグメントごとに時系列で変化するTOIを特定することができる。
また、サービス1のFLUTEセッションのうち、オーディオ2のFLUTEセッションでは、オーディオ1のコンポーネントが伝送されるが、当該コンポーネントは、セグメントごとに分割されており、各セグメントのファイルは、TOIにより指定される。例えば、オーディオ1のセグメントには、USDのFDD要素のstartTOI属性として、"10"が指定されており、TOIの値を、"10"から順次、"11","12",・・・,mとインクリメントすることで、セグメントごとに時系列で変化するTOIを特定することができる。
サービス2のFLUTEセッションでは、オーディオ2のコンポーネントのみが伝送されている。また、サービス2用のSCSとして、SDPとUSDが伝送されている。例えば、サービス2のFLUTEセッションにおいて、オーディオ2のセグメントには、startTOI属性として、"10"が指定されており、TOIの値を、"10"から順次、"11","12",・・・,pとインクリメントすることで、セグメントごとに時系列で変化するTOIを特定することができる。
オーディオ3のコンポーネントは、インターネット上に設けられた配信サーバから、ストリーミング配信される。オーディオ3のコンポーネントは、例えば、Segment2010,Segment2011,Segment2012,・・・,Segment qなど、セグメントごとに分割されている。
ここで、図25を参照して、図24の運用例2における、SCSを用いた各コンポーネントのロケーションの解決の全体構造について説明する。
図25に示すように、サービス1のSPTには、サービスの構成要素として、各コンポーネントごとに、カテゴリ情報やロケーションのタイプ情報が指定されており、コンポーネントの配信形態を特定することができる。
この運用例2では、ロケーションのタイプ情報として、ビデオ1とオーディオ1のコンポーネントには、"bca"が指定されており、当該コンポーネントは、インバンドで放送配信されていることを示す。また、オーディオ2のコンポーネントには、"bco"が指定されており、当該コンポーネントは、アウトバンドで放送配信されていることを示す。さらに、オーディオ3のコンポーネントには、"bb"が指定されており、当該コンポーネントは、通信で配信されていることを示す。
ここで、この運用例2では、コンポーネントごとにFLUTEセッションが異なっている、すなわち、ビデオ1のコンポーネントと、オーディオ1のコンポーネントは、異なるFLUTEセッションで伝送されているため、サービス1が選択された場合には、各FLUTEセッションで伝送されているセグメントのすべてを順次取得することで、ビデオ1のコンポーネントと、オーディオ1のコンポーネントを取得することができる。この場合、図中のSPTとSDPの"Video1"と"Audio1"からの実線で示すように、各FLUTEセッションは、サービス1のSDP(ポート番号とTSI)により特定されるが、すべてのセグメントを取得するため、TOIを用いる必要はない。
なお、上述した説明では、TOIを用いずに、ビデオ1とオーディオ1のコンポーネントを取得する方法を説明したが、図中のSPT,MPD,USDの"Video1"と"Audio1"からの点線で示すように、TOIを用いるようにしてもよい。
具体的には、サービス1のMPDには、サービスの構成要素として、ビデオ1、オーディオ1、オーディオ2、オーディオ3の各コンポーネントのURLが記述されている。また、サービス1のSPTによって、ビデオ1とオーディオ1のコンポーネントが、インバンドで放送配信されていることを特定できるので、サービス1のUSDのFDD要素を参照して、ビデオ1のセグメントのstartTOI="10"と、オーディオ1のセグメントのstartTOI="10"を取得することができる。
そして、サービス1のSDPにより特定されるFLUTEセッションから、サービス1のUSDのFDD要素のstartTOIを開始値として時系列で変化するTOIにより指定されるセグメントを順次特定して、ビデオ1とオーディオ1のコンポーネントを取得することができる。
ただし、FDDは、FLUTEセッションごとに用意されているので、ビデオ1のセグメントのstartTOI="10"は、ビデオ1のFLUTEセッション用のFDDから取得され、オーディオ1のセグメントのstartTOI="10"は、オーディオ1のFLUTEセッション用のFDDから取得される。また、MPDとUSD(FDD)のマッチングは、リプレゼンテーションIDやロケーション情報を用いて行うことができる。
また、サービス2のFLUTEセッションで伝送されているのが、オーディオ2のコンポーネントのみとなるため、当該FLUTEセッションで伝送されているセグメントのすべてを順次取得することで、オーディオ2のコンポーネントを取得することができる。この場合、図中のサービス1のSPTの"Audio2"と、サービス2のSDPの"Audio2"からの実線で示すように、FLUTEセッションは、サービス2のSDP(ポート番号とTSI)により特定されるが、すべてのセグメントを取得するため、TOIを用いる必要はない。
なお、上述した説明では、TOIを用いずに、オーディオ2のコンポーネントを取得する方法を説明したが、図中のサービス1のMPDの"Audio2"と、サービス2のUSDの"Audio2"からの点線で示すように、TOIを用いるようにしてもよい。
具体的には、サービス1のMPDには、サービスの構成要素として、ビデオ1、オーディオ1、オーディオ2、オーディオ3の各コンポーネントのURLが記述されている。また、サービス1のSPTによって、オーディオ2のコンポーネントが、アウトバンドで放送配信されていることを特定できるので、サービス2のUSDのFDD要素を参照して、オーディオ2のセグメントのstartTOI="10"を取得することができる。そして、サービス2のSDPにより特定されるFLUTEセッションから、サービス2のUSDのFDD要素のstartTOIを開始値として時系列で変化するTOIにより指定されるセグメントを順次特定して、オーディオ2のコンポーネントを取得することができる。
さらに、サービス1のSPTによって、オーディオ3のコンポーネントが、通信で配信されていることを特定できるので、サービス1のMPDに記述されたオーディオ3のURLに従い、配信サーバ(Server)にアクセスすることで、配信サーバからストリーミング配信される、オーディオ3のコンポーネントを取得することができる。
(2)SCSの記述例
次に、図26乃至図28を参照して、図24の運用例2を実現するためのSCSの記述例を示す。なお、ここでは、サービス1を構成するビデオ1とオーディオ1のコンポーネントが、異なるFLUTEセッションで伝送されている運用例2(図24)において、サービス1が選択された場合を代表して説明するものとする。
次に、図26乃至図28を参照して、図24の運用例2を実現するためのSCSの記述例を示す。なお、ここでは、サービス1を構成するビデオ1とオーディオ1のコンポーネントが、異なるFLUTEセッションで伝送されている運用例2(図24)において、サービス1が選択された場合を代表して説明するものとする。
(MPDの記述例)
図24の運用例2において、MPDの記述は、上述した図16の運用例1のMPDの記述と同様となるため、その説明は省略する。
図24の運用例2において、MPDの記述は、上述した図16の運用例1のMPDの記述と同様となるため、その説明は省略する。
(SDPの記述例)
図26は、図25のSDPの記述例を示す図である。
図26は、図25のSDPの記述例を示す図である。
図26において、メディア記述部の1つ目の"m=application"の行によって、ビデオ1を伝送するFLUTEセッションのポート番号が"67890"であることを示している。また、"a=flute-tsi:3"によって、当該FLUTEセッションのTSIが"3"であることを示している。さらに、"a=representation-id:23"によって、当該FLUTEセッションで伝送されるビデオ1のリプレゼンテーションIDが"23"であることを示している。
メディア記述部の2つ目の"m=application"の行によって、オーディオ1を伝送するFLUTEセッションのポート番号が"12345"であることを示している。また、"a=flute-tsi:5"によって、当該FLUTEセッションのTSIが"5"であることを示している。さらに、"a=representation-id:45"によって、当該FLUTEセッションで伝送されるオーディオ1のリプレゼンテーションIDが"45"であることを示している。
(USDの構造例)
図27は、図25のUSDの構造例を示す図である。
図27は、図25のUSDの構造例を示す図である。
図24の運用例2におけるサービス1では、当該サービス1を構成するビデオ1とオーディオ1のコンポーネントが、異なるFLUTEセッション、すなわち、ビデオ1のFLUTEセッションと、オーディオ1のFLUTEセッションの2つのFLUTEセッションが存在するため、USDには、FLUTEセッションごとに2つのFDDが記述されている。
図27に示すように、USDでは、appService要素とappServiceDescriptionURI要素によって、MPD(図18)が参照される。当該MPDには、ビデオ1のコンポーネントのリプレゼンテーションID("23")及びBaseURL("Video1")と、オーディオ1のコンポーネントのリプレゼンテーションID("45")及びBaseURL("Audio1")が記述されている。
そして、MPDのビデオ1のコンポーネントのBaseURL(セグメントURL)と、USDのビデオ1のFLUTEセッション用のFDDのcontentLocation属性をマッチングすることで、ビデオ1のセグメントのstartTOI="10"が取得される。また、MPDのオーディオ1のコンポーネントのBaseURL(セグメントURL)と、USDのオーディオ1のFLUTEセッション用のFDDのcontentLocation属性をマッチングすることで、オーディオ1のセグメントのstartTOI="10"が取得される。
なお、当該マッチングの際には、BaseURLやcontentLocation属性などのロケーション情報の代わりに、MPDの各コンポーネントのリプレゼンテーションIDと、各FDDのリプレゼンテーションIDを用い、マッチングを行ってもよい。
以上のように、例えば、図24の運用例2におけるサービス1のビデオ1とオーディオ1のように、特定のサービスを構成する複数のコンポーネントが、異なるFLUTEセッションで伝送されている場合、SCSの各シグナリング情報が連携することで、コンポーネントのロケーションを解決して、特定のコンポーネントを取得することが可能となる。
すなわち、図28に示すように、各シグナリング情報(MPD,SPT,SDP,USD(FDD))には、それぞれ、インバンドとアウトバンドを含めて、特定のコンポーネントを共通に同定するためのリプレゼンテーションIDが設定されており、このリプレゼンテーションIDを用いて、各シグナリング情報を参照し合うことができる。また、MPDのセグメントURL(BaseURL)と、USD(FDD)のcontent_locationは対応しているため、それらのロケーション情報を互いに参照し合うこともできる。
例えば、ビデオ1のコンポーネントのロケーションを特定する際には、MPDのセグメントURL(BaseURL)と、USD(FDD)のcontent_locationをマッチングすることで、ビデオ1のセグメントのstartTOIを取得することができる。そして、SDPのポート番号(port_num)とTSIにより特定されるFLUTEセッションから、startTOIを開始値として時系列で変化するTOIにより指定されるセグメントを順次特定することで、ビデオ1のコンポーネントを取得することができる。
なお、図24の運用例2では、サブリプレゼンテーションレベル(sub representation level)は必要ないため、MPDとSPTにおいてその記述を省略している。
(3)セグメントの構成例
図24の運用例2のFLUTEセッションにおける各セグメントの構成は、図23を参照して説明した図16の運用例1における各セグメント構成と同様であるため、その説明は省略する。
図24の運用例2のFLUTEセッションにおける各セグメントの構成は、図23を参照して説明した図16の運用例1における各セグメント構成と同様であるため、その説明は省略する。
<5.第3の実施の形態>
(1)具体的な運用例
図29は、第3の実施の形態としての、1つのセグメントに複数のコンポーネントが含まれる場合の運用例(以下、「運用例3」という。)を示す図である。
図29は、第3の実施の形態としての、1つのセグメントに複数のコンポーネントが含まれる場合の運用例(以下、「運用例3」という。)を示す図である。
図29の運用例3では、放送と通信の両方を利用して、ビデオやオーディオのコンポーネントが配信されている。この例では、メインのサービスとなるサービス1と、関連従属サービスとなるサービス2が放送を利用して配信され、オーディオ3が通信を利用して配信されている。
サービス1は、例えばテレビ番組などであって、ビデオ1とオーディオ1から構成されるが、ビデオ1のコンポーネントと、オーディオ1のコンポーネントが、1つのセグメントにマージされている。なお、以下、1つのセグメントに含まれるビデオ1とオーディオ1のことを、「ビデオ・オーディオ1」とも記述する。また、サービス1用のSCSとして、MPD,SPT,SDP,USDが伝送されており、LLSとして伝送されるSCTのbootstrap情報を用い、取得される。
サービス1のFLUTEセッションでは、ビデオ1とオーディオ1のファイルがマージされて、セグメントごとに分割されて伝送されているが、各セグメントのファイルは、TOIにより指定される。例えば、ビデオ1とオーディオ1がマージされたセグメントには、USDのFDD要素のstartTOI属性として、"10"が指定されている。したがって、TOIの値を、"10"から順次、"11","12",・・・,nとインクリメントすることで、セグメントごとに時系列で変化するTOIを特定することができる。
サービス2のFLUTEセッションでは、オーディオ2のコンポーネントのみが伝送されている。また、サービス2用のSCSとして、SDPとUSDが伝送されている。サービス2のFLUTEセッションにおいて、オーディオ2のセグメントには、startTOI属性として、"10"が指定されており、TOIの値を、"10"から順次、"11","12",・・・,pとインクリメントすることで、セグメントごとに時系列で変化するTOIを特定することができる。
オーディオ3のコンポーネントは、インターネット上に設けられた配信サーバから、ストリーミング配信される。オーディオ3のコンポーネントは、例えば、Segment2010,Segment2011,Segment2012,・・・,Segment qなど、セグメントごとに分割されている。
ここで、図30を参照して、図29の運用例3における、SCSを用いた各コンポーネントのロケーションの解決の全体構造について説明する。
図30に示すように、サービス1のSPTには、サービスの構成要素として、各コンポーネントごとに、カテゴリ情報やロケーションのタイプ情報が指定されており、コンポーネントの配信先を特定することができる。また、サービス1のSPTには、サブリプレゼンテーションレベル(sub representation level)が指定されており、1つのセグメントに複数のコンポーネントが含まれる場合に、各コンポーネントを識別することができる。
この運用例3では、ロケーションのタイプ情報として、ビデオ・オーディオ1のコンポーネントには、"bca"が指定されており、当該コンポーネントは、インバンドで放送配信されていることを示す。また、オーディオ2のコンポーネントには、"bco"が指定されており、当該コンポーネントは、アウトバンドで放送配信されていることを示す。さらに、オーディオ3のコンポーネントには、"bb"が指定されており、当該コンポーネントは、通信で配信されていることを示す。なお、サービス1のSPTには、サブリプレゼンテーションレベルとして、ビデオ1に"level=1"、オーディオ1に"level=2"がそれぞれ指定されている。
サービス1のMPDには、サービスの構成要素として、ビデオ・オーディオ1、オーディオ2、オーディオ3の各コンポーネントのURLが記述されている。また、サービス1のMPDには、サブリプレゼンテーションレベルとして、ビデオ1に"level=1"、オーディオ1に"level=2"がそれぞれ指定されている。サービス1のSDPには、コンポーネントの構成情報やロケーション情報(例えばポート番号やTSI)などが記述されている。
例えば、サービス1が選択された場合、サービス1のSPTによって、ビデオ・オーディオ1のコンポーネントが、インバンドで放送配信されていることを特定できるので、サービス1のUSDのFDD要素を参照して、ビデオ・オーディオ1のセグメントのstartTOI="10"を取得することができる。また、サービス1のSPTとMPDのサブリプレゼンテーションレベルを用い、ビデオ・オーディオ1のセグメントの中から、ビデオ1とオーディオ1のコンポーネントを識別することができる。
そして、サービス1のSDPにより特定されるFLUTEセッションから、サービス1のUSDのFDD要素のstartTOIを開始値として時系列で変化するTOIにより指定されるセグメントを順次特定して、ビデオ1とオーディオ1のコンポーネントを取得することができる。
また、サービス1のSPTによって、オーディオ2のコンポーネントが、アウトバンドで放送配信されていることを特定され、かつSPTに記述されたAssociated Service Descriptorによりサービス2で伝送されていることが認知できるので、サービス2もサービス1と同時に選局して、サービス2のUSDのFDD要素を参照して、オーディオ2のセグメントのstartTOI="10"を取得することができる。そして、サービス2のSDPにより特定されるFLUTEセッションから、サービス2のUSDのFDD要素のstartTOIを開始値として時系列で変化するTOIにより指定されるセグメントを順次特定して、オーディオ2のコンポーネントを取得することができる。
さらに、サービス1のSPTによって、オーディオ3のコンポーネントが、通信で配信されていることを特定できるので、サービス1のMPDに記述されたオーディオ3のURLに従い、配信サーバ(Server)にアクセスすることで、配信サーバからストリーミング配信される、オーディオ3のコンポーネントを取得することができる。
(2)SCSの記述例
次に、図31乃至図34を参照して、図29の運用例3を実現するためのSCSの記述例を示す。なお、ここでは、サービス1を構成するビデオ1とオーディオ1の両方のコンポーネントを含むセグメントが、FLUTEセッションで伝送されている運用例3(図29)において、サービス1が選択された場合を代表して説明するものとする。
次に、図31乃至図34を参照して、図29の運用例3を実現するためのSCSの記述例を示す。なお、ここでは、サービス1を構成するビデオ1とオーディオ1の両方のコンポーネントを含むセグメントが、FLUTEセッションで伝送されている運用例3(図29)において、サービス1が選択された場合を代表して説明するものとする。
(MPDの記述例)
図31は、図30のMPDの記述例を示す図である。
図31は、図30のMPDの記述例を示す図である。
図31に示すように、サービスの構成要素として、各コンポーネントのリプレゼンテーションIDと、URL(BaseURL)が記述されている。ただし、BaseURLとして"VA1"が指定されているビデオ・オーディオ1は、ビデオ1とオーディオ1のコンポーネントが、1つのセグメントに含まれているため、サブリプレゼンテーションレベルを指定して、ビデオ1とオーディオ1のコンポーネントを識別することができるようにしている。
この記述例では、サブリプレゼンテーションレベルとして、ビデオ1に"level=1"、オーディオ1に"level=2"がそれぞれ指定されている。なお、詳細は後述するが、サブリプレゼンテーションレベルが、どのコンポーネントに対するものであるかは、ContentComponent要素のcontentType属性により指定される。
(SDPの記述例)
図32は、図30のSDPの記述例を示す図である。
図32は、図30のSDPの記述例を示す図である。
図32において、メディア記述部の"m=application"の行によって、ビデオ・オーディオ1のコンポーネントを伝送するFLUTEセッションのポート番号が"67890"であることを示している。また、"a=flute-tsi:3"によって、当該FLUTEセッションのTSIが"3"であることを示している。さらに、"a=representation-id:23"によって、当該FLUTEセッションで伝送されるビデオ・オーディオ1のコンポーネントのリプレゼンテーションIDが"23"であることを示している。
(USDの構造例)
図33は、図30のUSDの構造例を示す図である。
図33は、図30のUSDの構造例を示す図である。
図29の運用例3におけるサービス1では、ビデオ・オーディオ1が1つのセグメントに含められ、同一のFLUTEセッションで伝送されているため、USDには、1つのFDDのみが記述されている。
図33に示すように、USDでは、appService要素とappServiceDescriptionURI要素によって、MPD(図31)が参照される。当該MPDには、ビデオ・オーディオ1のリプレゼンテーションIDとBaseURL("VA1")のほか、ビデオ1とオーディオ1のサブリプレゼンテーションレベルが記述されている。
そして、MPDのビデオ・オーディオ1のBaseURL(セグメントURL)と、USDのFDD要素のcontentLocation属性をマッチングすることで、ビデオ・オーディオ1のセグメントのstartTOI="10"を取得することができる。なお、当該マッチングの際には、BaseURLやcontentLocation属性などのロケーション情報の代わりに、MPDのリプレゼンテーションIDと、USDのFDD要素のリプレゼンテーションIDを用い、マッチングを行ってもよい。
以上のように、例えば、図29の運用例3におけるサービス1のビデオ・オーディオ1のように、1つのセグメントに複数のコンポーネントが含まれる場合に、SCSの各シグナリング情報が連携することで、コンポーネントのロケーションを解決して、特定のコンポーネントを取得することが可能となる。
すなわち、図34に示すように、各シグナリング情報(MPD,SPT,SDP,USD(FDD))には、それぞれ、インバンドとアウトバンドを含めて、特定のコンポーネントを共通に同定するためのリプレゼンテーションIDが設定されており、このリプレゼンテーションIDを用いて、各シグナリング情報を参照し合うことができる。
また、MPDのセグメントURL(BaseURL)と、USD(FDD)のcontent_locationは対応しているため、それらのロケーション情報を互いに参照し合うこともできる。例えば、ビデオ・オーディオ1のコンポーネントのロケーションを特定する際には、MPDのセグメントURL(BaseURL)と、USD(FDD)のcontent_locationをマッチングすることで、ビデオ・オーディオ1のセグメントのstartTOIを取得することができる。そして、SDPのポート番号(port_num)とTSIにより特定されるFLUTEセッションから、startTOIを開始値として時系列で変化するTOIにより指定されるセグメントを順次特定することで、ビデオ1とオーディオ1のコンポーネントを取得することができる。
さらに、図29の運用例3では、ビデオ・オーディオ1が1つのセグメントに含められ、同一のFLUTEセッションで伝送されているため、SPTとMPDのサブリプレゼンテーションレベル(sub representation level)を用い、ビデオ・オーディオ1のセグメントの中から、ビデオ1とオーディオ1のコンポーネントを識別することができる。
(3)セグメントの構成例
図35は、図29の運用例3のFLUTEセッションにおける各セグメントの構成例を示す図である。なお、FLUTEセッションの各セグメントは、ISO/IEC 14496-12で規定されているISOベースメディアファイルフォーマット(ISO Base Media File Format)により構成されている。
図35は、図29の運用例3のFLUTEセッションにおける各セグメントの構成例を示す図である。なお、FLUTEセッションの各セグメントは、ISO/IEC 14496-12で規定されているISOベースメディアファイルフォーマット(ISO Base Media File Format)により構成されている。
図29の運用例3では、ビデオ1(Video1)とオーディオ1(Audio1)が1つのセグメントに含められ、同一のFLUTEセッションで伝送されているため、図35においては、ビデオ・オーディオ1(Video1 + Audio1)のセグメントのみを図示している。
ビデオ・オーディオ1のセグメントは、イニシャライゼイションセグメント(Initialization Segment)とメディアセグメント(Media Segment)から構成される。イニシャライゼイションセグメントは、データ圧縮方式などの初期化情報を含んでいる。また、メディアセグメントは、ビデオ1又はオーディオ1のコンポーネントを格納している。
イニシャライゼイションセグメントは、ftyp,moovから構成される。moovには、levaが含まれる。leva(level assigment box)は、レベルとトラックのマッピング情報を示す。この例では、メディアセグメントのmoofのtrafのtrack idと、MPDの各コンポーネントのサブリプレゼンテーションレベル(level)のマッチング情報が記述されている。
メディアセグメントは、styp,sidx,ssix,moof,mdatから構成される。styp,sidx,ssixは、ヘッダ情報である。moofは、フラグメントの制御情報を示す。また、moofには、trafが含まれる。trafは、トラック単位の制御情報を示す。mdatは、フラグメントのメディアデータ本体を示す。
この例では、trafに、ビデオ1の制御情報が配置された場合、mdatには、ビデオ1のデータ(ファイル)が配置される。この場合、当該trafには、track id="1"が指定される。一方、trafに、オーディオ1の制御情報が配置された場合、mdatには、オーディオ1のデータ(ファイル)が配置される。この場合、当該trafには、track id="2"が指定される。すなわち、図35のセグメントの構成においては、ビデオ1とオーディオ1のデータ(ファイル)は独立していることになる。
また、図35には、上述したビデオ・オーディオ1の各セグメント構成に対応したMPDの記述例が示されている。このMPDの記述例に示すように、ビデオ・オーディオ1のRepresentation要素には、Initialization Segment URLと、複数のEach Media Segments URLのほかに、1つのセグメントに含められたコンポーネントごとに、SubRepresentation要素として、level属性とcontentcomponent属性が記述されている。また、ContentComponent要素には、id属性とcontentType属性が記述されている。
すなわち、SubRepresentation要素のcontentcomponent属性に指定されるIDと、ContentComponent要素のid属性に指定されるIDは、関連付けられており、contentType属性により指定されるタイプ情報(例えば、ビデオやオーディオ)によって、SubRepresentation要素ごとのコンポーネントの種別が特定される。この例では、level="1"は、ビデオ1のサブリプレゼンテーションレベルを示し、level="2"は、オーディオ1のサブリプレゼンテーションレベルを示している。
そして、Initialization Segment URLにより特定されるイニシャライゼイションセグメントには、moovのlevaに、track idとlevelのマッチング情報が記述されているので、当該マッチング情報を用い、ビデオ1のlevel="1"とtrack id="1"、オーディオ1のlevel="2"とtrack id="2"がそれぞれ対応していることになる。これにより、Each Media Segments URLにより特定されるメディアセグメントに格納されるビデオ1とオーディオ1のデータ(ファイル)を識別することができる。
このように、ビデオ1とオーディオ1が1つのセグメントに含められ、同一のFLUTEセッションで伝送されている場合であって、ビデオ1とオーディオ1のデータ(ファイル)が独立しているとき、メディアセグメントに格納されるビデオ1とオーディオ1を識別して、それらのデータを取得することができる。
ところで、図35のセグメントの構成例では、ビデオ1とオーディオ1のデータ(ファイル)を多重化(マージ)するに際して、ビデオ1とオーディオ1のデータ(ファイル)が独立している場合について説明したが、1つのファイルの中でビデオ1とオーディオ1のデータがマージされている場合が想定される。そこで、次に、図36を参照して、1つのファイルの中でビデオ1とオーディオ1のデータがマージされている場合のセグメントの構成について説明する。
図36は、図29の運用例3のFLUTEセッションにおける各セグメントの他の構成例を示す図である。
図29の運用例3では、ビデオ1(Video1)とオーディオ1(Audio1)が1つのセグメントに含められ、同一のFLUTEセッションで伝送されているため、図36においては、ビデオ・オーディオ1(Video1 + Audio1)のセグメントのみを図示している。
イニシャライゼイションセグメントは、ftyp,moovから構成される。moovには、levaが含まれる。levaには、メディアセグメントのmoofのtrafのtrack idと、MPDの各コンポーネントのサブリプレゼンテーションレベル(level)のマッチング情報が記述されている。
メディアセグメントにおいて、moofのtrafには、ビデオ1の制御情報と、オーディオ1の制御情報が配置される。この場合に、ビデオ1のtrafには、track id="1"が指定され、オーディオ1のtrafには、track id="2"が指定される。また、mdatには、ビデオ1のデータとオーディオ1のデータが配置される。すなわち、図36のセグメントの構成においては、1つのファイルの中でビデオ1とオーディオ1のデータがマージされていることになる。
また、図36には、上述したビデオ・オーディオ1のセグメント構成に対応したMPDの記述例が示されているが、その内容は、図35のMPDと同様であるため、その説明は省略する。
すなわち、Initialization Segment URLにより特定されるイニシャライゼイションセグメントには、moovのlevaに、track idとlevelのマッチング情報が記述されているので、当該マッチング情報を用い、ビデオ1のlevel="1"とtrack id="1"、オーディオ1のlevel="2"とtrack id="2"がそれぞれ対応していることになる。これにより、Each Media Segments URLにより特定されるメディアセグメントに格納されるビデオ1とオーディオ1のデータを識別することができる。
このように、ビデオ1とオーディオ1が1つのセグメントに含められ、同一のFLUTEセッションで伝送されている場合であって、1つのファイルの中でビデオ1とオーディオ1のデータがマージされているとき、メディアセグメントに格納されるビデオ1とオーディオ1を識別して、それらのデータを取得することができる。
<6.放送通信システムの構成>
(放送通信システムの構成例)
図37は、本技術を適用した放送通信システムの一実施の形態の構成を示す図である。
図37は、本技術を適用した放送通信システムの一実施の形態の構成を示す図である。
図37に示すように、放送通信システム1は、送信装置10、受信装置20、及び、配信サーバ60から構成される。また、受信装置20と、配信サーバ60は、インターネット90を介して相互に接続されている。
送信装置10は、テレビ番組等の放送コンテンツを、IP伝送方式を用いたデジタル放送の放送波によって送信する。なお、放送コンテンツは、ビデオやオーディオ、字幕等のコンポーネントから構成されている。また、送信装置10は、コンポーネントとともに、制御信号(図7のシグナリング情報)を、デジタル放送の放送波で送信する。
受信装置20は、送信装置10から送信される放送信号を受信する。受信装置20は、放送信号から得られる制御信号に基づいて、ビデオやオーディオ、字幕等のコンポーネントを取得し、テレビ番組等の放送コンテンツの映像や音声を出力する。なお、受信装置20は、ディスプレイやスピーカを含んで単体として構成されるようにしてもよいし、テレビジョン受像機やビデオレコーダ等に内蔵されるようにしてもよい。
配信サーバ60は、放送済の放送番組や公開済みの映画などの通信コンテンツを、インターネット90を介して、ストリーミング配信する。なお、通信コンテンツは、ビデオやオーディオ、字幕等のコンポーネントから構成されている。受信装置20は、制御信号に基づいて、インターネット90を介して配信サーバ60からストリーミング配信される、ビデオやオーディオ、字幕等のコンポーネントを取得し、放送済の放送番組等の通信コンテンツの映像や音声を出力する。
放送通信システム1は、以上のように構成される。次に、図38乃至図39を参照して、図37の放送通信システム1を構成する各装置の詳細な構成について説明する。
(送信装置の構成例)
図38は、本技術を適用した送信装置の一実施の形態の構成を示す図である。
図38は、本技術を適用した送信装置の一実施の形態の構成を示す図である。
図38に示すように、送信装置10は、ビデオデータ取得部111、ビデオエンコーダ112、オーディオデータ取得部113、オーディオエンコーダ114、字幕データ取得部115、字幕エンコーダ116、ファイルデータ取得部117、ファイル処理部118、制御信号取得部119、制御信号処理部120、Mux121、及び、送信部122から構成される。
ビデオデータ取得部111は、内蔵するストレージや外部のサーバ、カメラ等から、コンポーネントとしてのビデオデータを取得し、ビデオエンコーダ112に供給する。ビデオエンコーダ112は、ビデオデータ取得部111から供給されるビデオデータを、MPEG等の符号化方式に準拠して符号化し、Mux121に供給する。
オーディオデータ取得部113は、内蔵するストレージや外部のサーバ、マイクロフォン等から、コンポーネントとしてのオーディオデータを取得し、オーディオエンコーダ114に供給する。オーディオエンコーダ114は、オーディオデータ取得部113から供給されるオーディオデータを、MPEG等の符号化方式に準拠して符号化し、Mux121に供給する。
字幕データ取得部115は、内蔵するストレージや外部のサーバ等から、コンポーネントとしての字幕データを取得し、字幕エンコーダ116に供給する。字幕エンコーダ116は、字幕データ取得部115から供給される字幕データを、所定の符号化方式に準拠して符号化し、Mux121に供給する。
ファイルデータ取得部117は、ファイル形式のデータを伝送する場合には、内蔵するストレージや外部のサーバ等から、例えば、ビデオやオーディオ、字幕、NRTコンテンツ、アプリケーション等のファイルデータを取得し、ファイル処理部118に供給する。
ファイル処理部118は、ファイルデータ取得部117から供給されるファイルデータに対して、所定のファイル処理を施し、Mux121に供給する。例えば、ファイル処理部118は、ファイルデータ取得部117により取得されたファイルデータを、FLUTEセッションにより伝送するためのファイル処理を行う。
制御信号取得部119は、内蔵するストレージや外部のサーバ等から、制御信号(図7のシグナリング情報)を取得し、制御信号処理部120に供給する。制御信号処理部120は、制御信号取得部119から供給される制御信号に対して、所定の信号処理を施し、Mux121に供給する。例えば、制御信号処理部120は、制御信号取得部119により取得されたSCSに対して、FLUTEセッションにより伝送するための信号処理を施す。
Mux121は、ビデオエンコーダ112からのビデオデータ、オーディオエンコーダ114からのオーディオデータ、字幕エンコーダ116からの字幕データ、ファイル処理部118からのファイルデータ、及び、制御信号処理部120からの制御信号を多重化してIP伝送形式のBBPストリームを生成し、送信部122に供給する。送信部122は、Mux121から供給されるBBPストリームを放送信号として、アンテナ123を介して送信する。
(受信装置の構成例)
図39は、本技術を適用した受信装置の一実施の形態の構成を示す図である。
図39は、本技術を適用した受信装置の一実施の形態の構成を示す図である。
図39に示すように、受信装置20は、チューナ212、Demux213、クロック発生器214、選択/合成部215、選択/合成部216、選択/合成部217、FLUTE処理部218、ストレージ219、制御部220、NVRAM221、通信I/F222、Demux223、ビデオデコーダ224、ビデオ出力部225、オーディオデコーダ226、オーディオ出力部227、及び、字幕デコーダ228から構成される。
チューナ212は、制御部220からの制御に従い、アンテナ211により受信された放送信号から、選局が指示されたサービスの放送信号を抽出して復調し、その結果得られるIP伝送形式のBBPストリームを、Demux213に供給する。
Demux213は、制御部220からの制御に従い、チューナ212から供給されるIP伝送形式のBBPストリームを、ビデオデータ、オーディオデータ、字幕データ、ファイルデータ、及び、制御信号(図7のシグナリング情報)などに分離して、後段のブロックに出力する。具体的には、Demux213は、BBPフィルタ251、IPフィルタ252、UDPフィルタ253、LCTフィルタ254、及び、SGDUフィルタバンク255から構成される。BBPフィルタ251は、BBPヘッダに基づいて、フィルタリング処理を行い、LLSをSGDUフィルタバンク255に供給する。
IPフィルタ252は、IPヘッダに基づいて、フィルタリング処理を行う。また、UDPフィルタ253は、UDPヘッダに基づいて、フィルタリング処理を行う。LCTフィルタ254は、LCTヘッダに基づいて、フィルタリング処理を行う。IPフィルタ252乃至LCTフィルタ254によるフィルタリング処理によって、NTPはクロック発生部214に供給され、SCSはSGDUフィルタバンク255に供給される。さらに、コンポーネントとしてのビデオデータ、オーディオデータ、字幕データは、選択/合成部215、選択/合成部216、選択/合成部217にそれぞれ供給される。また、各種のファイルデータは、FLUTE処理部218に供給される。
SGDUフィルタバンク255は、SGDUヘッダに基づいて、フィルタリング処理を行い、LLS(例えばSCT,SATなど)と、SCS(例えば、SPTやSDPなど)を適宜、制御部220に供給する。
クロック発生器214は、制御部220からの制御に従い、Demux213から供給されるNTPに基づいて、クロック信号を生成し、ビデオデコーダ224、オーディオデコーダ226、及び、字幕デコーダ228に供給する。
FLUTE処理部218は、制御部220からの制御に従い、Demux213から供給されるファイルデータから、ビデオやオーディオ、字幕、NRTコンテンツ、アプリケーションのファイルを復元する。例えば、FLUTE処理部218は、復元されたビデオやオーディオのファイルデータを、HDD(Hard Disk Drive)などの大容量の記録装置であるストレージ219に記録する。
また、例えば、FLUTE処理部218は、コンポーネントとして復元されたビデオ、オーディオ、字幕のファイルデータを、選択/合成部215、選択/合成部216、選択/合成部217にそれぞれ供給する。なお、それらのファイルデータは、ストレージ219に蓄積されているデータであってもよい。さらに、FLUTE処理部218は、Demux213から供給されるSCSを制御部220に供給する。ただし、SCSは、FLUTE処理部218を介さずに直接、Demux213から制御部220に供給されるようにしてもよい。
制御部220は、Demux213又はFLUTE処理部218から供給される制御信号(図7のシグナリング情報)に基づいて、受信装置20を構成する各部の動作を制御する。NVRAM221は、不揮発性メモリであって、制御部220からの制御に従い、各種のデータを記録する。例えば、制御部220は、制御信号(図7のシグナリング情報)から得られる選局情報を、NVRAM221に記録する。そして、制御部220は、NVRAM221に記録された選局情報に基づいて、チューナ212による選局処理を制御する。
通信I/F222は、制御部220からの制御に従い、配信サーバ60から、インターネット90を介してストリーミング配信される通信コンテンツのストリームデータを受信し、Demux223に供給する。Demux223は、通信I/F222から供給されるストリームデータを、コンポーネントとしてのビデオデータ、オーディオデータ、字幕データに分離して、選択/合成部215、選択/合成部216、選択/合成部217にそれぞれ供給する。
選択/合成部215には、Demux213、FLUTE処理部218、及び、Demux223からビデオデータ(ビデオのコンポーネント)が供給される。選択/合成部215は、制御部220からの制御に従い、それらのビデオデータ(ビデオのコンポーネント)に対し、選択/合成処理(例えば、後述する図42のビデオコンポーネントレイヤにおける各レイヤの処理)を行い、その処理の結果得られるビデオデータを、ビデオデコーダ224に供給する。
ビデオデコーダ224は、制御部220からの制御に従い、クロック発生器214から供給されるクロック信号に基づいて、選択/合成部215から供給されるビデオデータを、ビデオエンコーダ112(図38)に対応する復号方式で復号して、ビデオ出力部225に供給する。ビデオ出力部225は、制御部220からの制御に従い、ビデオデコーダ224から供給されるビデオデータを、後段のディスプレイ(不図示)に出力する。これにより、ディスプレイには、例えば、テレビ番組の映像などが表示される。
選択/合成部216には、Demux213、FLUTE処理部218、及び、Demux223からオーディオデータ(オーディオのコンポーネント)が供給される。選択/合成部216は、制御部220からの制御に従い、それらのオーディオデータ(オーディオのコンポーネント)に対し、選択/合成処理(例えば、後述する図42のオーディオコンポーネントレイヤにおける各レイヤの処理)を行い、その処理の結果得られるオーディオデータを、オーディオデコーダ226に供給する。
オーディオデコーダ226は、制御部220からの制御に従い、クロック発生器214から供給されるクロック信号に基づいて、選択/合成部216から供給されるオーディオデータを、オーディオエンコーダ114(図38)に対応する復号方式で復号して、オーディオ出力部227に供給する。オーディオ出力部227は、制御部220からの制御に従い、オーディオデコーダ226から供給されるオーディオデータを、後段のスピーカ(不図示)に供給する。これにより、スピーカからは、例えば、テレビ番組の映像に同期した音声が出力される。
選択/合成部217には、Demux213、FLUTE処理部218、及び、Demux223から字幕データ(字幕のコンポーネント)が供給される。選択/合成部217は、制御部220からの制御に従い、それらの字幕データ(字幕のコンポーネント)に対し、選択/合成処理(例えば、字幕コンポーネントレイヤにおける各レイヤの処理(図42のビデオコンポーネントレイヤにおける各レイヤの処理と同様の処理))を行い、その処理の結果得られる字幕データを、字幕デコーダ228に供給する。
字幕デコーダ228は、制御部220からの制御に従い、クロック発生器214から供給されるクロック信号に基づいて、Demux213から供給される字幕データを、字幕エンコーダ116(図38)に対応する復号方式で復号して、ビデオ出力部225に供給する。ビデオ出力部225は、制御部220からの制御に従い、字幕デコーダ228から字幕データが供給された場合、その字幕データを、ビデオデコーダ224からのビデオデータに合成し、後段のディスプレイ(不図示)に供給する。これにより、ディスプレイには、テレビ番組の映像とともに、その映像に同期した字幕が表示される。
なお、図39の受信装置20においては、説明の都合上、各デコーダの前段に、選択/合成部215乃至217が設けられる構成を示したが、選択/合成処理の内容によっては、選択/合成部215乃至217が、各デコーダの後段に設けられる構成を採用するようにしてもよい。また、図39の受信装置20の構成では、ストレージ219は内蔵されているとして説明したが、外付けのストレージを用いるようにしてもよい。さらに、受信装置20が、ディスプレイやスピーカを有する構成を採用してもよい。
<7.各装置で実行される具体的な処理の流れ>
次に、図40乃至図42を参照して、図37の放送通信システム1を構成する各装置で実行される具体的な処理の流れについて説明する。
(送信処理)
まず、図40のフローチャートを参照して、図38の送信装置10により実行される送信処理について説明する。
まず、図40のフローチャートを参照して、図38の送信装置10により実行される送信処理について説明する。
ステップS111において、ビデオデータ取得部111は、コンポーネントとしてのビデオデータを伝送する場合には、伝送対象のビデオデータを取得し、ビデオエンコーダ112に供給する。ステップS112において、ビデオエンコーダ112は、ビデオデータ取得部111から供給されるビデオデータを符号化し、Mux121に供給する。
ステップS113において、オーディオデータ取得部113は、コンポーネントとしてのオーディオデータを伝送する場合には、伝送対象のオーディオデータを取得し、オーディオエンコーダ114に供給する。ステップS114において、オーディオエンコーダ114は、オーディオデータ取得部113から供給されるオーディオデータを符号化し、Mux121に供給する。
ステップS115において、字幕データ取得部115は、コンポーネントとしての字幕データを伝送する場合には、伝送対象の字幕データを取得し、字幕エンコーダ116に供給する。ステップS116において、字幕エンコーダ116は、字幕データ取得部115から供給される字幕データを符号化し、Mux121に供給する。
ステップS117において、ファイルデータ取得部117は、ファイル形式のデータを伝送する場合には、例えばビデオやオーディオ、字幕、NRTコンテンツ、アプリケーション等のファイルデータを取得し、ファイル処理部118に供給する。ステップS118において、ファイル処理部118は、ファイルデータ取得部117から供給されるファイルデータに対して、所定のファイル処理を施し、Mux121に供給する。
ステップS119において、制御信号取得部119は、制御信号(図7のシグナリング情報)を取得し、制御信号処理部120に供給する。ステップS120において、制御信号処理部120は、制御信号取得部119から供給される制御信号に対し、所定の信号処理を施し、Mux121に供給する。
ステップS121において、Mux121は、ビデオエンコーダ112からのビデオデータ、オーディオエンコーダ114からのオーディオデータ、字幕エンコーダ116からの字幕データ、ファイル処理部118からのファイルデータ、及び、制御信号処理部120からの制御信号を多重化してIP伝送方式のBBPストリームを生成して、送信部122に供給する。
ステップS122において、送信部122は、Mux121から供給されるBBPストリームを放送信号として、アンテナ123を介して送信する。そして、ステップS122の処理が終了すると、送信処理は終了する。以上、送信処理について説明した。
(受信処理)
次に、図41のフローチャートを参照して、図39の受信装置20により実行される受信処理について説明する。
次に、図41のフローチャートを参照して、図39の受信装置20により実行される受信処理について説明する。
なお、図42に示すように、受信装置20により受信される、ビデオ(Video)やオーディオ(Audio)等の各コンポーネントは、セレクティブレイヤ(Selective Layer)、コンポジットレイヤ(Composite Layer)、及び、アダプティブレイヤ(Adaptive Layer)の3階層から構成される。この階層構造においては、アダプティブレイヤの上位階層として、コンポジットレイヤが配置され、コンポジットレイヤの上位階層として、セレクティブレイヤが配置されている。
最も下位の階層となるアダプティブレイヤにおいて、異なる模様が付された円形の一方の記号は、放送を利用して配信されるコンポーネント(Broadcast Component)を表し、他方の記号は、通信を利用して配信されるコンポーネント(Broadband Component)を表している。これらのコンポーネントは、いわゆるアダプティブストリーミングとして配信されるものであって、ビットレートの異なるコンポーネントが複数用意されている。アダプティブレイヤでは、図中の点線の弧上を左右に振れる直線が、スイッチとして機能することで、複数のコンポーネントの中から、1つのコンポーネントが選択される。
また、アダプティブレイヤの上位階層となるコンポジットレイヤでは、アダプティブレイヤにより適応的に選択された複数のコンポーネントが1つのコンポーネントに合成される。すなわち、コンポジットレイヤは、各コンポーネントのカテゴリにおいて、合成対象のコンポーネントグループ内の複数のコンポーネントを組み合わせて1つのコンポーネント(合成コンポーネント)として機能させるための階層である。
コンポジットレイヤの上位階層であって、最も上位の階層となるセレクティブレイヤでは、図中の点線の弧上を左右に振れる直線が、スイッチとして機能することで、複数のコンポーネントの中から、1つのコンポーネントが選択される。すなわち、セレクティブレイヤは、各コンポーネントのカテゴリにおいて、固定選択対象のコンポーネントグループの中から、所定の選択方法に応じて、1又は複数のコンポーネントを静的に選択するための階層である。
なお、図42では、説明の都合上、ビデオとオーディオのコンポーネントを一例に説明したが、字幕のコンポーネントについても同様の階層構造からなり、各レイヤの処理が同様に行われる。
図41のフローチャートの説明に戻り、ステップS211において、制御部220は、NVRAM221に選局情報として保持されているSCTのbootstrap情報に基づき、チューナ212を制御して、選局対象のサービスの放送信号が受信されるようにする。また、制御部220は、Demux213により分離された選局対象のサービスのSCS(MPD,SPT,SDP,USD)を一括で取得して解析を行い、その情報要素を抽出する。
ステップS212において、制御部220は、SPTのコンポーネントの記述で指定される全コンポーネントカテゴリのうち、最初のコンポーネントカテゴリを指定する。ここでは、例えば、最初のコンポーネントカテゴリとして、ビデオが指定される。
ステップS213において、制御部220は、ステップS212の処理で指定されたコンポーネントカテゴリの範囲において、MPDの各コンポーネントの記述に関して、セレクティブレイヤのコンポーネントの選択肢をリストアップして、コンポーネントを選択する。ここでは、例えば、画面にコンポーネントの選択肢の名称を表示させることで、ユーザに選択させるか、あるいは、受信装置20が、対応可能な機能や初期設定により自動で選択するようにしてもよい。なお、選択したコンポーネントが、MPDのコンポジットレイヤの記述により、合成コンポーネントである場合には、当該合成コンポーネントを構成するコンポーネントのうち、特定のコンポーネントが選択される。
ステップS214において、制御部220は、MPDのアダプティブレイヤの記述に基づいて、ステップS213の処理で選択されたコンポーネントが、アダプティブレイヤの切り替え対象であるかどうかが判定される。
ステップS214において、アダプティブレイヤの切り替え対象であると判定された場合、処理は、ステップS215に進められる。ステップS215において、制御部220は、選択/合成部215乃至217を制御して、適応的なコンポーネントの選択対象のうち、あらかじめ定められたデフォルトのコンポーネントを選択する。ステップS215の処理が終了すると、処理は、ステップS216に進められる。また、ステップS214において、アダプティブレイヤの切り替え対象ではないと判定された場合、ステップS215の処理はスキップされ、処理は、ステップS216に進められる。
ステップS216において、制御部220は、指定中のコンポーネントカテゴリにおいて、1つに絞られたコンポーネントに関して、特定のコンポーネントを共通に同定するためのリプレゼンテーションIDを用い、SPT又はUSDを参照することで、当該コンポーネントが、放送で配信されるか、あるいは通信で配信されるかをチェックする。
ステップS216において、当該コンポーネントが放送で配信されると判定された場合、処理は、ステップS218に進められる。ステップS218において、制御部220は、SPT又はUSDを参照することで、当該コンポーネントが、同一サービス内で放送配信されるコンポーネントであるか、あるいは、異なる別サービス内で放送配信されるコンポーネントであるかどうかを判定する。なお、この判定処理で、同一サービス内であるかどうか、すなわち、インバンドとアウトバンドのいずれであるかは、例えば、取得済みのSCSと同一のIPアドレスかどうかを確認すればよい。したがって、取得済みのSCSと異なるIPアドレスである場合には、異なる別サービスということになる。
ステップS217において、当該コンポーネントが同一サービス内で放送配信されるコンポーネント、すなわち、インバンドで放送配信されるコンポーネントであると判定された場合、処理は、ステップS218に進められる。ステップS218において、制御部220は、1つに絞られたコンポーネントに関して、SDPを参照して得られるIPアドレス、ポート番号、TSIと、MPDで指定されるセグメントURLからUSDを参照して得られるTOIを取得する。そして、制御部220は、FLUTE処理部218を制御して、IPアドレス、ポート番号、TSIにより特定されるFLUTEセッションから、TOIにより指定されるセグメントを特定することで、同一サービス内のコンポーネントを取得することができる。
また、ステップS217において、当該コンポーネントが異なる別サービス内で放送配信されるコンポーネント、すなわち、アウトバンドで放送配信されるコンポーネントであると判定された場合、処理は、ステップS219に進められる。ステップS219において、制御部220は、NVRAM221に選局情報として保持されているSCTのbootstrap情報に基づき、チューナ212を制御して、SPTのAssociated Service Descriptorにより指定される別サービスの放送信号が受信されるようにする。また、制御部220は、Demux213により分離された別サービスのSDPとUSDを取得して解析を行い、その情報要素を抽出する。さらに、制御部220は、1つに絞られたコンポーネントに関して、SDPを参照して得られるIPアドレス、ポート番号、TSIと、元のサービスのMPDで指定されるセグメントURLから、USDを参照して得られるTOIを取得する。そして、制御部220は、FLUTE処理部218を制御して、IPアドレス、ポート番号、TSIにより特定されるFLUTEセッションから、TOIにより指定されるセグメントを特定することで、異なる別サービス内のコンポーネントを取得することができる。
また、ステップS216において、当該コンポーネントが通信で配信されると判定された場合、処理は、ステップS220に進められる。ステップS220において、制御部220は、1つに絞られたコンポーネントに関して、MPDで指定されるセグメントURLを取得する。そして、制御部220は、通信I/F222を制御して、セグメントURLに従い、配信サーバ60にアクセスし、インターネット90を介してコンポーネントを取得する。
ステップS218、S219、S220のいずれかの処理が終了すると、処理は、ステップS221に進められる。ステップS221において、制御部220は、MPDのコンポジットレイヤの記述に基づいて、当該コンポーネントが、合成コンポーネントであるかどうかを判定する。
ステップS221において、当該コンポーネントが、合成コンポーネントであると判定された場合、処理は、ステップS222に進められる。ステップS222において、制御部220は、合成コンポーネントの構成要素のコンポーネントの取得処理が完了したかどうかを判定する。ステップS222において、構成要素のコンポーネントの取得処理が完了していない、すなわち、未だ取得すべきコンポーネントが残っている場合、処理は、ステップS223に進められる。
ステップS223において、制御部220は、MPDのコンポジットレイヤの記述に基づいて、取得すべき次のコンポーネントを選択する。ステップS223の処理が終了すると、処理は、ステップS214に戻り、それ以降の処理が繰り返される。これにより、インバンド若しくはアウトバンドでの放送配信、又は通信配信によって配信される、合成コンポーネントの構成要素のコンポーネントが取得される。そして、ステップS222の判定処理で、構成要素のコンポーネントの取得処理が完了したと判定された場合、処理は、ステップS224に進められる。
ステップS224において、制御部220は、各部の動作を制御して、合成コンポーネントの復号・提示処理を行う。例えば、制御部220は、指定中のコンポーネントカテゴリがビデオである場合、選択/合成部215、ビデオデコーダ224、及び、ビデオ出力部225を制御して、合成コンポーネントの構成要素のコンポーネントの同期をとって、これらのコンポーネントを合成した上で、復号を行い、合成コンポーネントに対応する映像の提示を開始する。また、例えば、制御部220は、指定中のコンポーネントカテゴリがオーディオである場合、選択/合成部216、オーディオデコーダ226、及び、オーディオ出力部227を制御して、合成コンポーネントの構成要素のコンポーネントの同期をとって、これらのコンポーネントを合成した上で、復号を行い、合成コンポーネントに対応する音声の出力を開始する。
一方、ステップS221において、当該コンポーネントが、合成コンポーネントではないと判定された場合、処理は、ステップS225に進められる。ステップS225において、制御部220は、各部の動作を制御して、単独コンポーネントの復号・提示処理を行う。例えば、制御部220は、指定中のコンポーネントカテゴリがビデオである場合であって、放送配信されたコンポーネントが取得されたとき、選択/合成部215、ビデオデコーダ224、及び、ビデオ出力部225を制御して、当該コンポーネントの復号を行い、その映像の提示を開始する。また、例えば、制御部220は、指定中のコンポーネントカテゴリがオーディオである場合であって、放送配信されたコンポーネントが取得されたとき、選択/合成部216、オーディオデコーダ226、及び、オーディオ出力部227を制御して、当該コンポーネントの復号を行い、その音声の出力を開始する。
ステップS224又はS225の処理が終了すると、処理は、ステップS226に進められる。ステップS226において、制御部220は、SPTのコンポーネントの記述で指定される全コンポーネントカテゴリのすべてが指定済みであって、最後のコンポーネントカテゴリであるかどうかを判定する。
ステップS226において、最後のコンポーネントカテゴリではないと判定された場合、処理は、ステップS227に進められる。ステップS227において、制御部220は、SPTのコンポーネントの記述で指定される全コンポーネントカテゴリのうち、次のコンポーネントカテゴリを指定する。ここでは、例えば、次のコンポーネントカテゴリとして、オーディオが指定される。ステップS227の処理が終了すると、処理は、ステップS213に戻り、それ以降の処理が繰り返される。これにより、次のコンポーネントカテゴリ(例えば、オーディオ)のコンポーネントが取得されて復号され、提示(出力)が開始される。そして、ステップS226の判定処理で、最後のコンポーネントカテゴリであると判定された場合、受信処理は終了する。以上、受信処理について説明した。
<8.コンピュータの構成>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図43は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータ900において、CPU(Central Processing Unit)901,ROM(Read Only Memory)902,RAM(Random Access Memory)903は、バス904により相互に接続されている。バス904には、さらに、入出力インターフェース905が接続されている。入出力インターフェース905には、入力部906、出力部907、記録部908、通信部909、及びドライブ910が接続されている。
入力部906は、キーボード、マウス、マイクロフォンなどよりなる。出力部907は、ディスプレイ、スピーカなどよりなる。記録部908は、ハードディスクや不揮発性のメモリなどよりなる。通信部909は、ネットワークインタフェースなどよりなる。ドライブ910は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア911を駆動する。
以上のように構成されるコンピュータ900では、CPU901が、例えば、記録部908に記憶されているプログラムを、入出力インターフェース905及びバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ900(CPU901)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア911に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供することができる。
コンピュータ900では、プログラムは、リムーバブルメディア911をドライブ910に装着することにより、入出力インターフェース905を介して、記録部908にインストールすることができる。また、プログラムは、有線又は無線の伝送媒体を介して、通信部909で受信し、記録部908にインストールすることができる。その他、プログラムは、ROM902や記録部908に、あらかじめインストールしておくことができる。
なお、コンピュータ900が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
ここで、本明細書において、コンピュータ900に各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。
また、プログラムは、1のコンピュータにより処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであってもよい。
さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
なお、本技術は、以下のような構成をとることができる。
(1)
IP(Internet Protocol)伝送方式を用いたデジタル放送の放送波を受信する受信部と、
前記放送波で伝送される制御信号に含まれる、各種のサービスを構成するコンポーネントの配信形態を示す情報に基づいて、選択されたサービスを構成するコンポーネントを配信形態に応じて取得するとともに、取得されたコンポーネントに関する所定の処理を行う各部の動作を制御する制御部と
を備える受信装置。
(2)
前記コンポーネントの配信形態は、放送配信又は通信配信である
(1)に記載の受信装置。
(3)
前記制御信号は、前記サービスごとに伝送されており、
前記放送配信には、前記コンポーネントが、選択されたサービスの前記制御信号と同一のサービス内で配信される第1の放送配信と、前記コンポーネントが、選択されたサービスの前記制御信号と異なる別サービス内で配信される第2の放送配信が含まれる
(2)に記載の受信装置。
(4)
前記制御信号は、複数のシグナリング情報から構成されており、
前記コンポーネントは、各シグナリング情報において共通のIDによって同定される
(1)乃至(3)のいずれか一項に記載の受信装置。
(5)
前記コンポーネントはファイル形式であって、FLUTE(File Delivery over Unidirectional Transport)セッションにより伝送される
(1)乃至(4)のいずれか一項に記載の受信装置。
(6)
前記FLUTEセッションにおける各セグメントには、特定のカテゴリのコンポーネントのデータが格納される
(5)に記載の受信装置。
(7)
前記FLUTEセッションにおける各セグメントには、複数のカテゴリのコンポーネントのデータが格納され、
前記制御信号は、当該コンポーネントのカテゴリを識別するための識別情報を含んでいる
(5)に記載の受信装置。
(8)
前記制御信号は、シグナリング情報として、各種のサービス及びサービスを構成するコンポーネントの少なくとも一方に関するパラメータが記述されたテーブルを含み、
前記テーブルには、コンポーネントに関するパラメータとして、コンポーネントのIDと、当該コンポーネントのカテゴリが記述される
(1)乃至(7)のいずれか一項に記載の受信装置。
(9)
前記制御信号は、前記IP伝送方式におけるプロトコルの階層のうち、IP層よりも上位の階層で伝送され、
各サービスを構成する前記コンポーネントと前記制御信号には、共通のIPアドレスが割り当てられる
(1)乃至(8)のいずれか一項に記載の受信装置。
(10)
受信装置の受信方法において、
前記受信装置が、
IP伝送方式を用いたデジタル放送の放送波を受信し、
前記放送波で伝送される制御信号に含まれる、各種のサービスを構成するコンポーネントの配信形態を示す情報に基づいて、選択されたサービスを構成するコンポーネントを配信形態に応じて取得するとともに、取得されたコンポーネントに関する所定の処理を行う各部の動作を制御する
ステップを含む受信方法。
(11)
各種のサービスを構成する1又は複数のコンポーネントを取得する第1の取得部と、
前記コンポーネントの配信形態を示す情報を含む制御信号を取得する第2の取得部と、
IP伝送方式を用いた放送波であって、前記サービスを構成する前記コンポーネント及び前記制御信号を含む放送波を送信する送信部と
を備える送信装置。
(12)
前記コンポーネントの配信形態は、放送配信又は通信配信である
(11)に記載の送信装置。
(13)
前記制御信号は、前記サービスごとに伝送され、
前記放送配信には、前記コンポーネントが、選択されたサービスの前記制御信号と同一のサービス内で配信される第1の放送配信と、前記コンポーネントが、選択されたサービスの前記制御信号と異なる別サービス内で配信される第2の放送配信が含まれる
(12)に記載の送信装置。
(14)
前記制御信号は、複数のシグナリング情報から構成されており、
前記コンポーネントは、各シグナリング情報において共通のIDによって同定される
(11)乃至(13)のいずれか一項に記載の送信装置。
(15)
前記コンポーネントはファイル形式であって、FLUTEセッションにより伝送される
(11)乃至(14)のいずれか一項に記載の送信装置。
(16)
前記FLUTEセッションにおける各セグメントには、特定のカテゴリのコンポーネントのデータが格納される
(15)に記載の送信装置。
(17)
前記FLUTEセッションにおける各セグメントには、複数のカテゴリのコンポーネントのデータが格納され、
前記制御信号は、当該コンポーネントのカテゴリを識別するための識別情報を含んでいる
(15)に記載の送信装置。
(18)
前記制御信号は、シグナリング情報として、各種のサービス及びサービスを構成するコンポーネントの少なくとも一方に関するパラメータが記述されたテーブルを含み、
前記テーブルには、コンポーネントに関するパラメータとして、コンポーネントのIDと、当該コンポーネントのカテゴリが記述される
(11)乃至(17)のいずれか一項に記載の送信装置。
(19)
前記制御信号は、前記IP伝送方式におけるプロトコルの階層のうち、IP層よりも上位の階層で伝送され、
各サービスを構成する前記コンポーネントと前記制御信号には、共通のIPアドレスが割り当てられる
(11)乃至(18)のいずれか一項に記載の送信装置。
(20)
送信装置の送信方法において、
前記送信装置が、
各種のサービスを構成する1又は複数のコンポーネントを取得し、
前記コンポーネントの配信形態を示す情報を含む制御信号を取得し、
IP伝送方式を用いた放送波であって、前記サービスを構成する前記コンポーネント及び前記制御信号を含む放送波を送信する
ステップを含む送信方法。
IP(Internet Protocol)伝送方式を用いたデジタル放送の放送波を受信する受信部と、
前記放送波で伝送される制御信号に含まれる、各種のサービスを構成するコンポーネントの配信形態を示す情報に基づいて、選択されたサービスを構成するコンポーネントを配信形態に応じて取得するとともに、取得されたコンポーネントに関する所定の処理を行う各部の動作を制御する制御部と
を備える受信装置。
(2)
前記コンポーネントの配信形態は、放送配信又は通信配信である
(1)に記載の受信装置。
(3)
前記制御信号は、前記サービスごとに伝送されており、
前記放送配信には、前記コンポーネントが、選択されたサービスの前記制御信号と同一のサービス内で配信される第1の放送配信と、前記コンポーネントが、選択されたサービスの前記制御信号と異なる別サービス内で配信される第2の放送配信が含まれる
(2)に記載の受信装置。
(4)
前記制御信号は、複数のシグナリング情報から構成されており、
前記コンポーネントは、各シグナリング情報において共通のIDによって同定される
(1)乃至(3)のいずれか一項に記載の受信装置。
(5)
前記コンポーネントはファイル形式であって、FLUTE(File Delivery over Unidirectional Transport)セッションにより伝送される
(1)乃至(4)のいずれか一項に記載の受信装置。
(6)
前記FLUTEセッションにおける各セグメントには、特定のカテゴリのコンポーネントのデータが格納される
(5)に記載の受信装置。
(7)
前記FLUTEセッションにおける各セグメントには、複数のカテゴリのコンポーネントのデータが格納され、
前記制御信号は、当該コンポーネントのカテゴリを識別するための識別情報を含んでいる
(5)に記載の受信装置。
(8)
前記制御信号は、シグナリング情報として、各種のサービス及びサービスを構成するコンポーネントの少なくとも一方に関するパラメータが記述されたテーブルを含み、
前記テーブルには、コンポーネントに関するパラメータとして、コンポーネントのIDと、当該コンポーネントのカテゴリが記述される
(1)乃至(7)のいずれか一項に記載の受信装置。
(9)
前記制御信号は、前記IP伝送方式におけるプロトコルの階層のうち、IP層よりも上位の階層で伝送され、
各サービスを構成する前記コンポーネントと前記制御信号には、共通のIPアドレスが割り当てられる
(1)乃至(8)のいずれか一項に記載の受信装置。
(10)
受信装置の受信方法において、
前記受信装置が、
IP伝送方式を用いたデジタル放送の放送波を受信し、
前記放送波で伝送される制御信号に含まれる、各種のサービスを構成するコンポーネントの配信形態を示す情報に基づいて、選択されたサービスを構成するコンポーネントを配信形態に応じて取得するとともに、取得されたコンポーネントに関する所定の処理を行う各部の動作を制御する
ステップを含む受信方法。
(11)
各種のサービスを構成する1又は複数のコンポーネントを取得する第1の取得部と、
前記コンポーネントの配信形態を示す情報を含む制御信号を取得する第2の取得部と、
IP伝送方式を用いた放送波であって、前記サービスを構成する前記コンポーネント及び前記制御信号を含む放送波を送信する送信部と
を備える送信装置。
(12)
前記コンポーネントの配信形態は、放送配信又は通信配信である
(11)に記載の送信装置。
(13)
前記制御信号は、前記サービスごとに伝送され、
前記放送配信には、前記コンポーネントが、選択されたサービスの前記制御信号と同一のサービス内で配信される第1の放送配信と、前記コンポーネントが、選択されたサービスの前記制御信号と異なる別サービス内で配信される第2の放送配信が含まれる
(12)に記載の送信装置。
(14)
前記制御信号は、複数のシグナリング情報から構成されており、
前記コンポーネントは、各シグナリング情報において共通のIDによって同定される
(11)乃至(13)のいずれか一項に記載の送信装置。
(15)
前記コンポーネントはファイル形式であって、FLUTEセッションにより伝送される
(11)乃至(14)のいずれか一項に記載の送信装置。
(16)
前記FLUTEセッションにおける各セグメントには、特定のカテゴリのコンポーネントのデータが格納される
(15)に記載の送信装置。
(17)
前記FLUTEセッションにおける各セグメントには、複数のカテゴリのコンポーネントのデータが格納され、
前記制御信号は、当該コンポーネントのカテゴリを識別するための識別情報を含んでいる
(15)に記載の送信装置。
(18)
前記制御信号は、シグナリング情報として、各種のサービス及びサービスを構成するコンポーネントの少なくとも一方に関するパラメータが記述されたテーブルを含み、
前記テーブルには、コンポーネントに関するパラメータとして、コンポーネントのIDと、当該コンポーネントのカテゴリが記述される
(11)乃至(17)のいずれか一項に記載の送信装置。
(19)
前記制御信号は、前記IP伝送方式におけるプロトコルの階層のうち、IP層よりも上位の階層で伝送され、
各サービスを構成する前記コンポーネントと前記制御信号には、共通のIPアドレスが割り当てられる
(11)乃至(18)のいずれか一項に記載の送信装置。
(20)
送信装置の送信方法において、
前記送信装置が、
各種のサービスを構成する1又は複数のコンポーネントを取得し、
前記コンポーネントの配信形態を示す情報を含む制御信号を取得し、
IP伝送方式を用いた放送波であって、前記サービスを構成する前記コンポーネント及び前記制御信号を含む放送波を送信する
ステップを含む送信方法。
1 放送通信連携システム, 10 送信装置, 20 受信装置, 60 配信サーバ, 90 インターネット, 111 ビデオデータ取得部, 113 オーディオデータ取得部, 115 字幕データ取得部, 117 ファイルデータ取得部, 119 制御信号取得部, 122 送信部, 212 チューナ, 220 制御部, 222 通信I/F, 900 コンピュータ, 901 CPU
Claims (20)
- IP(Internet Protocol)伝送方式を用いたデジタル放送の放送波を受信する受信部と、
前記放送波で伝送される制御信号に含まれる、各種のサービスを構成するコンポーネントの配信形態を示す情報に基づいて、選択されたサービスを構成するコンポーネントを配信形態に応じて取得するとともに、取得されたコンポーネントに関する所定の処理を行う各部の動作を制御する制御部と
を備える受信装置。 - 前記コンポーネントの配信形態は、放送配信又は通信配信である
請求項1に記載の受信装置。 - 前記制御信号は、前記サービスごとに伝送されており、
前記放送配信には、前記コンポーネントが、選択されたサービスの前記制御信号と同一のサービス内で配信される第1の放送配信と、前記コンポーネントが、選択されたサービスの前記制御信号と異なる別サービス内で配信される第2の放送配信が含まれる
請求項2に記載の受信装置。 - 前記制御信号は、複数のシグナリング情報から構成されており、
前記コンポーネントは、各シグナリング情報において共通のIDによって同定される
請求項1に記載の受信装置。 - 前記コンポーネントはファイル形式であって、FLUTE(File Delivery over Unidirectional Transport)セッションにより伝送される
請求項1に記載の受信装置。 - 前記FLUTEセッションにおける各セグメントには、特定のカテゴリのコンポーネントのデータが格納される
請求項5に記載の受信装置。 - 前記FLUTEセッションにおける各セグメントには、複数のカテゴリのコンポーネントのデータが格納され、
前記制御信号は、当該コンポーネントのカテゴリを識別するための識別情報を含んでいる
請求項5に記載の受信装置。 - 前記制御信号は、シグナリング情報として、各種のサービス及びサービスを構成するコンポーネントの少なくとも一方に関するパラメータが記述されたテーブルを含み、
前記テーブルには、コンポーネントに関するパラメータとして、コンポーネントのIDと、当該コンポーネントのカテゴリが記述される
請求項1に記載の受信装置。 - 前記制御信号は、前記IP伝送方式におけるプロトコルの階層のうち、IP層よりも上位の階層で伝送され、
各サービスを構成する前記コンポーネントと前記制御信号には、共通のIPアドレスが割り当てられる
請求項1に記載の受信装置。 - 受信装置の受信方法において、
前記受信装置が、
IP伝送方式を用いたデジタル放送の放送波を受信し、
前記放送波で伝送される制御信号に含まれる、各種のサービスを構成するコンポーネントの配信形態を示す情報に基づいて、選択されたサービスを構成するコンポーネントを配信形態に応じて取得するとともに、取得されたコンポーネントに関する所定の処理を行う各部の動作を制御する
ステップを含む受信方法。 - 各種のサービスを構成する1又は複数のコンポーネントを取得する第1の取得部と、
前記コンポーネントの配信形態を示す情報を含む制御信号を取得する第2の取得部と、
IP伝送方式を用いた放送波であって、前記サービスを構成する前記コンポーネント及び前記制御信号を含む放送波を送信する送信部と
を備える送信装置。 - 前記コンポーネントの配信形態は、放送配信又は通信配信である
請求項11に記載の送信装置。 - 前記制御信号は、前記サービスごとに伝送され、
前記放送配信には、前記コンポーネントが、選択されたサービスの前記制御信号と同一のサービス内で配信される第1の放送配信と、前記コンポーネントが、選択されたサービスの前記制御信号と異なる別サービス内で配信される第2の放送配信が含まれる
請求項12に記載の送信装置。 - 前記制御信号は、複数のシグナリング情報から構成されており、
前記コンポーネントは、各シグナリング情報において共通のIDによって同定される
請求項11に記載の送信装置。 - 前記コンポーネントはファイル形式であって、FLUTEセッションにより伝送される
請求項11に記載の送信装置。 - 前記FLUTEセッションにおける各セグメントには、特定のカテゴリのコンポーネントのデータが格納される
請求項15に記載の送信装置。 - 前記FLUTEセッションにおける各セグメントには、複数のカテゴリのコンポーネントのデータが格納され、
前記制御信号は、当該コンポーネントのカテゴリを識別するための識別情報を含んでいる
請求項15に記載の送信装置。 - 前記制御信号は、シグナリング情報として、各種のサービス及びサービスを構成するコンポーネントの少なくとも一方に関するパラメータが記述されたテーブルを含み、
前記テーブルには、コンポーネントに関するパラメータとして、コンポーネントのIDと、当該コンポーネントのカテゴリが記述される
請求項11に記載の送信装置。 - 前記制御信号は、前記IP伝送方式におけるプロトコルの階層のうち、IP層よりも上位の階層で伝送され、
各サービスを構成する前記コンポーネントと前記制御信号には、共通のIPアドレスが割り当てられる
請求項11に記載の送信装置。 - 送信装置の送信方法において、
前記送信装置が、
各種のサービスを構成する1又は複数のコンポーネントを取得し、
前記コンポーネントの配信形態を示す情報を含む制御信号を取得し、
IP伝送方式を用いた放送波であって、前記サービスを構成する前記コンポーネント及び前記制御信号を含む放送波を送信する
ステップを含む送信方法。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014018744 | 2014-02-03 | ||
| JP2014-018744 | 2014-02-03 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2015115253A1 true WO2015115253A1 (ja) | 2015-08-06 |
Family
ID=53756830
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2015/051443 Ceased WO2015115253A1 (ja) | 2014-02-03 | 2015-01-21 | 受信装置、受信方法、送信装置、及び、送信方法 |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2015115253A1 (ja) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017517181A (ja) * | 2014-04-09 | 2017-06-22 | エルジー エレクトロニクス インコーポレイティド | 放送伝送装置、放送受信装置、放送伝送装置の動作方法及び放送受信装置の動作方法 |
| JP2017518662A (ja) * | 2014-06-25 | 2017-07-06 | エルジー エレクトロニクス インコーポレイティド | 放送信号送信装置、放送信号受信装置、放送信号送信方法、及び放送信号受信方法 |
-
2015
- 2015-01-21 WO PCT/JP2015/051443 patent/WO2015115253A1/ja not_active Ceased
Non-Patent Citations (1)
| Title |
|---|
| "Enhanced MBMS Operation", 3GPP TR 26.848 V0.7.0 (2014-01, 24 January 2014 (2014-01-24), pages 8 - 13, XP055217164, Retrieved from the Internet <URL:http://www.3gpp.org/ftp/TSG_SA/WG4_CODEC/TSGS4_77/Docs/S4-140218.zip(TR26848v0.7.0-EMO-cl.doc> [retrieved on 20150414] * |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017517181A (ja) * | 2014-04-09 | 2017-06-22 | エルジー エレクトロニクス インコーポレイティド | 放送伝送装置、放送受信装置、放送伝送装置の動作方法及び放送受信装置の動作方法 |
| US10694259B2 (en) | 2014-04-09 | 2020-06-23 | Lg Electronics Inc. | Broadcast transmission device, broadcast reception device, operating method of broadcast transmission device, and operating method of broadcast reception device |
| US11166083B2 (en) | 2014-04-09 | 2021-11-02 | Lg Electronics Inc. | Broadcast transmission device, broadcast reception device, operating method of broadcast transmission device, and operating method of broadcast reception device |
| JP2017518662A (ja) * | 2014-06-25 | 2017-07-06 | エルジー エレクトロニクス インコーポレイティド | 放送信号送信装置、放送信号受信装置、放送信号送信方法、及び放送信号受信方法 |
| US10158678B2 (en) | 2014-06-25 | 2018-12-18 | Lg Electronics Inc. | Broadcast signal transmission device, broadcast signal receiving device, broadcast signal transmission method and broadcast signal receiving method |
| US10880339B2 (en) | 2014-06-25 | 2020-12-29 | Lg Electronics Inc. | Broadcast signal transmission device, broadcast signal receiving device, broadcast signal transmission method and broadcast signal receiving method |
| US11323490B2 (en) | 2014-06-25 | 2022-05-03 | Lg Electronics Inc. | Broadcast signal transmission device, broadcast signal receiving device, broadcast signal transmission method and broadcast signal receiving method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10129308B2 (en) | Session description information for over-the-air broadcast media data | |
| US10623827B2 (en) | Receiving device, receiving method, transmitting device, and transmitting method | |
| US11374993B2 (en) | Reception device, reception method, transmission device, and transmission method | |
| JP7663850B2 (ja) | 受信方法、及び、送信方法 | |
| JP6743704B2 (ja) | 送信装置、送信方法、受信装置および受信方法 | |
| JP6643246B2 (ja) | 受信装置、受信方法、送信装置、及び、送信方法 | |
| US20190342862A1 (en) | Reception apparatus, reception method, transmission apparatus, and transmission method | |
| US20200336526A1 (en) | Reception device, reception method, transmission device, and transmission method for distributing signaling information | |
| WO2015060148A1 (ja) | 受信装置、受信方法、送信装置、及び、送信方法 | |
| US11622088B2 (en) | Reception apparatus, transmission apparatus, and data processing method | |
| US20190342110A1 (en) | Reception apparatus, reception method, transmission apparatus, and transmission method | |
| WO2015115253A1 (ja) | 受信装置、受信方法、送信装置、及び、送信方法 | |
| WO2015178221A1 (ja) | 受信装置、受信方法、送信装置、及び、送信方法 | |
| JP2020025325A (ja) | 受信装置、送信装置、及び、データ処理方法 | |
| WO2015107930A1 (ja) | 受信装置、受信方法、送信装置、及び、送信方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 15743898 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| NENP | Non-entry into the national phase |
Ref country code: JP |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 15743898 Country of ref document: EP Kind code of ref document: A1 |