[go: up one dir, main page]

WO2013061523A1 - 旧来のフォーマットとの互換を維持しつつも、記録内容を編集することができる記録媒体、再生装置、記録装置、再生方法、記録方法 - Google Patents

旧来のフォーマットとの互換を維持しつつも、記録内容を編集することができる記録媒体、再生装置、記録装置、再生方法、記録方法 Download PDF

Info

Publication number
WO2013061523A1
WO2013061523A1 PCT/JP2012/006444 JP2012006444W WO2013061523A1 WO 2013061523 A1 WO2013061523 A1 WO 2013061523A1 JP 2012006444 W JP2012006444 W JP 2012006444W WO 2013061523 A1 WO2013061523 A1 WO 2013061523A1
Authority
WO
WIPO (PCT)
Prior art keywords
stream
recording medium
video
file
recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2012/006444
Other languages
English (en)
French (fr)
Inventor
和寛 持永
智輝 小川
洋 矢羽田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to CA2816434A priority Critical patent/CA2816434C/en
Priority to MX2013005604A priority patent/MX2013005604A/es
Priority to PH1/2013/501011A priority patent/PH12013501011A1/en
Priority to SG2013035076A priority patent/SG190189A1/en
Priority to EP12843430.5A priority patent/EP2772918A4/en
Priority to JP2013520311A priority patent/JP5363685B2/ja
Priority to RU2013122634/28A priority patent/RU2013122634A/ru
Priority to US13/882,328 priority patent/US9218109B2/en
Priority to CN201280003781.9A priority patent/CN103314409B/zh
Publication of WO2013061523A1 publication Critical patent/WO2013061523A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8233Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a character code signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/21Disc-shaped record carriers characterised in that the disc is of read-only, rewritable, or recordable type
    • G11B2220/215Recordable discs
    • G11B2220/216Rewritable discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus

Definitions

  • the present invention belongs to the technical field of video editing.
  • contents of various contents are known, from high-level ones with special visual effects to basic ones such as partial deletion, division and integration of video.
  • the video is encoded by an encoding method such as MPEG2, MPEG4-AVC, stored in a stream file of the MPEG2-TS format, and written to a recording medium. Since the recording medium is recorded in the form of a file, it is possible to partially delete, divide, and integrate such stream files by rewriting the file system management information as in a general computer file.
  • the file system information rewriting type editing function is generally implemented as a standard function of the recording apparatus and the reproducing apparatus because the file system information rewriting type editing function can be realized only by rewriting the file system management information.
  • the data format of the video recording to be edited has been limited to the real-time AV recording format for recording a recorded material originally recorded by the user, but in recent years the base of the editing object has been broadened and movie work recording
  • the movie recording format for the movie was also targeted for stream editing by file system rewriting such as partial deletion, division, and integration.
  • the movie recording format for movie work recording has various revisions aiming at further enhancement of functions such as higher resolution of images, higher tone of pixels, and added value, and the revision is It is ongoing.
  • Prior art of stream editing by file system rewriting such as partial deletion / division / integration
  • Patent Document 1 there is a document known invention described in Patent Document 1 below.
  • the legacy device targets an item common to the old format for editing. This common term is often the part of maintaining the compatibility with the old format for the latest format. Then, if the recording medium recording the video in the new format is loaded into the legacy device and subjected to editing, the part that becomes the difference excluding this common item is lost by the editing of the legacy device.
  • the difference is the part supplemented in the new format, and the loss of the difference makes it impossible to view the video that was recorded in the new format and was originally present.
  • the loss of the difference makes it impossible to view the video that was recorded in the new format and was originally present.
  • Patent Document 1 when a failure occurs in the data structure defined by the format, it may be considered to treat it as a non-reproducible medium, but in this case, the user can I can not see the work any longer.
  • the data size of the compression-coded image becomes quite large. If such data occupies a large area on the recording medium and such data can not be deleted from the recording medium, there is a problem that the practicality is poor.
  • the object of the present invention is to avoid the occurrence of the phenomenon that the part of common items with the old format is rewritten afterward among the latest formats.
  • the above problem is a recording medium on which a stream file and an index file are recorded.
  • the index file includes an editability flag and an extended editability flag.
  • the editability flag indicates that the recording medium is loaded in the device. This information is used to specify whether or not the recording medium is treated as editable media by the device when it is set, and the recording medium is treated as editable media by being set to ON, and editing of the stream file is performed. Indicates that it is possible to edit the stream file, and it is set to off, indicating that the legacy device does not treat the recording medium as an editable medium and can not edit the stream file.
  • the editability flag indicates that the recording medium is treated as editable media by the non-legacy device even if the editability flag indicates OFF. It is solved by indicating that it is possible to edit the stream file.
  • the editability flag When the extended editability flag is present, the editability flag is set to off, so that the information of the difference portion expanded in the new format is not rewritten by the legacy device. Since valuable video content owned by the user is not accidentally lost without the user's intention, movie works can be supplied to non-legacy equipment in the latest format while avoiding the occurrence of content inconsistencies. can do.
  • FIG. 1 shows a home theater system configured by a recording device, a display device, and shutter glasses.
  • An example of a display picture by a display is shown.
  • the several frame image which comprises a planar view moving image, and the several frame image which comprises a stereoscopic vision moving image are contrasted and shown.
  • the compressed slice sequence and macroblocks stored in one video access unit are shown, as well as the Closed-GOP and Open-GOP configured by the MVC view component.
  • 3 illustrates three typical types of planar video stream.
  • the syntax of Index.bdmv in the object oriented programming language for Blu-ray disc format description is shown. It is a figure explaining the conditions for generation of extended_editability_flag.
  • the condition in which the editability_flag must be 0 and the handling of the recording device when the extended_editability_flag is 1 are shown in a table format. It is a flowchart which shows the procedure which determines the editability of the disc recorded by the extended format. It is a flowchart which shows the determination procedure of the edit decision
  • the case where the recording medium in which the file containing 3D video was recorded by 3D imaging device is loaded in the Blu-ray Rewritable non-compliant recording device of version 3.1 and the Blu-ray Rewritable compliant recording device of version 3.1 is shown.
  • the case where TV recording of TV broadcast is performed is shown.
  • the syntax for creating a playlist information file in an object-oriented programming language is shown. It is a figure which shows the bit assignment of PSR31. It is a figure which shows the bit assignment of PSR29. It is a figure which shows the bit assignment of PSR23. It is a figure which shows the bit assignment of PSR24. The bit assignment of PSR22 and a mode selection procedure are shown.
  • the internal structure of a multilayer optical disc is shown. Indicates the directory hierarchy of the media movie database area. The process of obtaining one transport stream from the MVC1080 @ 24p / 50i / 60i base view video stream and the MVC1080 @ 24p / 50i / 60i dependent view video stream is shown.
  • An example of a PES packet, a TS packet, a source packet, and a PMT is shown.
  • the correspondence between the transport stream obtained by multiplexing the MVC1080 @ 24p / 50i / 60i base-view video stream and the MVC1080 @ 24p / 50i / 60i dependent-view video stream, EP_map, and extents is shown.
  • Transport stream obtained by multiplexing MVC1080 @ 24p / 50i / 60i base-view video stream and MVC1080 @ 24p / 50i / 60i dependent-view video stream, EP_map, extents, and playlists Show the relationship.
  • 18 shows parameter settings for creating a playlist including a stream selection table having entries permitted to play AVC 1080 @ 60P / 50P video streams.
  • the internal structure of a recording device and a reproducing device is shown.
  • 17 shows an internal configuration of a reproduction unit 2002.
  • 7 shows an internal configuration of a system target decoder 104.
  • 6 shows a reading procedure of source packets based on playlist information. It is a figure which shows the internal structure of a recording part. It is a flowchart which shows a stream production
  • the detailed configuration of the editing unit 2004 is shown.
  • the case which deletes a tip part is shown. It shows how the stereoscopic moving image changes due to the deletion of the tip portion.
  • a stereoscopic moving image to be viewed by wearing glasses is shown.
  • the case where the end part is deleted is shown.
  • the case where the middle part is deleted is shown.
  • the relationship between clip information files, playlists, and ssif files is shown.
  • An example of location specification of an extent using EP_map, EP_map_SS, an allocation descriptor, and extent start point information is shown.
  • An example of location specification of the extent using an allocation descriptor and extent start point information is shown.
  • the playlist and 3D playlists defined by the playlist file (mpls file) recorded in the BDMV directory are shown.
  • We show three types of editing for playlists. The case of deleting the tip part of the ssif file is shown.
  • the case of deleting the end part of the ssif file is shown.
  • the case of deleting the middle part of the ssif file is shown.
  • the recording medium provided with the above-described means can be implemented in the industrial field as a disk medium for video recording and a product of a memory card medium.
  • the reproducing apparatus equipped with the above-mentioned problem solution means can be implemented as a player device, and the recording device equipped with the above-mentioned problem solution means as an recorder device in the industrial field.
  • the reproduction method and the recording method provided with the above-mentioned means for solving the problem can be implemented by incorporating the above-mentioned player device and recorder device as a processing procedure of a computer program.
  • FIG. 1 shows a home theater system including a playback device, a display device, and shutter glasses.
  • the home theater system includes, as shown in FIG.
  • a multi-layered optical disc 1000 a recording device 1001, a recording device 1002, a remote control 1003, a television broadcast display device 1004, a 3D imaging device 1005, a terrestrial broadcast station 1006, a terrestrial antenna 1007,
  • the active shutter glasses 1008 are configured to be used by the user.
  • the multi-layered optical disc 1000 is a portable recording medium having a format for recording a movie work.
  • the recording device 1001 is a legacy device that does not correspond to the latest standard revision of the movie recording format, and performs recording, reproduction, and editing on an optical disc.
  • the recording device 1002 is a non-legacy device compatible with the latest standard revision of the movie recording format, and performs recording, reproduction, and editing on an optical disc.
  • the remote controller 1003 is an apparatus for receiving from the user an operation on the hierarchical GUI in executing the editing operation and the recording operation, and for receiving such an operation, the remote controller 102 has a menu key for calling a menu constituting the GUI and a menu. Use the arrow keys to move the focus of the GUI parts to configure, the enter key to perform the decision operation on the GUI parts that configure the menu, the return key to return the hierarchical menu to a higher-order one, and the numeric keys Prepare.
  • the television broadcast display device 1004 receives pixel bit values for one screen sent from the recording device 1001 and the recording device 1002 through the inter-device interface, and drives the display elements of the display panel according to the pixel bit values to display an image.
  • the image display includes a 2D output mode of displaying an image of one screen in one frame period, and a 3D output mode of displaying a left eye image and a right eye image of one screen in one frame period.
  • the 3D imaging apparatus 1005 is a non-legacy device, and performs recording, reproduction, and editing on an optical disc.
  • Terrestrial broadcast station 1006 transmits terrestrial television broadcasts, including 3D television programs.
  • the terrestrial antenna 1007 receives terrestrial television broadcast including a 3D television program, and outputs the broadcast wave to the recording device 1001 and the recording device 1002.
  • the recording device 1001 and the recording device 1002 perform recording processing on the broadcast wave input.
  • the active shutter glasses 1208 close either one of the right eye shutter and the left eye shutter and open the other. By doing this, a stereoscopic video is configured.
  • the shutter on the right eye side is set in the closed state.
  • the shutter on the left eye side is set to the closed state.
  • the shutter glasses have a wireless communication function, and can transmit the remaining amount of the built-in battery to the display device in response to a request from the display device 1004.
  • the display image of the display device includes the planar view image of FIG. 2 (a) and the stereoscopic view image of FIG. 2 (b).
  • the frame image in the stereoscopic moving image in FIG. 2B is an image in which the left-eye image and the right-eye image overlap in one frame period.
  • FIG. 2B shows an example of viewing of the left eye image and the right eye image through the active shutter glasses 1008.
  • a line of sight vw1 indicates the incidence of an image when the right eye is blocked by the active shutter glasses 1008.
  • the line of sight vw2 indicates the incidence of an image when the left eye is blocked by the active shutter glasses 1008.
  • the left eye image is viewed by this vw1.
  • the right-eye image is viewed by vw2.
  • the user views the right-eye image and the left-eye image alternately, and a stereoscopic image is reproduced.
  • FIG. 2 (b) it can be seen that a stereoscopic image appears at a place where the two lines of sight intersect.
  • the video stream reproduces a planar view moving image and a stereoscopic view moving image by reproducing a plurality of frame images.
  • FIG. 3 illustrates a plurality of frame images forming the planar view moving image and a plurality of frame images forming the stereoscopic moving image in comparison.
  • the horizontal direction is taken as a time axis, and a plurality of frame images arranged in a plurality of XY planes along the time axis are drawn.
  • the frame image includes an image obtained by superimposing a progressive right-eye image and a progressive left-eye image, and an image obtained by overlapping an interlace right-eye image and an interlace left-eye image.
  • (A) shows a progressive 3D moving image composed of progressive left-eye and right-eye images. This moving image is composed of frame images of 1920 ⁇ 1080 progressive system, and its frame rate is 24 Hz (23.976 Hz).
  • MVC Multiview Video Coding
  • FIG. 6B shows the image with horizontal stripes represents an interlace image.
  • an image without horizontal stripes represents a progressive image.
  • FIG. 3 (c) shows what data structures are assigned to these frame periods.
  • video access units are assigned to individual frame periods such as frames (1), (2), and (3).
  • Such video access unit constitutes a view component in MPEG4-MVC.
  • the left-eye image and the right-eye image subjected to superposition in (b) are decoded images of the view component of the base view and the view component of the dependent view.
  • the leader of (c) is a close-up of the internal configuration of the view component.
  • the view component is a video access unit delimiter stored NAL unit, NAL unit stored sequence parameter set, NAL unit stored picture parameter set, NAL unit stored MVC scalable nesting SEI message, variable stored compressed slice sequence A long NAL unit, an NAL unit storing a sequence end code, and an NAL unit storing a stream end code are arranged.
  • These base view components and dependent view components constitute independent video streams (base view video stream, dependent view video stream).
  • FIG. 4A shows a compressed slice data string stored in one video access unit.
  • the compressed slice data sequence stored in one video access unit consists of 68 slices from slice 1 to slice 68. Since each slice constitutes 1920 ⁇ 16 pixels, 68 of these are gathered to constitute one screen of 1920 ⁇ 1080 pixels.
  • the leader line cup 2 is close up of the internal configuration of the slice.
  • a slice consists of 120 macroblocks, and each macroblock stores a codeword of 16 ⁇ 16 images.
  • (B) shows the configuration of a macroblock.
  • the macroblock in this figure has a 16: 8: 8 format, and includes a macroblock (MB) header, a codeword of luminance Y of 16 ⁇ 16 pixels, a codeword of red color difference Cr of 8 ⁇ 8 pixels, 8 ⁇ 8 It is composed of the code word of the red color difference Cb of the pixel.
  • a picture reference is present, and a picture number assigned to a view component to be referred to at the time of macroblock decoding can be described here.
  • a frame image constituting a planar view moving image is one picture, and is formed by extracting and decoding a plurality of slices for one screen from NAL unit groups existing in one access unit in a video stream. Ru.
  • the picture reference in the macroblock refers to the picture number assigned to each piece of uncompressed picture data stocked as a reference picture in the decoded picture buffer in the MVC video decoder.
  • the picture type is managed in association with the picture number. Therefore, in the macro block, it is possible to introduce a restriction depending on the picture type as to which picture is excluded from the reference picture. For example, in a macroblock of a view component of a dependent-view video stream, it is possible to exclude a B-picture type view component from a reference picture. As described above, in the macroblock, the type of view component to be used for the reference picture can be limited depending on what picture number is used for the picture reference.
  • the view component of the baseview can be reproduced as a "picture".
  • the view component of the base view can constitute either a Closed-GOP or an Open-GOP, such as an MPEG2 video stream or an MPEG4-AVC video stream.
  • a view component consisting of slices encoded by intraframe coding is placed at the beginning.
  • Such a view component is a view component (view component of IDR type) composed of slices of IDR type.
  • the view component of the dependent view can be played back as a "picture". It is.
  • the view component of the dependent view can construct only Open-GOP. This is because the dependent view view component is encoded by the inter-view prediction encoding method and the inter-frame requirement encoding method, in which individual view components of the Closed-GOP in the base view video stream are used as a reference image. This is because that.
  • a view component consisting of slices encoded by interframe coding and interview coding is arranged.
  • Such a view component is a view component (view component of Non-IDR type) composed of slices of Non-IDR type.
  • FIG. 4C shows a set of Closed-GOP configured by the view component of the base view and the view component of the dependent view and the Open-GOP.
  • a plane that can be decoded independently out of a plurality of multi-view video streams constituting a stereoscopic video
  • visual reproduction reproduces a plurality of multi-view video streams (a base view video stream and a dependent view video stream)
  • stereoscopic reproduction is enabled.
  • individual view components constituting the dependent-view video stream are generally compressed by a prediction coding scheme based on inter-view correlation. This is because a video viewed from a certain viewpoint is known to have a strong correlation with a video viewed from another viewpoint. If the base-view video stream is partially deleted by the legacy device, the pictures that make up the dependent-view video stream lose reference pictures, and normal decoding becomes impossible.
  • a movie recording format that can not delete part of the content recorded by the 3D imaging device can not stimulate the consumer's willingness to purchase, and a strong request from a large-scale mass retailer, a planning department of a manufacturer, or a sales department Can not meet.
  • An object of the present embodiment is to realize editing of a stereoscopic video without incurring the collapse of inter-view dependency relation that the view component assumes.
  • the recording medium When overcoming the barriers to the implementation in the aspect of the recording medium, the recording medium records the stream file and the index file, and the index file includes the editability flag and the extended editability flag, and the editability is
  • the flag is information that defines whether the recording medium is handled as an editable medium by the device when the recording medium is loaded into the device, and the setting of the flag to ON enables the recording medium to be read. Indicates that it will be handled as editable media, and editing of stream files will be possible, editing of stream files will be possible, and it will be set to off to enable legacy equipment that does not support recording and editing of stereoscopic video. , This recording medium is taken as editable media.
  • the extended editability flag indicates that the editability flag is off when the recording medium is loaded on a non-legacy device compatible with recording and editing of stereoscopic video. Even if this is the case, it is sufficient that this recording medium indicates that it is treated as an editable medium by the non-legacy device, and that it is defined that editing of the stream file becomes possible.
  • Such an index file is first read from the recording medium at the time of loading the recording medium, and is resident in the memory of the playback device during the period in which the recording medium is loaded. If the editability flag and the extended editability flag are set in such an index file, it is possible to define the handling of editing unique to this recording medium.
  • the view component of the dependent view is assumed to be premised by prohibiting editing by a legacy device which does not support recording and editing of stereoscopic video. Since the inter-view dependency does not break down, it is possible to properly provide the stream file for editing while ensuring that the stereoscopic video is correctly edited.
  • the form capable of overcoming the implementation barrier can be sub-conceptified as follows.
  • a media movie database area exists in the recording medium, and the media movie database area is composed of a hierarchy of a plurality of subdirectories under a specific directory in the file system and files existing in each hierarchy of the subdirectories.
  • the index file is recorded in a specific directory
  • the stream file is recorded in a stream subdirectory
  • the index file includes an existence flag indicating whether or not stereoscopic content exists in the media movie database area
  • Extended editability flags may be generated in the index file, provided that the flag indicates stereoscopic content presence.
  • An edit target for which whether or not to edit by the flag is defined is "media movie database”.
  • Media movie database is data in which data elements constituting a digital movie work are stored for each type in corresponding subdirectories or files, and these data elements are associated with a plurality of titles in the index file It is an aggregate.
  • Such a media movie database is premised on a data structure that constitutes a movie in the planar view (2D) output mode, and as an extension thereof, a data structure that constitutes a movie in the stereoscopic (3D) output mode is added.
  • the media movie database has a directory file structure predetermined in the file system, and is guaranteed to be recognized as recorded data of a movie work by a reproduction device corresponding to the recording medium.
  • the recording medium is recognized as non-editable medium.
  • the recording medium can be set to be editable or non-editable in a form compatible with the movie recording format assuming stereoscopic reproduction.
  • BDMV database a media movie database specialized for recording movie works on Blu-ray disc.
  • the BDMV database is stored under a directory of a specific name called a BDMV directory.
  • the format for recording a movie work is constituted by a directory hierarchy under a specific directory (BDMV directory) in the file system and a data structure inside a file present in each hierarchy of this specific directory.
  • the form capable of overcoming the implementation barrier can be sub-conceptified as follows.
  • the non-legacy device treats the recording medium as editable media only when the extended editability flag is set to ON, the extended editor When the ability flag is set to off, the recording medium may not be treated as a editable medium by the non-legacy device.
  • the form capable of overcoming the implementation barrier can be sub-conceptified as follows.
  • the stream file includes one including a plurality of video streams indicating stereoscopic video and the other not including the video file.
  • the playlist information is recorded in the media movie database area, and the stereoscopic information is represented in the playlist information.
  • the playback path here is configured by arranging the playback sections defined on the time axis of the video stream present in the clip stream file according to a predetermined order.
  • a clip stream file is a combination of a clip information file and a stream file.
  • the clip information file is information corresponding to the stream file in one-to-one correspondence in order to enable random access of the stream, and it is required to read out to the memory in reading the source packet constituting the stream file.
  • the media movie database area is composed of a stream area and a non-stream area, the stream area is located on the inner circumferential side, the index file is written to the non-stream area, and the stream file is stored in the stream area It may be written.
  • the non-stream area is located on the inner peripheral side of the stream area, and the index file can be read to the memory prior to stream access.
  • the reproducing apparatus reads the stream file from the recording medium and reproduces the stream file, and the reading means for reading the index file and the stream file from the recording medium
  • the index file includes an editability flag, and the editability flag indicates that the recording medium is loaded by the device when the recording medium is loaded into the device. Is information that specifies whether or not to be treated as editable media, and being set to ON indicates that this recording medium is treated as editable media to enable editing to the stream file, and is set to OFF.
  • the encoder includes an encoder for obtaining a video stream by performing encoding processing, a video stream, and a writing means for writing an index file on a recording medium
  • a writing means for writing an index file on a recording medium
  • the ability flag either the on / off value is set in the editability flag and the extendability flag is associated with the editability flag, and the editability flag
  • the recording medium is loaded, it is information that defines whether the recording medium is treated as an editable medium by the device, and when the recording medium is set to ON, the recording medium is treated as an editable medium.
  • the extended editability flag indicates that the extended editability flag is set to ON when the recording medium is loaded to a non-legacy device compatible with recording and editing of stereoscopic video. Even if the capability flag indicates OFF, it is sufficient to define that this recording medium is treated as editable media by the non-legacy device.
  • the playback device compatible with recording and editing media is a 2D playback-only type, editing is not permitted, and if it is a 2D / 3D dual-purpose type, editing is permitted, thereby realizing handling in accordance with the loaded device. it can.
  • a media movie database area exists in the recording medium, and the media movie database area is composed of a hierarchy of a plurality of subdirectories under a specific directory in the file system and files existing in each hierarchy of the subdirectories.
  • the writing means writes the index file to the specific directory, writes the stream file to the stream subdirectory, and generates an existence flag in the index file when writing to the media movie database area, and the media movie database area
  • the value of the presence / absence flag may be set according to whether or not there is stereoscopic content inside.
  • the extended editability flag is generated as an index file in conjunction with the presence / absence flag which notifies the playback apparatus whether or not 3D content is included in the media movie database area, so that the process in the movie recording format playback apparatus is extended It is possible to realize the editing operation according to the extended editability flag.
  • the first embodiment is directed to a stereoscopic video stream
  • this embodiment aims to overcome technical barriers in the case where the movie recording format is revised in order to extend the attributes of the planar video stream.
  • a typical video stream in which each picture is an interlaced picture is a video stream (60i video stream) composed of 60 Hz interlaced pictures.
  • the 60i video stream refers to a video stream in which each picture is an interlaced picture and the frame rate is 29.97 (30000/100001) HZ. If this 29.97 Hz is converted into a field picture, the number of pictures per second is about 60.
  • a request for video stream attribute extension then arises.
  • the video streams covered by the attribute extension are "progressive video streams”. This is permitted to use MPEG4-AVC in a 1920 ⁇ 1080 format and a frame rate of 50 Hz or 60 Hz (59.94 Hz) (referred to as “AVC 1080 @ 60 P / 50 P video stream”).
  • AVC1080 @ 60P / 50P video streams those with a 60 Hz frame rate are called AVC1080 @ 60P video streams, and those with a 50 Hz frame rate are called AVC1080 @ 50P video streams.
  • the AVC1080 @ 60P video stream is a video stream composed of 1920 ⁇ 1080 progressive pictures and having a frame rate of 60 Hz. More specifically, since the number of images per second is 60 in the AVC1080 @ 60P video stream having an optional frame rate, the data size of the GOP is more than twice as large as the data size of the GOP of the AVC1080 @ 24P video stream The GOP is overscaled. Since the number of images per second is 60, the decode timing defined by the decode time stamp (DTS) and the reproduction timing defined by the presentation time stamp (PTS) are also set at precise time intervals. At the same time, the data interval pointed by the entry map is also precise.
  • DTS decode time stamp
  • PTS reproduction timing defined by the presentation time stamp
  • the AVC 1080 @ 60P / 50P video stream adopts MPEG4-AVC as a coding method, and does not adopt MPEG4-SVC (Scalable Video Coding).
  • MPEG4-SVC Scalable Video Coding
  • MPEG4-SVC is capable of reproducing moving images at multiple different resolutions, frame rates, and image qualities, including various types such as spatial scalability, temporal scalability, and SNR scalability.
  • the video is encoded with scalability, because it is not supported by the existing Blu-ray disc format.
  • AVC 1080 @ 50P video stream refers to a video stream that is composed of progressive pictures and has a frame rate of 50 Hz.
  • 60P is positioned on an extension of the NTSC system which is 60i. Since the 60i NTSC system is a worldwide television broadcasting system, the geographical range in which the use of 60P is assumed is the worldwide geographical range.
  • 50P is positioned as an extension of the PAL scheme, which is 50i. Since the 50i PAL system is a scan system in Europe, the usage range of 50P is also limited to the geographical range of Europe.
  • FIG. 5 shows three typical types of flat view video streams.
  • FIG. 5A shows an AVC1080 @ 60P video stream having an attribute of 1920 ⁇ 1080 progressive / 60.
  • FIG. 5 (b) shows an AVC1080 @ 60i video stream having an attribute of 1920 ⁇ 1080 interlace / 60.
  • FIG. 5C is a plan view moving image of the base view video stream shown in the first embodiment, which is an AVC 1080 @ 24 P video stream having an attribute of 1920 ⁇ 1080 progressive / 24.
  • each picture is an interlaced image.
  • An interlaced image is composed of two fields, an odd field and an even field.
  • FIG. 5B it is assumed that the image with horizontal stripes represents an interlaced picture.
  • FIG. 5A it is assumed that an image without horizontal stripes is a progressive picture.
  • the AVC1080 @ 24P video stream has a smaller number of images per second.
  • the movement of the model in the image is simmering, and the degree of reproduction of the fine movement falls.
  • the number of images per second is twice or more, the movement of the person in the image is expressed over the details, and a sense of movement is transmitted.
  • the legacy device has stream attributes such as 24P and 60i. Since it can recognize only the video stream, it can be rewritten to the stream attribute recognized by the legacy device. If the strange phenomenon that the progressive video stream stream attribute is lost occurs as it goes through various devices, it affects the various companies that manufactured these devices and recording media, and the industry It can be a whole problem. In addition, the merits of progressive video stream recording may be ruined, and the consumption of related products may be stagnant.
  • An object of the present embodiment is to realize editing security on a recording medium so that the sameness of stream attributes is not lost even when passing through various devices.
  • the stream file includes the stream file and the index file
  • the stream file includes the video stream
  • the video stream has a mandatory frame rate frame rate.
  • the frame rate is an optional frame rate
  • the frame rate is an optional frame rate
  • the editability flag is a main recording medium by the device when the recording medium is loaded into the device. Is information that specifies whether or not to be treated as editable media, indicating that the recording medium is treated as editable media to enable editing of the stream file by being set to ON, and is set to OFF.
  • the extended editability flag is optional.
  • the extendability flag is set to ON, even if the editability flag indicates OFF. It is sufficient to indicate that the recording medium is treated as editable media by the non-legacy device.
  • “mandatory frame rate (mandatory rate)” is a frame rate that can be decoded and reproduced by all versions of the reproducing apparatus.
  • the application standards of these discs have been repeatedly upgraded since the initial version issuance, but AVC1080 @ 24P video stream, AVC1080 @ 60i Video streams can be decoded and played back in all versions. Therefore, 24 Hz of the AVC1080 @ 24P video stream and 60 Hz of the AVC1080 @ 60i video stream become mandatory rates in the application standard of the BD-ROM disc.
  • the "optional frame rate (optional rate)" is a frame rate that can be decoded and played back by some playback devices.
  • the frame rate of 60 Hz which is the frame rate of the AVC 1080 @ 60 P video stream, is not considered to be decodeable / reproducible on the current BD-ROM disc, BD-R disc, BD-RE disc, but is decoded in near future standard revision ⁇ It will be possible to play back. Therefore, 60 Hz in the AVC1080 @ 60P video stream corresponds to the optional rate in the application standard of the Blu-ray disc.
  • the editability flag is set to off, editing by the legacy device is prohibited, but recording / editing of a video stream composed of a plurality of progressive pictures whose frame rate is an optional rate Editing by non-legacy devices corresponding to is enabled by the presence of the Extended Editability Flag. Since the editing by the legacy device is prohibited and the editing by the non-legacy device becomes possible, the editing to the recording medium is limited to the one by the non-legacy device.
  • playlist information is recorded on the recording medium
  • the playlist information is composed of a plurality of pieces of reproduction section information
  • the reproduction section information is information indicating the start point and end point of the reproduction section on the time axis
  • the reproduction And a stream selection table indicating elementary streams permitted to be reproduced in the section, the frame rate being an optional frame rate, and an entry of a video stream whose picture is a progressive picture is reproduction in any one piece of playlist information.
  • the extended editability flag may be generated as a low-level conceptualization such that it is generated in the index file, on the condition that such an entry exists.
  • the entry of the playlist information here constitutes a stream registration in the stream selection table in combination with the stream attribute.
  • stream registration when the play item to which the stream selection table (STN_table in BD-ROM disc) belongs is the current play item, what kind of stream is the elementary stream to be permitted to play? Is associated with the stream number, and stream registration has a data structure in which a combination of stream entry and stream attribute is associated with a logical stream number.
  • the stream numbers in the entry combined with the stream attribute are represented by integer values such as 1, 2, 3 etc.
  • the maximum number of stream numbers is the number of streams of the corresponding stream type.
  • a stream number register exists for each stream type, and an elementary stream designated by the stream number stored in the stream is an elementary stream currently to be played back, that is, a current stream. become.
  • the packet identifier of the elementary stream to be reproduced is described. Since the packet identifier of the elementary stream to be reproduced can be described in the entry in the stream selection table, the stream number in the stream registration is stored in the stream number register of the reproduction apparatus, and the packet identifier in the stream entry in the stream registration And causes the playback device to execute packet filtering based on the PID filter of the playback device. By doing this, the TS packets of the elementary stream for which reproduction is permitted in the stream selection table are output to the decoder, and the elementary stream is reproduced.
  • stream registrations in the stream selection table are arranged according to the order of stream numbers, and the order of stream registration based on the order of stream numbers is “playable by playback device”, “language attribute of stream is played back When there are a plurality of streams satisfying the condition of “matching the language setting of the device,” the stream to be selected is determined by the order of the stream numbers in the stream registration sequence.
  • the parent screen video stream is a video stream (primary video stream) composed of pictures scheduled to be fitted to a child screen in picture-in-picture. Whether to perform picture-in-picture is determined by the playback device. When the playback device selects non-picture-in-picture display, screen display is performed only with this parent screen video stream.
  • the main audio audio stream is an audio stream that should be a main audio when mixing playback is performed
  • the sub audio stream is an audio stream that should be sub audio when performing mixing playback.
  • the sub audio stream has information for downsampling for this mixing and information for gain control.
  • a presentation graphics (PG) stream is a graphics stream that can realize precise synchronization with video by adopting a pipeline for a decoder, and is a graphics stream suitable for subtitle display.
  • the use of the PG stream is not limited to character reproduction such as subtitles, because the precise synchronization with moving images is realized by the implementation of the decoding operation by the pipeline.
  • An interactive graphics (IG) stream is a graphics stream capable of displaying a menu as the playback of a video stream progresses and displaying a pop-up menu in accordance with a user operation by providing information of interactive operation.
  • the reproducing apparatus comprises: reading means for reading out the index file and the stream file from the recording medium; and reproducing means for reproducing the video stream in the read stream file.
  • the index file includes an editability flag, and the editability flag is information specifying whether the recording medium is treated as an editable medium by the device when the recording medium is loaded into the device.
  • playlist information is recorded on the recording medium
  • the playlist information is composed of a plurality of pieces of reproduction section information
  • the reproduction section information is information indicating the start point and end point of the reproduction section on the time axis
  • the reproduction And a stream selection table indicating elementary streams permitted to be played back in a section, the frame rate being an optional frame rate, and an entry of a video stream whose picture is a progressive picture is any playback section in the playlist information If present in the stream selection table of information, extended editability flags are generated in the index file, subject to the presence of such entries.
  • the playback device is described in a stream number register for storing the current stream number, a playback section information number register for storing the number of current playback section information in the playlist information, and a stream selection table of current playback section information in the playlist information.
  • a demultiplexing unit for demultiplexing one of the plurality of elementary streams corresponding to the current stream number, wherein the reproduction unit has an optional rate of a frame rate among the elementary streams obtained by the demultiplexing;
  • a sub-conceptification is possible that includes a video decoder that decodes a video stream composed of progressive pictures.
  • the playback device executes the stream selection procedure based on the stream selection table present in the individual playback section information in the playlist information.
  • the stream selection procedure is one that satisfies the condition that "the playback device can play back" or "the language attribute of the stream matches the language setting of the playback device" from the stream registration sequence of the stream selection table. It is a selection procedure of judging and selecting one of these, and the stream selection procedure is executed when the current play item is switched to a new one, and when the user requests stream switching. .
  • request for stream switching includes types such as issue of set stream command, issue of stream tenge UO, and call of set stream API.
  • a non-legacy device capable of recording and editing progressive pictures at an optional rate searches for an entry of progressive video at an optional rate from the stream selection table to be subjected to the stream selection procedure. This makes it possible to appropriately set the handling of whether the loaded recording medium is to be editable media or non-editable media without searching the contents of all files in the media movie database area.
  • the demultiplexing and decoding are performed by the rewritable medium reproduction apparatus on the premise of the presence of the stream selection table, it is possible to cause the rewritable medium reproduction apparatus to reproduce the progressive video stream on the assumption of editing.
  • the BDMV Recording Specification defines a subset of BDMV that enables real-time recording-editing of BDMV content.
  • the format of this subset is called Realtime Recording Editing Format (RREF), and is for adapting the recorded version of the data format of the BD-ROM disc to real time recording and editing processing.
  • RREF Realtime Recording Editing Format
  • the BDMV Recording Specification which corresponds to the recording of the AVC1080 @ 60P / 50P video stream and / or the recording of the MVC1080 @ 60i / 50i video stream, is positioned in the latest version, version 3.1, in the Blu-ray Rewritable format. . Therefore, the product level format targeted in the embodiment of the present application is Blu-ray Rewritable version 3.1 format (BDMVRecording Specification + RREF format).
  • the Blu-ray Rewritable format version 3.1 defines transmission and restriction of a BD-ROM application format for recording and editing BDMV content in BD-RE and BD-R. Then, the version of the BD-ROM format Part 3 to which the Blu-ray Rewritable format version 3.1 refers is “version 2.5”.
  • the recording of the BDMV database according to Blu-ray Rewritable format version 3.1 is for realizing the following personal BDMV content authoring, BDMV real-time recording and editing.
  • Personal BDMV content authoring assumes write-once and non-editing scenarios. These write-once and non-editing scenarios are present in BD-ROM titles that are completed by the user and do not allow later editing.
  • BDMV Realtime Recording and Editing (BDMVRecording Specification + RREF) assumes a use case of rewritable and editable. This is what the recorder covers video recordings obtained by the camera. In order to enable this coverage, RREF supports editing and deleting operations of contents by manufacturing products (industrial products) manufactured by different manufacturers. Any manufacturing product that edits any RREF content maintains the RREF configuration. This is done by updating the database, editing operations, and operating menus.
  • a recording apparatus compatible with the Blu-ray Rewritable version 3.1 format is assumed to be a non-legacy device. It is assumed that a recording device that does not correspond to the Blu-ray Rewritable version 3.1 format and that corresponds to only the format of version 3.0 or less is a legacy device.
  • index.bdmv Describe the description of an index file in an object oriented programming language.
  • the index file in the BDMV database is called Index.bdmv.
  • FIG. 6 shows the syntax of Index.bdmv in an object-oriented programming language for BD-ROM discs.
  • the index file includes type_indicator, version_number, indexes_start_address, extension_data_start_address, reserved_for_future_use, AppInfo BDMV, for statement defining N1 padding_word, indexes, N2 It consists of a for statement that defines padding_word and ExtensionData.
  • FIG. 6B shows the data structure of AppInfo BDMV in Blu-ray Rewritable version 3.0, which is the format of a conventional rewritable medium.
  • FIG. 6B in the format in Blu-ray Rewritable version 3.0, editability_flag, reserved_for_future_use, and content_provider_use_data are defined in AppInfo BDMV.
  • FIG. 6 (b) in FIG. 6 (c), together with the role as information (editability_flag) indicating editability, information (extended_editability_flag) indicating editability of version 3.1 is defined.
  • FIG. 6C shows the data structure of AppInfo BDMV data expanded for BDMVRecording + RREF.
  • the extension in this case adopts editability_flag indicating rewriteability as editability_flag as it is and replaces 3 bits of 15 bits of reserved_for_future_use with initial_output_mode_preference, SS_content_exist_flag, and extended_editabitily_flag. Since the editability flag corresponding to the 32-bit (b32) bit of the data structure expanded in FIG. 6C corresponds to the position of the conventional editability_flag, the legacy device determines it as the editability information.
  • extended_editability_flag which corresponds to the 35th bit (b35), corresponds to the position of the conventional reserved area, so its value is invalid for the legacy device. Therefore, in the BDMV database containing 3D content, if the value of editability_flag is set to “0”, the legacy device can set the value of extended_editability_flag to “1” to enable editing with 3D content. It does not recognize the value. As long as the value of editability_flag is “0”, the BDMV database including 3D content is not erroneously edited by the legacy device.
  • the "editability_flag” is defined as reserved in the BD-ROM part 3-1. If this field is 0, it indicates that the medium is non-editable media. Non-editable media is bound by the BDMV Recording Specification, but the RREF may or may not be followed accordingly. When the editability_flag is set to "1", it indicates that the handling of the recording medium in which the index file is recorded is to be “editable medium”. The contents of this editable media conform to the format of RREF added to the BDMV Recording Specification. If the value of editability_flag is “1”, this disc is determined to be “editable” and will be edited.
  • “Initial_output_mode_preference” is a preference for the initial output mode in the disk, where "0" indicates 2D output mode and “1" indicates 3D output mode.
  • the playback device is set to the 3D output mode at the time of loading the disc, on the premise that the stereoscopic display capability exists in the display device.
  • SS_content_exist_flag indicates whether the profile 5 function is used. This field is set to "1" if any of the following conditions are met.
  • the “profile 5” is an application profile corresponding to stereoscopic reproduction. Therefore, even if there is no 3D playlist in the title corresponding to the operation mode object or there is no playlist itself, such a bytecode application is a graphics plane device for the left eye and a graphics plane device for the right eye in the HAVi screen device.
  • “SS_content_exist_flag” is set to “on”.
  • the 3D contents in this specification are not only those composed of the MVC1080 @ 50i / 60i video stream and the MVC1080 @ 24p video stream, but the bytecode application can make left eye graphics and right eye graphics for HAVi screen devices. It also includes 3D images that are realized by drawing.
  • “Extended_editability_flag” is AppInfoBDMV data when the condition (A) based on the presence of 3D content and / or AVC1080 @ 60P / 50P video stream is fulfilled as defined by the if statement in FIG. 6C. It is generated. If the condition (A) is not met, this field will be "0". If the value of editability_flag is “0”, this disc is determined to be “uneditable” in the recording device that is a legacy device, but the condition based on the presence of stereoscopic content and / or the AVC1080 @ 60P / 50P video stream ( When the condition (A)) is satisfied, the determination as to the editability is made by newly provided exercised_editability_flag.
  • the extended_editability_flag is for non-editable media or editable media for BD-R / BD-RE that support a higher version than the version of this format (RREF) Indicate which one to handle. If the extended_editability_flag field is “0”, the disc is treated as non-editable media, and if the extended_editability_flag field is “1”, it is editable media, regardless of the value of editability_flag (regardless of the editability_flag), Indicates that it is treated as editable media.
  • the disc is determined as "editable” regardless of the value of the editability_flag, and the disc can be edited if the value of the extended_editability_flag is "1". If the value of extended_editability_flag is "0”, it is determined that "edit is not possible", and the disc can not be edited.
  • Video_format indicates the video format in the high bandwidth digital output function using a 4-bit value. At the time of disc insertion, this video format can be determined by negotiation.
  • “Frame_rate” is a 4-bit value that indicates the video rate in the high bandwidth digital output function. At the time of disc insertion, this video rate can be determined by negotiation. Either video_format or frame_rate can be set to 0. If either is set to 0, both fields are ignored by the playback device.
  • FIG. 6 (d) shows the meaning of the bit position of AppInfo BDMV data of the conventional BD-RE disc shown in FIG. 6 (b) and the bit position of AppInfo BDMV data expanded in the present embodiment shown in FIG. 6 (c). It is a figure which compares and shows in table form how it changes in each.
  • the arrangement of items in the horizontal direction indicates the bit position from b0 to b48 of AppInfo BDMV, and the arrangement of items in the vertical direction indicates conventional AppInfo BDMV data (AppInfo BDMV data @ conventional) and extended AppInfo BDMV data (App Info BDMV data @ extended). .
  • How to read the table in this figure is as follows. First select the item you want to find from the horizontal items. Then choose from the vertical items you want to find.
  • AppInfo BDMV data (AppInfo BDMV @ extended) corresponding to BDMVRecording Specification present in the bit position
  • conventional AppInfo BDMV data (App Info BDMV @ conventional) corresponding only to BD-ROM disc. Can understand what is being done.
  • b32 is an editability_flag in the extended format which is Blu-ray Rewritable version 3.1 and the normal format which is Blu-ray Rewritable version 3.0, and these play the same role. Then, it can be understood that the Blu-ray Rewritable version 3.1 non-compatible playback apparatus can read.
  • b33 to b39 become initial_output_mode_preference, SS_content_exist_flag, extended_editabitily_flag, and are read by the 3D recording / editing apparatus.
  • the 2D reproduction apparatus ignores the reserved area reserved for future use while acquiring meaningful information. Or even if the 2D playback device reads it will not perform any function.
  • FIG. 6 is provided in Index.bdmv when any of the following conditions is satisfied.
  • FIG. 7 is a diagram for explaining the conditions for generating the extended_editability_flag.
  • the first condition is the presence of 3D content in the disc. Whether or not 3D content exists can be determined by SS_content_exist_flag in AppInfo BDMV () of index.bdmv. If SS_content_exist_flag is “1”, 3D content exists in the disc, and condition (A) becomes TRUE.
  • the second condition is that content including Primary Video Entry of Progressive video exists in the BDMV database.
  • the Primary Video Entry is a stream entry storing the PID of the parent screen video stream (primary video stream) of Picture-in-Picture, and is MPEG-4 AVC@1920x1080/59.94p or MPEG-4 AVC @ 1920x1080 / 50p. It is the one that is paired with the stream attribute of. Specifically, Primary Video Entry indicates the following 1) and 2).
  • stream_coding_type 0x1B (that is, the codec is MPEG-4 AVC)
  • video_format 6 (i.e., resolution 1920 x 1080 p)
  • frame_rate 6 or 7 (i.e., frame rate 50 Hz or 59.94 Hz).
  • FIG. 8 shows, in the form of a table, the conditions under which the editability_flag must be 0 and the handling of the recording device when the extended_editability_flag is “1”.
  • the upper part of the table shows the condition that the editability_flag must be set to 0, and the lower part of the table shows the handling of the recording apparatus when the extended_editability_flag is “1”.
  • the disc on which the 3D content and the progressive video content are recorded is reproduced by the conventional reproduction apparatus because the reproduction is compatible with the conventional reproduction apparatus.
  • the editability flag is set to “0” to prohibit editing on the conventional device.
  • the recording apparatus according to Blu-ray Rewritable version 3.1 format (BDMVRecording Specification + RREF) is treated as editable media.
  • the syntax of the index file in Blu-ray Rewritable version 3.1 format (BDMVRecording Specification + RREF format) is defined, and the meaning of the setting value of extended_editability_flag is defined, thereby specifying the BD-R disc and BD-RE disc.
  • the index file can be recorded on the recording medium and subjected to processing by the recording device.
  • the above is the form in the recording medium.
  • the form of the playback device will be described.
  • the processing corresponding to the above-described Index.bdmv may be performed by the reading unit.
  • FIG. 9 specifically describes the improvement of the reading means.
  • FIG. 9 is a flowchart showing a procedure of determining whether the recording device of the non-legacy device can edit the disk recorded in the extended format. After reading Index.bdmv from the disk, first check the value of editability_flag (B0001). If the value of editability_flag is "1”, the playback device determines that this disc is "editable” (G0001). If the editability_flag is “1”, editing is permitted regardless of whether the playback device supports 3D and Progressive Video.
  • condition (A) is “TRUE” if the content of MVC 1080 @ 24p / 50i / 60i and / or Progressive video content is included in the disc, and “FALSE” if both are not included. . Therefore, first, whether or not the video content includes the MVC 1080 @ 24p / 50i / 60i 3D video content is determined according to the value of SS_content_exist_flag (C0001).
  • condition (A) returns TRUE.
  • SS_content_exist_flag If the value of SS_content_exist_flag is “0”, then it is checked whether there is a progressive video content. The determination as to whether or not there is progressive video content is made by examining the STN_table of all PlayLists in the disc (C0002).
  • editability_flag if the value of editability_flag is “1”, a playback apparatus that supports only Blu-ray Rewritable format version 3.0 or less can determine that this disc is “editable” and edit it. Also, if the value of editability_flag is “0”, a playback device that supports only Blu-ray Rewritable format version 3.0 or less can not judge this disc as “uneditable” and can not edit.
  • the value of editability_flag is set to "0", so it supports only Blu-ray Rewritable format version 3.0 or less
  • the playback device can not edit the disc on which the 3D video content of MVC1080 @ 24p / 50i / 60i or the Progressive video content is recorded.
  • FIG. 9 describes the method of determining the editability determination for the BD disc on which the BDMV database is already recorded
  • the recording apparatus may record the BDMV database on a non-recording medium (blank disc). , Are required to be recorded along the same rules as described above.
  • FIG. 10 is a flow chart showing the procedure for determining the possibility of editing when newly recording content on a blank disc.
  • 3D video content of MVC1080 @ 24p / 50i / 60i is to be recorded (B0010). If Yes, in the case of including 3D video content of MVC1080 @ 24p / 50i / 60i, editing should be prohibited on the legacy device, so SS_content_exist_flag is set to 1, editability_flag is set to 0, and extended_editability_flag is set to X.
  • the BDMV database does not include 3D video content of MVC1080 @ 24p / 50i / 60i, it is determined whether to record an AVC1080 @ 60P / 50P video stream (B0011). If not recorded (No in B0011), the BDMV database is only 2D content, and editing on a 2D device must be enabled, so set SS_content_exist_flag to 0, set extended_editability_flag to the reserved area, and set editability_flag to Y. .
  • the recording medium on which the 3D video content of MVC1080 @ 24p / 50i / 60i is recorded by the 3D photographing apparatus is a Blu-ray Rewritable non-compliant recording device of version 3.1, a Blu-ray Rewritable compatible version of recording of version 3.1.
  • the case loaded into the device is shown.
  • eject1 indicates the ejection of the recording medium from the 3D imaging apparatus, and in this state, the AppInfo BDMV data in the index file of the recording medium is set to off editability_flag and on extended_editability_flag.
  • the insert 2 in the figure indicates the loading of the recording medium into the Blu-ray Rewritable version 3.1 non-compliant recording device.
  • the insert 1 indicates the loading of the recording medium into the recording device compatible with Blu-ray Rewritable version 3.1. Since the editability_flag is set to off and the extended_editability_flag is set to on, the recording device corresponding to Blu-ray Rewritable of version 3.1 can perform partial deletion of deleting an intermediate part of the stereoscopic video.
  • FIG. 12 shows a case where the recording device performs TV recording of TV broadcast.
  • the arrow eject2 in the figure indicates the ejection that the recording medium having undergone the recording is ejected from the recording apparatus.
  • the BDMV database which is a recorded material in the recording medium, contains 3D video content of MVC1080 @ 24p / 50i / 60i
  • SS_content_exist_flag is set to ON
  • editability_flag is set to OFF
  • extended_editability_flag is set to ON.
  • Arrow insert 3 indicates loading to a non-Version 3.1 non-compliant playback device.
  • the insert 4 indicates the loading of the recording medium into the recording device corresponding to Blu-ray Rewritable of version 3.1. Since SS_content_exist_flag is ON, editability_flag is OFF, and extended_editability_flag is ON in Index.bdmv, the recording device corresponding to Blu-ray Rewritable of version 3.1 partially deletes the middle part of the stereoscopic video. Becomes possible.
  • the revised format is added to the editing object.
  • the scope of the edit target can be expanded, and high added value of the recording apparatus and the recording medium can be achieved.
  • the BDMV Database formats can be constantly updated with new improvements, and rationalization and optimization of formats can be pursued.
  • a BDMV database that can realize interlaced 3D playback supports 3D playback with an MVC 1080 @ 24P video stream, but does not support interlaced 3D playback with an MVC 1080 @ 60i / 50i video stream in a conventional 3D playback device It must be created with data structures that will not cause problems when loaded.
  • a base-view video stream and a dependent-view video stream are selected according to a stereoscopic version (referred to as STN_table_SS) of a stream selection table.
  • STN_table_SS a stereoscopic version of a stream selection table.
  • stream attribute information on interlaced video in STN_table_SS means that information unknown to the player is included in STN_table_SS, which may cause a malfunction.
  • An object of the present embodiment is to enable provision of an interlaced video by a recording medium while avoiding a malfunction when loaded into a playback apparatus that is not compatible with stereoscopic playback by an interlaced video.
  • the recording medium capable of overcoming the implementation barrier is extent data of a version in which playlist information and stream files are recorded and playlist information is not compatible with stereoscopic reproduction with interlaced images.
  • the identification information to which the first value is set is added to the second information, and the second value is the playlist information, which is the extent data of the playlist information of the version corresponding to the stereoscopic reproduction by the interlaced image.
  • the identification information to which the second identification information is attached includes the stream selection table for stereoscopic vision, and the stream selection table for stereoscopic vision is an interlace type view. Packet Identification of Dependent-View Video Stream Consisting of Components An entry containing the child sufficient that shown in association with the stream attribute of interlaced video.
  • the playback apparatus capable of overcoming the implementation barrier performs demultiplexing on the version register storing the version of the apparatus, reading means for reading the transport stream from the recording medium, and the read transport stream.
  • the stream selection table is acquired from the extent corresponding to the first value identifier among the extents in the playlist information, if the version is not a specific version corresponding to stereoscopic vision by interlaced video, and If the version of the device is a specific version corresponding to stereoscopic vision by interlaced video, the stream selection table is acquired from the extension data in the playlist information that is associated with the second value identifier, In the stream selection table obtained , Demultiplexing of a dependent-view video stream having an attribute of an interlaced video using a packet identifier in the stream entry associated with the stream attribute, the first value being a progressive video It is a value recognized by a device that can only reproduce stereoscopic vision, and the second value may be a value that can be recognized by a device capable of stereoscopic playback with progressive video and
  • extension data is secured for storing private data in an index file, a movie object, a movie playlist, and clip information, and one of two types of IDs such as ID1 and ID2 is assigned.
  • the ID 1 identifies extension data that is private to the manufacturer in which the manufacturer private data is registered.
  • the value assigned by the licensor of this BDMV Recording Specification is encoded and set in this ID1.
  • the encode value that can be set as ID1 is a numerical value in the range of 0x0000 to 0x0FFF.
  • ID2 identifies the extension data defined by the licensed manufacturer. Specifically, in the extension data to which ID2 is assigned, a model number code which is a recording device and in which maker private data is registered in advance is arranged. Since the model number code of the extension data is arranged, by referring to the extension data of the index file, the movie object, and the movie play list, it is possible to determine which recording apparatus has made such recording.
  • the extension data to which ID1 to which the encode value "0x0002" is set is added is used for storing STN_table_SS.
  • STN_table_SS which permits the reproduction of the MVC 1080 @ 60i / 50i video stream to the extension data of ID 1 in which “0x0002” is set.
  • the STN_table_SS permitted to reproduce the MVC 1080 @ 60i / 50i video stream is unknown information for a reproduction apparatus not compatible with version 3.1, and the STN_table_SS is supplied to the reproduction apparatus to cause a malfunction. .
  • FIG. 13 shows a syntax in the case of creating a playlist information file in an object oriented programming language.
  • Plalist () in the figure is a part that defines main path information and sub path information.
  • PlayListMark () is a part that describes playlist mark information
  • ExtensionData () is a part that describes the above-mentioned extension data. These addresses are described in PlayList_start_address, PlayListMark_start_address, and ExtensionData_start_address.
  • the main path information, the sub path information, and the playlist mark information will be described below.
  • the main path information is composed of one or more pieces of main reproduction section information.
  • the main playback section information is called play item information, and information defining a logical playback section by defining one or more pairs of a time point of In_Time and a time point of Out_Time on the TS reproduction time axis. It is.
  • the playback apparatus includes a play item number register that stores the number of the current play item, and among the plurality of pieces of play list information, the one stored in the play item number register is the current playback target.
  • the play item information which is a reproduction section includes stream reference information.
  • the stream reference information is clip information file name information (clip_information_file_name), and indicates a clip information file which manages a transport stream constituting a play item as a clip stream file.
  • the secondary playback section information is called sub path information and is composed of a plurality of sub play item information.
  • the playlist mark information is information defining mark points specific to the playback section, and a reference indicating the playback section, a time stamp indicating where the mark point is on the time axis of the digital stream, and a mark of the mark point.
  • attribute information indicating an attribute. In the attribute information, whether the mark point defined by the playlist mark information is a link point that can be linked by a link command but is not a selection target when the chapter skip operation is performed by the user, or by a link command It indicates whether the link is possible and is an entry mark to be selected when the chapter skip operation is performed by the user.
  • the above is the description of the playlist information file.
  • ID1 to be assigned to the index file may be changed to another value.
  • the stream selection table stereo version is to be subjected to processing by the playback device as one of the Extention_Data in this syntax.
  • the arrow cul1 in FIG. 13 shows a close-up of the internal configuration of the ExtentionData.
  • the ExtensionData is assigned an ID 1 of 0x0004, and an STN_table_SS exists therein.
  • the lead line cul2 shows the close-up of the internal configuration of STN_table_SS.
  • STN_table_SS indicates set values of video_format and frame_rate in the case where the stream_attribute_SS of STN_table_SS includes interlaced 3D video.
  • video_format is set to 4 (1080i)
  • frame_rate is set to 3 or 4 (25 Hz, 29.97 Hz).
  • the values of 25 Hz and 29.97 Hz are obtained by converting 50 Hz / 59.94 Hz (field) of the MVC 1080 @ 50i / 60i video stream into the number of frames per second.
  • Program information SS, extent start point information, and feature point information SS are the information elements arranged in the extension data to which the ID 1 of 0x0004 is given in the clip information file.
  • Program information SS is an extension of program information for stereoscopic viewing.
  • the program information is information indicating the program configuration of the main TS and the sub TS in the clip stream file, and indicates what elementary stream the clip stream file is multiplexed. Specifically, it indicates what packet identifiers the elementary streams multiplexed in the clip stream file have, and what video format and frame rate they have.
  • Program information SS differs from normal program information in that the combination of the video format and the frame rate is defined as follows.
  • the extent start point information is information for separating a plurality of extents present in a stereoscopic interleaved stream file into an ATC sequence including a base video stream and an ATC sequence including a dependent-view video stream.
  • the feature point information SS is an extension of the feature point information in the clip information file for stereoscopic reproduction.
  • General feature point information will be described.
  • Feature point information defined in the Blu-ray ReadOnly disc format is information indicating, for each elementary stream, where the feature points of a plurality of elementary streams multiplexed in a clip stream file exist. .
  • Information indicating feature points of each elementary stream is called an entry map (EP_map). What is the feature point differs depending on the type of stream.
  • an access unit delimiter indicating the beginning of an I-picture type view component located at the beginning of an Open-GOP or Closed-GOP is a feature point.
  • the feature points in the ATC sequence are represented by source packet numbers.
  • the same feature points are represented using PTS indicating time points on the STC time axis.
  • the entry map is composed of a plurality of entry points.
  • each entry point constituting the entry map has a source packet number indicating the location of the feature point in the ATC sequence associated with a PTS indicating the location of the feature point in the STC sequence, and the features thereof
  • a flag is_angle_change flag
  • I_size information indicating the size of an intra picture present at the head of a GOP.
  • the entry map for each elementary stream indicates the source packet number of the feature point for each stream type in association with the PTS. Therefore, by referring to this entry map, from an arbitrary time point in the STC sequence, A source packet number can be derived that indicates the location of the feature point for each elementary stream closest to the point in time.
  • the above feature point information is for planar view and does not cover the feature points of the dependent-view video stream.
  • feature point information SS for stereoscopic vision in the clip information file
  • EP_map_SS that associates the PTS on the time axis of the MVC1080 @ 60i / 50i dependent-view video stream with the SPN Including.
  • Such program information SS, extent start point information, and feature point information SS are registered in the extension data of the clip information file in ID 1 of the encode value of “4”.
  • the stream selection table SS (STreamNumber_table_StereoScopic (SS)) is a stream selection table used together with the stream selection table only in the 3D output mode, and is selected when playing a play item or a sub path related to the play item. Define an elementary stream that can be done. Here, when there are N play items of play items # 1 to #N, stream registration sequences corresponding to each of the play items # 1 to #N are provided in the stream selection table SS.
  • Each stream registration information in the stream registration sequence includes a stream number, a stream entry corresponding to the stream number, and a stream attribute.
  • the stream entry includes a packet identifier (PID), and by using this, it is possible to cause the PID filter to demultiplex the elementary stream to be used only during 3D playback.
  • PID packet identifier
  • the stream selection table SS means an extension specific to the 3D output mode
  • the playlist in which the stream selection table SS (STN_table_SS) is associated with each piece of play item information is referred to as “3D playlist”.
  • a stream entry and stream attribute of an MVC1080 @ 60i / 50i dependent-view video stream with a stream number attached (1) a PG stream for the left eye constituting stereoscopic presentation graphics
  • a stream number is added to the stream entry and stream attribute of the PG stream for the right eye (2)
  • a stream number is assigned to the stream entry and stream attribute of the IG stream for the left eye and the right eye for configuring stereoscopic interactive graphics (3)
  • a stream entry of a PG stream or text subtitle stream which is a subtitle stream that may be permitted to be reproduced in 1 plane + Offset, in the case of adopting an upper end arrangement layout of arranging subtitles at the upper end
  • the stream attribute is assigned stream number (4), and when adopting a bottom layout layout where subtitles are arranged at the lower end of the screen, a stream of PG stream or text subtitle stream which is a subtitle stream that can be reproduced with 1 plane + offset
  • 1 plane + offset is an output mode for realizing stereoscopic vision using one piece of graphics by changing the coordinates of the pixel in the plane memory in the left direction and the right direction in one frame period.
  • the amount of change in this 1 plane + Offset mode is present in the MVC scalable nesting SEI message (see FIG. 3C) of the video access unit present at the beginning of the GOP in the dependent-view video stream, and A unique value is set for the frame.
  • the stream entry in the stream selection table SS is a packet identifier that the playback device should use for demultiplexing when the corresponding stream number is set in the stream number register of the playback device when the playback device is set to 3D output mode.
  • the difference from the stream selection table in the play item information is that the stream registration sequence in STN_table_SS is not a target of the stream selection procedure. That is, the stream registration information in the stream registration sequence in the stream selection table is interpreted as the priority of each elementary stream, and the stream number in any of the stream registration information is written to the stream number register.
  • the stream registration sequence in STN_table_SS is not the target of the stream selection procedure, and the stream registration information in STN_table_SS is the stream entry and stream corresponding to the stream number when any stream number is stored in the stream number register. It is used only for the purpose of retrieving attributes.
  • the sub path entry extension is an entry for specifying where the elementary stream for stereoscopic vision exists, and the entry ID of the clip information of the clip stream file including the elementary stream, sub path ID, stream PID including.
  • the above is the description of the sub path entry extension.
  • the in-plane activation information defines which part of the pixel area in the video plane is to be made effective and the display frame for the moving image is arranged when the corresponding playlist information is selected as the current playlist.
  • Information which is composed of bottom_margin, top_margin, top_down_offset, and bottom_up_offset.
  • Top_margin and bottom_margin define the vertical width of the upper end area of the screen and the vertical width of the lower end area when the normal layout is adopted for the video plane.
  • bottom_up_offset is an offset that indicates how much the lower end is extended by shortening the upper end of the screen and pulling up the display frame of the moving image when adopting the lower end layout to arrange at the lower end of the subtitle screen; When adopting a layout, it is used in place of top_margin.
  • top_down_offset is an offset indicating how much the top edge of the screen is expanded to lower the display frame of the moving image when adopting the top edge layout to be placed at the top edge of the subtitle screen, when adopting the top edge layout In place of top_margin.
  • the extension data access at the time of playlist playback is as follows.
  • Describe playback based on playlists When playback is instructed by a movie object or bytecode application, the version of the playlist is checked.
  • clip_information_file_name of the play item information that is the current play item in the playlist is checked.
  • STN_table_SS and the sub path extension are extracted from the extension data to which ID 1 of 0x0004 is given. If not, STN_table_SS and a sub path extension are extracted from the extension data in which ID1 of 0x0002 is arranged.
  • the PID of the MVC1080 @ 60i / 50i video stream is set in association with the stream attribute of the MVC1080 @ 60i / 50i video stream, and the dependent view is for the sub path entry extension Since the packet identifier of the video stream is described, based on this, it is possible to cause the PID filter to demultiplex the base view video stream and the dependent view video stream. Furthermore, using STN_table_SS, it is possible to realize stereoscopic reproduction using the PG stream for the left eye / right eye and the IG stream for the right eye for the left eye, and 1 plane + offset reproduction of the PG stream, IG stream, and text subtitle stream.
  • program information SS is extracted from the extension data to which ID1 of 0x0004 is given. Otherwise, the program information SS, the feature point information SS, and the extent start point information are extracted from the extension data to which ID1 of 0x0002 is assigned.
  • the program information SS extracted from the extension data to which ID1 of 00x0004 is given has a coding method and video format of the MVC 1080 @ 60i / 50i video stream, and a stream attribute indicating a frame rate.
  • the ATC sequences 1 and 2 are separated according to the extent start point information extracted from the ID 1 of 0x0004, and random access is performed according to the feature point information.
  • the present embodiment describes improvement in the correspondence between the operation mode object program in the index file and the title.
  • the index file defines the correspondence between a plurality of title numbers that can be stored in the title number register of the playback apparatus and the operation mode object program.
  • the title numbers in the title number register have numbers such as 0, 1 to 999, and an undefined value (0xFFFF).
  • Title number 0 is the title number of the top menu title.
  • the top menu is the menu located at the top of the menu hierarchy in the recording medium, and corresponds to the basis of the transition structure between titles that transition from title to title.
  • the top menu title is a title which can call up the top menu by menu call operation by the user.
  • the title number of the indeterminate value (0xFFFF) is the title number of the first play title.
  • the first play title is a title that warns the viewer, displays a logo by the content provider, etc. immediately after loading the recording medium.
  • the operation mode object program is a combination of object data and a program that defines the operation mode of a title when the title becomes the current title.
  • the operation mode object program includes object data for the operation mode, one in which program files are combined into one file, and one in which the object data and program are divided into separate files.
  • the former operation mode object program is a movie object activated in a command-based operation mode. Movie objects consist of navigation commands.
  • the operation mode object data sets whether or not resume at the time of a title call, and the like.
  • the latter operation mode object program is a combination of a byte code application activated in a byte code interpreter-based operation mode and operation mode object data.
  • the operation mode object data includes an application management table for application signaling, and causes the playback apparatus to perform a title boundary operation by the operation mode object.
  • the operation mode object is called a BD-J object
  • the byte code application whose operation is specified by this BD-J object is called a BD-J application. .
  • the index file has an entry (title index) corresponding to each title number, and by describing the operation mode program file and the title access type in each title index, how each title is It defines in detail whether it operates in various operation modes.
  • title index corresponding to each title number
  • a playlist group reproduced with a first play title or a top menu title must not include an AVC1080 @ 60P / 50P video stream. If you intend to play a playlist that includes a stream selection table with an entry that allows playback of AVC1080 @ 60P / 50P video streams in the first play title or top menu title, prepare an Orte native playlist including a mandatory format. There must be.
  • the HDMV navigation command or BD-J application must check the AVC 1080 @ 60P / 50P video stream capabilities (50 & 25 Hz capabilities if necessary) to decide whether to play back the playlist. For titles other than first play titles and top menu titles, authoring must be as follows. When the playlist reproduced from the title includes an AVC 1080 @ 60P / 50P video stream, reproduction is instructed by a navigation command or a BD-J application.
  • the playlist stream selection table There is an entry in the playlist stream selection table that allows playback of the AVC1080 @ 60P / 50P video stream, which is intended to be played from the title without checking the AVC1080 @ 60P / 50P video stream capabilities of PSR29 described later.
  • the title access type in the index file should be set to "title search disabled”.
  • the version number of the playlist is set to 2.4 (0240), 2.0 (0200), and 1.0 (0100). If the playlist information file contains a primary video stream entry that meets the following requirements, it is set to version 2.4.
  • Video format 6 frame rate 6 or 7
  • the number of entries of the secondary video stream should be set to 0 if there is an AVC 1080 @ 60P / 50P video stream.
  • the title access type allows a title search in a title that is not intended to play back a playlist including a stream selection table having an entry that permits playback of an AVC1080 @ 60P / 50P video stream.
  • the operation mode object program associated with the first play title and the top menu title which are the backbone of playback control, consists of progressive pictures and has a frame rate of Since the playback path, which is an optional rate, is excluded from playback targets, the recording medium is loaded in a playback device that does not support progressive playback at high frame rates exceeding the mandatory frame rate, or the menu is called by the user Also, a video stream composed of a plurality of progressive pictures and having a high frame rate will not be sent to the video decoder of the old reproduction apparatus. Therefore, as soon as the recording medium is loaded, the screen does not black out, and as soon as the menu is called, the screen does not black out.
  • the present embodiment is an embodiment in which the playback apparatus described in the previous embodiments is implemented as a Profile 5 BD-R / BD-RE player.
  • Profile5 BD-R / BD-RE player is a BDMV database containing 3D video content of MVC1080 @ 24p / 50i / 60i with partial deletion, division and integration, MVC1080 @ 60i / 50i video stream, AVC1080 @ 60P / 50P It is capable of playing back video streams, and is an improvement over BD-3D players in that these playbacks are possible.
  • playback control of content in the BDMV Recording Specification is mainly performed by an operation mode object program recorded on a recording medium.
  • BD-RE of version 3.1 When a BD-RE of version 3.1 is loaded on such a Profile5 BD-R / BD-RE player, the player that is the operating platform of the operation mode object program activated by the Profile5 BD-R / BD-RE player is , BD-3D player, profile 5 player can not distinguish. If it is instructed to play the stream while these are unknown, there is a risk that an inappropriate video will be output.
  • An object of the present embodiment is to avoid the issue of a dangerous reproduction instruction that the operation mode object program instructs reproduction while the reproduction device as the operation platform is unknown.
  • the player status register is a register in which an initial value is set when an optical disk is loaded, and when the status of the playback apparatus changes, such as a change of the current play item, the validity of the stored value is determined.
  • the stored values include the current title number, the current playlist number, the current play item number, the current stream number, the current chapter number, and the like. Since the initial value is stored when the optical disc is loaded, the stored value is temporary, and the stored value loses its effectiveness if the optical disc is ejected or the power of the reproducing apparatus is turned off.
  • the player setting register is different from the player status register in that power supply countermeasures are applied. Since the power supply measure is taken, the stored value is saved in the non-volatile memory when the power of the reproducing apparatus is shut off, and the stored value is restored when the power of the reproducing apparatus is turned on.
  • Various configurations of the playback device set by the manufacturer (manufacturer) of the playback device at the time of shipment of the playback device various configurations set according to the setup procedure by the user, and a home theater system such as a TV device, stereo, amplifier etc.
  • the 60P capability of the other device which is found by negotiation with the device to be connected, is set in the player setting register.
  • the individual player status registers and player setting registers are all 32-bit word-length registers, and each 32-bit register is assigned a register number, and this register number is used to identify the register to be accessed.
  • Ru A player status register of a predetermined register number and a 32-bit length bit string stored in the player setting register, which has an arbitrary bit range [bx: by] has an operation system It is treated as an environment variable (system parameter).
  • the player profile register which is one of the player setting registers, is stored in the 31st register (PSR 31) of the player setting registers in the profile 5 player.
  • FIG. 14 is a diagram showing bit assignment of PSR31.
  • the 16th to 19th bits (b16 to b19) of the 32-bit PSR 31 indicate the Player Profile.
  • the 0th to 15th bits indicate the version of the player profile.
  • a bit b20 of this PSR 31 has a profile indicator.
  • the Profile 5 indicator (b20) of the PSR 31 Player Profile and Player Version will be described.
  • the profile 5 indicator indicates whether the player is profile 5 or not. If the profile 5 indicator is set to "1", the player profile shows 0011 (profile 2). If the player version is set to 0x0240, the BD-RE / BD-R player is a player that complies with Blu-ray ReadOnly Format Part 3 audio visual basic specification version 2.4 or 2.5.
  • the playback apparatus corresponds to BD-RE Profile 5. If it is a BD-RE Profile 5 compatible playback device, it is possible to play back / edit MVC 1080 @ 24p / 50i / 60i 3D video stream. If the playback device supports interlaced 3D (Stereoscopic 1920x1080 interlace video Capability @ PSR24) or progressive video (Progressive Video Capability @ PSR29), the Player Versions b0 to b17 are 0x0240 (BD-ROM Ver. It corresponds to 4 or more). When the bytecode application or movie object program is launched, it can check whether the playback device on which the operation is to be performed is the profile 5 player.
  • FIG. 15 is a diagram showing bit assignment of PSR29.
  • B0 of PSR29 is HD_Secondary_video_Capability, and whether the playback device has the capability to play back an HDTV-compatible sub-screen video (secondary video) in picture-in-picture playback (1b: HD Secondary Video is capable), or an HDTV-compatible secondary video Indicates whether the playback device has no capability to play (0b: HD Secondary Video is incapable).
  • HDTV refers to video having a resolution of 1920 ⁇ 1080 or video having a resolution of 1280 ⁇ 720, and whether or not there is an ability to decode and output this video, It is shown in this bit.
  • B1 of PSR29 is 50 & 25 Hz_video_Capability
  • the playback device has the ability to play 50 & 25 Hz video, that is, a PAL video stream of 50 frames / sec or a PAL video stream of 25 frames / sec (1b : 50 & 25 Hz Video is capable), indicates whether the ability to play 50 & 25 Hz video is not present in the playback device (0b: 50 & 25 Hz Video is incapable).
  • the bit (b4) newly added to PSR29 Player Status Register for Player Capability for Video in the BDMV Recording Specification will be described.
  • the Pregressive Video Capability indicates whether or not the playback device supports Progressive Video. If "1", the playback device corresponds to Progressive Video Capability.
  • Player Version is 0x0240.
  • FIG. 16 shows bit assignment of PSR23.
  • PSR 23 represents the characteristic value of the display device connected to the playback device. Navigation commands and bytecode applications can not rewrite the value of PSR23.
  • the values of PSR 23 are automatically set before the playback starts when the display device provides them through the interface. If these values can not be obtained automatically, they are set by the user.
  • B0 of PSR23 shows the stereoscopic display capability of a display apparatus.
  • the stereoscopic display capability has a processing capability to display 1920 ⁇ 1080 / 23.976 Hz progressive video or 1920 ⁇ 1080 / 59.94 Hz progressive video when being set to “0”. Indicates that it is not done.
  • B1 of PSR23 shows stereoscopic vision 1280x720 50p video display capability of a display apparatus.
  • the stereoscopic view 1280 ⁇ 720 50p video display capability indicates that the connected display device does not have the processing capability to display 1280 ⁇ 720/50 Hz progressive video when it is set to “0”. When set to “1”, it indicates that the connected display device has the processing capability of displaying 1280 ⁇ 720/50 Hz progressive video.
  • B2 of PSR23 shows a naked eye stereoscopic vision propriety flag.
  • the no glasses required for stereoscopic display flag indicates that the TV system connected by being set to "0" requires glasses to view the 3D output mode. “.” Indicates that the connected TV system does not require glasses to view the 3D output mode.
  • the horizontal display size from b8 to b19 represents the horizontal size of the connected display device in cm.
  • it is 0x000, it is undefined, and when it is from 0x001 to 0xFFE, the horizontal size of the connected display device is expressed in cm.
  • 0xFFE indicates that the display is 4094 cm.
  • 0xFFF indicates that the display is larger than 4094 cm in horizontal length.
  • B3 shows PSR23 Display Capability. If the digital television display device connected to the playback device can display interlaced 3D, the value of Stereoscopic 1920x1080 interlace video Display Capability is set to “1”.
  • FIG. 17 shows bit assignment of PSR24.
  • PSR 24 represents the 3D capability of the playback device.
  • the program in the recording medium can not change the value of PSR24.
  • b0 indicates a stereoscopic view 1280 ⁇ 720 50p video display capability.
  • the stereoscopic view 1280 ⁇ 720 50p video display capability indicates that the playback device does not have the processing capability to display 1280 ⁇ 720/50 Hz progressive video when it is set to “0”.
  • Entropy coding modes include CAVLC (Context-based Adaptive VLC) and CABAC.
  • the coding table used to code the current macroblock is switched depending on the state of the DCT coefficient of the adjacent macroblock.
  • Context-based Adaptive Binary Arithmetic Coding is different from CAVLC in that it changes the probability distribution for each macroblock, takes into account inter-symbol correlation by using context, and adopts arithmetic coding. The difference is that integer codewords are used. In H.264, these multiple coding schemes are used. This is because the usage differs between CAVLC, which has a small amount of processing but has a reasonable effect, and CABAC, which has a large amount of processing but also a high effect. Then, when set to “0”, the stereoscopic vision 1280 ⁇ 720 CABAC decoding capability in b1 of PSR 24 indicates that the playback device does not have the CABAC decoding capability for stereoscopic video. When set to “1”, this indicates that the playback device has the capability to decode CABAC stereoscopic video.
  • CABAC Context-based Adaptive Binary Arithmetic Coding
  • the B2 shows stereoscopic vision PG capability.
  • the stereoscopic vision PG capability is set to “0” to indicate that the regeneration device does not have the capability to regenerate the stereoscopic vision PG. By being set to “1”, it indicates that the reproduction device has the ability to reproduce stereoscopic vision PG.
  • the stereoscopic vision IG capability is set to “0” to indicate that the playback device does not have the capability to play back stereoscopic vision IG. By being set to “1”, it indicates that the playback device has the ability to play back stereoscopic IG.
  • B4 indicates the capability whether or not the text subtitle display area can be displayed by plane shift.
  • b6 is set to “0”, this indicates that the playback device does not have the ability to display the text subtitle display area by plane shift.
  • set to "1” it indicates that the playback device has the ability to display the text subtitle display area by plane shift.
  • B5 represents the capability of the BD-J mode in the 3D output mode. When this b5 is set to “1”, it indicates that the playback device can process the BD-J mode in the 3D output mode. When b5 is set to “0”, it indicates that the playback device can not process the BD-J mode in the 3D output mode.
  • B6 indicates whether or not secondary audio (secondary audio) can be reproduced in sound mixing.
  • B7 shows the capabilities of the limited BD-J mode in 3D output mode.
  • this b5 is set to “1”, it indicates that in the 3D output mode, the playback device can process BD-J mode with limitation.
  • b5 is set to “0”, it indicates that the playback device can not process the BD-J mode even in the 3D output mode even with a restriction.
  • B8 indicates whether or not the 1920 ⁇ 1080 interlaced 3D capability exists, and b9 indicates whether the 1920 ⁇ 1080 interlaced 3D conversion capability exists. These are new to the PSR24 3D Capability in the BDMV Recording Specification. Hereinafter, these bits b8 and b9 will be described in detail.
  • the playback device can decode 1920 ⁇ 1080 interlaced 3D, and when “0”, the playback device can not decode 1920 ⁇ 1080 interlaced 3D. If the playback device is a non-Profile 5 compatible player, then the decode capability of 1920 ⁇ 1080 interlaced 3D will not be implemented as it is not compatible with 3D playback. Therefore, if the Profile 5 indicator of PSR 31 indicating Profile 5 compliant / non-compliant is “0”, Stereoscopic 1920x1080 interlace video Capability does not become “1”.
  • the b9 Stereoscopic 1920x1080 interlace video output conversion Capability indicates whether or not output conversion of interlaced 3D to HDMI v1.4a compliant 3D video (for example, side-by-side method) is possible.
  • the connection 3D TV does not necessarily support interlace 3D. Therefore, a conversion function for reproducing decoded interlace 3D with a 3D TV conforming to HDMI v 1.4a is essential, and the value of this bit must be set to “1”. In the future revision of the standard, the provision that requires the conversion function may be relaxed.
  • the navigation model of 3D video of MVC1080 @ 24p / 50i / 60i is explained.
  • the 3D interlaced video stream availability is an option in BD-R / BD-RE players.
  • Navigation commands and bytecode applications check the video capabilities of PSR 24 and define the output mode used by PSR 22. If the 3D interlace capability is 0, the output mode is defined as the 2D output mode prior to the start of playlist playback.
  • FIG. 18A shows bit assignment of PSR22.
  • B0 in PSR22 represents the current output mode. If the output mode changes, the video output at the playback device must change accordingly. The value of the output mode has to be controlled by the choice model.
  • This mode selection procedure is composed of Initialization at the time of loading the optical disc and Procedure when playback condition is changed when the state of the player changes.
  • FIG. 18C shows the procedure of initialization.
  • Step S501 is a judgment as to whether or not the disk unbound bytecode application is in operation.
  • Step S502 indicates that the Stereoscopic Display Capability in PSR23 is "Capability Available", and the Initial_output_mode information in the index file (index.bdmv) is " It is determination of whether or not "3D output mode” is indicated.
  • step S501 is YES, the current output mode is maintained in step S503. If Step S501 is No and Step S502 is Yes, the PSR 22 is set to the 3D output mode in Step S504. If Step S501 is No and Step S502 is No, the output mode in the PSR 22 is set to the 2D output mode in Step S505.
  • the playback device when the initial_output_mode information of Index.bdmv is turned on, the playback device enters the 3D output mode at the same time as loading the disc, on condition that the playback device has the playback capability of the stereoscopic presentation mode. Become. Therefore, if the initial_output_mode information is on, by loading the recording medium and wearing glasses immediately, it is possible to be immersed in virtual reality by stereoscopic reproduction.
  • FIG. 18C shows a processing procedure of Procedure when playback condition is changed.
  • Step S511 is a judgment as to whether or not the output mode in PSR22 is the 2D output mode
  • step S513 indicates that the interlace 3D capability in PSR24 indicates "with Capability", and that STN_table_SS exists in the playlist. It is a judgment of whether to do.
  • step S511 If step S511 is Yes, the current output mode is not changed in step S512. Even if Step S511 is No and Step S513 is Yes, the current output mode is not changed (Step S512). If Step S511 is No and Step S513 is No, the current output mode is changed to the 2D output mode (Step S514).
  • the AVC1080 @ 60P / 50P video stream and the MVC1080 @ 60i / 50i video stream can be represented.
  • the number of identifiers and the number of types can be determined to an appropriate number with an awareness of this register size. This can promote the use of home appliances and portable devices (seventh embodiment)
  • the present invention is an improvement of the edit enable / disable setting of the recording medium at the time of loading the device, and the specific procedure largely depends on the method of recording the stream file on the recording medium. Prior to the description, the basic structure of the recording medium and the method of recording the stream file based on the basic structure will be described.
  • a multi-layered optical disc is selected as an example of the target recording medium.
  • Such an optical disc has been selected as an example of removable media because a multilayer optical disc has the most severe physical limitations in reading it, and assuming recording on such an optical disc, other media are considered. The reason is that it can be applied to
  • the components embodying the means for overcoming the implementation barrier of all the embodiments are premised on the internal configuration of the existing recording medium. In order to enhance understanding, the existing configuration of the optical disc on which the essential components for solving the problem are premised will be described.
  • FIG. 19 shows the internal structure of a multilayer optical disc.
  • the first stage shows an example of a multi-layered optical disc
  • the second stage is a drawing in which the spiral track present on each recording layer is drawn horizontally.
  • Spiral tracks in these recording layers are treated as one continuous volume area.
  • the volume area comprises a lead-in located at the innermost circumference, a lead-out located at the outermost circumference, a recording area of the first recording layer existing therebetween, a recording area of the second recording layer, and a recording area of the third recording layer. Be done.
  • the recording area of the first recording layer, the recording area of the second recording layer, and the recording area of the third recording layer constitute one continuous logical address space.
  • the volume area is assigned a serial number in units of accessing the optical disc from the beginning, and this number is called a logical address.
  • Reading of data from the optical disc is performed by specifying a logical address.
  • a read-only disc such as a BD-ROM
  • basically the sectors having consecutive logical addresses are continuous also in the physical arrangement on the optical disc. That is, it is possible to read out the data of the sector where the logical address is continuous without performing the seek.
  • continuous reading can not be performed even if the logical addresses are continuous. Therefore, the logical address of the layer boundary is assumed to be registered in advance in the recording device.
  • file system management information is recorded immediately after the lead-in area, and subsequently, a partition area managed by the file system management information exists.
  • the file system is, for example, Universal Disc Format (UDF) or ISO 9660.
  • UDF Universal Disc Format
  • ISO 9660 ISO 9660
  • a file system of the Extension 2.3 format is adopted.
  • file path information referred to as a file path
  • the fourth row shows the area allocation in the file system area managed by the file system.
  • the file system area is mainly allocated a media movie database area.
  • a non-stream recording area exists on the inner circumference side of the media movie database area.
  • a stream recording area exists immediately after the non-stream recording area.
  • the fifth row shows the recorded contents of the non-stream recording area and the stream recording area. Extents constituting an AV stream file exist in the stream recording area. In the non-stream recording area, extents constituting a non-AV stream file exist.
  • FIG. 20 shows the directory hierarchy of the media movie database area.
  • the directory hierarchy of the media movie database area is such that a BDMV directory is provided immediately below the ROOT directory, and the components of the media movie database are stored in this BDMV directory.
  • BDMV directory Under the BDMV directory, there are five sub-directories called "JAR directory”, “BDJO directory”, “PLAYLIST directory”, “CLIPINF directory”, and “STREAM directory”, and in the BDMV directory, "index.bdmv”
  • Index.bdmv (fixed file name) is an index file.
  • a movie object is a program file that defines a control procedure to be performed by the playback device in an operation mode (HDMV mode) in which a command interpreter is mainly controlled, and one or more commands, a menu call to a GUI, and a title call If done, it contains a mask flag that specifies whether to mask these calls.
  • HDMV mode operation mode
  • a command interpreter is mainly controlled, and one or more commands, a menu call to a GUI, and a title call If done, it contains a mask flag that specifies whether to mask these calls.
  • the “BDJO directory” includes a program file (xxxxx.bdjo [“xxxxx” is variable, the extension “bdjo” is fixed ”) to which the extension bdjo is added.
  • the program file stores a BD-J object that defines a control procedure to be performed by the playback device in the BD-J mode.
  • the entity of this Java (registered trademark) application is a Java (registered trademark) archive file (YYYYY.jar) stored in a JAR directory under the BDMV directory.
  • the application is, for example, a Java (registered trademark) application, and consists of one or more xlet programs loaded in a heap area (also called work memory) of a virtual machine.
  • the application is configured from the xlet program and data loaded into the work memory.
  • the “PLAYLIST directory” includes a playlist information file (xxxxx.mpls [“xxxxx” is variable, and the extension “mpls” is fixed ”) that defines a movie playlist to which the extension mpls is added.
  • the “CLIPINF directory” includes a clip information file (xxxxx.clpi [“xxxxx” is variable, the extension “clpi” is fixed ”) to which the extension clpi is added.
  • Extents constituting files existing in the above directories are recorded in the non-AV data area.
  • STREAM directory is a directory storing stream files, and in this directory, stream files are stored in the form of xxxxx.m2ts (["xxxxx” is variable, extension “m2ts” is fixed]) Ru.
  • SSIF directory is a storage directory for stereoscopic interleaved stream files.
  • the media movie database area is "ROOT directory area”, "BDMV directory area”, “JAR directory area”, “BDJO directory area”, “PLAYLIST directory area”, “CLIPINF directory area”, “STREAM directory area” ", SSIF directory area”.
  • the plurality of directory areas as described above all have a common internal configuration. It is that “directory area” is composed of “directory file” and “file recording area for lower order files”.
  • the "directory file” includes "file identification descriptor for lower directory” and "file identification descriptor for lower file”.
  • File identification descriptor of lower directory is reference information for accessing the lower directory under itself, and identification information indicating the lower directory, the length of the directory name of the lower directory, and the lower directory It consists of a file entry address indicating which logical block number a file entry is recorded in and a directory name of its lower directory.
  • directory names such as JAR, BDJO, and PLAYLIST are described in the "file identification descriptor of lower directory" of the BDMV directory.
  • the "file identification descriptor of lower file” is reference information for accessing the file under the file itself, identification information indicating the lower file, the length of the lower file name, and the file entry for the lower file Is composed of a file entry address indicating which logical block number is recorded, and the file name of the lower file.
  • File names such as Index.bdmv and MoveObject.bdmv are described in the "file identification descriptor of lower directory" of the BDMV directory.
  • the file identification descriptor in the directory file of these directories indicates which logical block the file entry of the lower directory and the lower file is recorded in
  • the file identification descriptor can be traced.
  • the file entry of the BDMV directory can be reached from the file entry of the ROOT directory
  • the file entry of the PLAYLIST directory can be reached from the file entry of the BDMV directory.
  • file entries in the JAR directory, the BDJO directory, the CLIPINF directory, and the STREAM directory can also be reached.
  • file entries in the SSIF directory can also be reached.
  • the "file recording area of lower file” is an area where the substance of lower file under a certain directory is recorded, and "file entry” and one or more "extents” for the lower file are included. It is recorded.
  • the main stream file of the present application is a file recording area existing in the directory area of the directory to which the file belongs, and follows the file identification descriptor in the directory file and the allocation identifier in the file entry. Can be accessed by
  • two videos are targeted for editing operations such as partial deletion, division, and integration.
  • One transport stream file (called a 1TS-2 VSm2ts file) obtained by multiplexing streams is adopted.
  • the base view component and the dependent view component constituting the combination of the left eye image and the right eye image are elementary stream generation ⁇ transport stream generation ⁇ source packetization of TS (transport stream) packets constituting the transport stream It is generated through the process of FIG. 21 shows a process of obtaining one transport stream from the MVC1080 @ 24p / 50i / 60i base view video stream and the MVC1080 @ 24p / 50i / 60i dependent view video stream.
  • the first row in this figure is the frame sequence that composes the MVC1080 @ 24p / 50i / 60i baseview video
  • the second row is obtained by PES packetizing the MVC1080 @ 24p / 50i / 60i baseview video
  • the third stage is a source packet sequence obtained by source packetizing the MVC 1080 @ 24p / 50i / 60i base view video.
  • the seventh row in this figure shows the frame sequence that composes the MVC1080 @ 24p / 50i / 60i dependent-view video
  • the sixth row PES packetizes the MVC1080 @ 24p / 50i / 60i dependent-view video
  • the fifth stage is a source packet sequence obtained by source packetizing the MVC 1080 @ 24p / 50i / 60i dependent-view video.
  • the fourth row arranges source packets constituting MVC1080 @ 24p / 50i / 60i base-view video and source packets constituting MVC1080 @ 24p / 50i / 60i dependent-view video in order of arrival time stamp Show the transport stream formed by
  • the MVC1080 @ 24p / 50i / 60i base-view video stream with the MVC1080 @ 24p / 50i / 60i dependent-view video stream first, the MVC1080 @ 24p / 50i / 60i dependent-view video stream is multiplexed.
  • the first packet (B11) of the first GOP (Closed-GOP1) of the 50i / 60i base-view video stream is arranged.
  • the packet (B11) and after the arrangement position and in front of the end packet (B16) of Closed-GOP1 is the GOP (Open-GOP1) of the MVC1080 @ 24p / 50i / 60i dependent-view video stream corresponding to Closed-GOP1 Packets (D11, D12, D13) are arranged.
  • the first packet (B21) of the next GOP (Closed-GOP2) of the MVC 1080 @ 24p / 50i / 60i base-view video stream is placed.
  • Each packet (D21, D22, D23) of the GOP (Open-GOP2) of the MVC1080 @ 24p / 50i / 60i dependent-view video stream corresponding to Closed-GOP2 is placed in front of the end packet (B26) of GOP2 Ru.
  • Closed-GOP in the MVC 1080 @ 24p / 50i / 60i base-view video stream and Open-GOP in the MVC 1080 @ 24p / 50i / 60i dependent-view video stream are multiplexed in a state of being divided into a plurality of packets.
  • the recording position of the first one of a plurality of packets obtained by dividing the Closed-GOP in the MVC 1080 @ 24p / 50i / 60i base-view video stream is the MVC1080 @ 24p / 50i / 60i dependent-view video stream
  • the recording position of the first one of a plurality of packets obtained by dividing the Open-GOP in is preceded on the digital stream.
  • a margin may occur in the payload of the source packet.
  • padding is performed on the margin of the source packet. This padding is to prevent the end portion of the video access unit located at the end of a certain GOP and the access unit delimiter of the video access unit located at the end of the next Closed-GOP from being stored in the same source packet. It is consideration. By doing this, among the NAL units constituting the video access unit, those storing the access unit delimiter of the view component at the top of the Closed-GOP will be bound at the boundary of the source packet without fail. It becomes easy to delete a set of GOP and Open-GOP together.
  • FIG. 22 (a) shows in more detail how the video stream is stored in the PES packet sequence.
  • the first row in the figure shows a video frame sequence of a video stream.
  • the second row shows a PES packet sequence.
  • B (Bi-predictive) which is a view component constituting an MVC 1080 @ 24p / 60i / 50i video stream of Intra type, which is a plurality of Video Presentation Units in a video stream.
  • the type of view component and the P (Predictive) type of view component are divided into view components and stored in the payload of the PES packet.
  • Each PES packet has a PES header, and in the PES header, PTS (Presentation Time-Stamp) which is a picture display time and DTS (Decoding Time-Stamp) which is a picture decoding time are stored.
  • FIG. 22B shows the format of a TS packet that is finally written to a stream file storing a digital stream.
  • the TS packet is a 188-byte fixed-length packet composed of a 4-byte TS header having information such as PID identifying a stream and a 184-byte TS payload storing data, and the PES packet is divided and stored in the TS payload .
  • 4 bytes of TP_Extra_Header are attached to a TS packet, and a 192 byte source packet is configured and written to a stream file.
  • TP_Extra_Header describes information such as ATS (Arrival_Time_Stamp).
  • ATS indicates the transfer start time of the TS packet to the PID filter of the system target decoder described later.
  • the source packets are arranged inside the stream file as shown in the lower part of FIG. 22B, and the number incremented from the head of the stream file is called SPN (source packet number).
  • TS packets included in the stream file include PAT (Program Association Table), PMT (Program Map Table), PCR (Program Clock Reference) and the like in addition to each stream such as video, audio and subtitles.
  • the PAT indicates what is the PID of the PMT used in the stream file storing the digital stream, and is registered in the PID array of the PAT itself.
  • the PMT has PIDs of each stream such as video, audio and subtitles contained in the stream file storing the digital stream and attribute information of the stream corresponding to each PID, and various descriptors relating to the stream file storing the digital stream Have.
  • the descriptor includes copy control information for instructing to permit or not to copy the stream file storing the digital stream.
  • the PCR corresponds to an ATS to which the PCR packet is transferred to the decoder in order to synchronize ATC (Arrival Time Clock), which is the ATS time axis, and STC (System Time Clock), which is the PTS ⁇ DTS time axis. It has STC time information.
  • a PAT packet and a PMT packet are stored at the beginning of the transport stream of the stream file storing the digital stream.
  • FIG. 22 (c) shows in detail the data structure of the PMT.
  • the leader line cu1 is close-up of the internal configuration of the stream information.
  • the coding method, resolution, and frame rate of the MVC1080 @ 24p / 60i / 50i video stream and the AVC1080 @ 60P / 50P video stream are described in the stream descriptor in the stream information. The above is the description of the 1TS-2 VSm2ts file generation process.
  • FIG. 23 shows the internal structure of the clip information file.
  • the figure (a) shows the clip information file of 2D
  • the figure (b) shows the clip information file for 3D.
  • These clip information files include “clip information”, “sequence information”, “program information”, and “feature point information”.
  • the clip information file for 3D has an internal configuration shown in FIG. 20B, and includes “clip information”, “sequence information”, “program information” and “feature point information” which are the same elements as a normal clip information file.
  • the program information SS, the extent start point information table, and the feature point information SS are arranged after the ID value 1 of 0X0004.
  • FIG. 23C shows the internal structure of clip information.
  • the clip information includes, in addition to clip information for 2D, clip base information for forming a clip stream file in combination with a file base, and for forming a clip stream file in combination with a file dependent.
  • clip dependent information There is clip dependent information.
  • the clip information indicates “clip stream type information” indicating to which stream type the corresponding clip stream file belongs, and the transport stream stored in the corresponding clip stream file is a movie Application, time-based slide show application, browsable slide show application, etc.
  • the application type of the above clip information indicates what kind of transport stream type the main path, the main TS referenced by the sub path, and the sub TS belong to.
  • the application types are: 1 to 3 are transport streams of movie, time base slide show, browsable slide show, 4 to 6 are transport streams constituting the main path of browsable slide show, browsable slide show sub path It is shown that the transport stream is a transport stream that constitutes a sub path of interactive graphics.
  • Application type 10 indicates a main TS for an AVC 1080 @ 60P / 50P video stream movie.
  • the format ID of the clip information should be set to 0x48, 44, 50, 52.
  • Navigation command or BD-J application checks b1 of PSR24 and b4 of PSR29 to check the 50Hz AVC1080 @ 50P video stream capability when the stream coding information of AVC1080 @ 60P / 50P video stream is included. It must be done.
  • the stereoscopic interleaved stream file is composed of the main TS and the sub TS.
  • the pair of extent start point information provides a way to divide the stereoscopic interleaved stream file into two AV streams.
  • the figure (d) shows the internal configuration of the extent start point.
  • the extent start point information includes number_of_extent_start_points and number_of_extent_start_points SPN_start_points.
  • Number_of_extent_start_points indicates the number of extents belonging to the associated AV stream file.
  • the pair of extent start point information for extracting file-based extents and extent start point information for extracting file dependent extents has the same value of number_of_extent_start_points.
  • SPN_extent_start (SPN_extent_start [0] to SPN_extent_start [number_of_extent_start_point]) is composed of number_of_extent_start_point + 1 pieces of SPN_extent_start.
  • SPN_extent_start is a 32-bit value that is indicated by the extent identifier [extent_id] and indicates the source packet number of the source packet that starts the extent_idth extent in the AV stream file.
  • FIG. 23 (e) shows the frame rate indicated by the stream attribute information and the type of resolution.
  • the frame rates include 24 Hz, 24 Hz (23.976 Hz), 25 Hz, 30 Hz, 50 Hz, and 60 Hz. These frame rates are identified using a 4-bit code.
  • 1920 ⁇ 1080, 1280 ⁇ 720, 960 ⁇ 540, 720 ⁇ 576, and 720 ⁇ 480 exist.
  • 720 ⁇ 480, 720 ⁇ 576, and 1920 ⁇ 1080 a progressive display method and an interleaving display method exist, respectively.
  • FIG. 24 shows the correspondence between the transport stream obtained by multiplexing the MVC1080 @ 24p / 50i / 60i base view video stream and the MVC1080 @ 24p / 50i / 60i dependent view video stream, EP_map, and extents Show the relationship.
  • the first row shows a frame image
  • the second row shows an EP_map for correlating the source packet sequence of the fourth row with the time axis of the frame image.
  • the third stage source packet sequence is the same as the source packet sequence in the TS in the fourth stage of FIG.
  • the fourth row shows an extent for dividing and recording the source packet sequence of the third row.
  • the fifth row shows the Open-GOP and Closed-GOP present inside this extent.
  • the entry address in the EP_map is the packet number of the first one of the plurality of packets obtained by dividing the Closed-GOP in the MVC 1080 @ 24p / 50i / 60i base-view video stream (a11 in the figure). , a21, a31).
  • the multiple packets obtained by dividing Open-GOP in the MVC1080 @ 24p / 50i / 60i dependent-view video stream are all MVC1080 @ 24p / 50i / 60i baseview It is a point that precedes the entry address immediately after the entry address of the Closed-GOP in the video stream.
  • the playlist information file has an internal configuration as shown in FIG.
  • playlist information indicating the internal configuration of the playlist information file includes “main path information”, “sub path information”, “play list mark information”, and “extension data”.
  • FIG. 25 (b) shows the internal structure of main path information and sub path information.
  • the main path information is composed of one or more pieces of main reproduction section information.
  • the sub path information is composed of one or more sub reproduction zone information.
  • FIG. 25 (c) shows the internal structure of the play item information. As shown in the figure, it includes “stream reference information”, “in time-out time information”, “connection state information”, and “basic stream selection table”.
  • the stream reference information indicates “clip information file name information (clip_information_file_name)” indicating a clip information file constituting a clip stream file in combination with a transport stream constituting the play item, and indicates an encoding method in the TS.
  • “Clip encoding scheme identifier (Clip_codec_indentifier)” includes “STC identifier reference (STC_ID_refernss)” indicating which STC sequence the in-time and out-time are set in the STC sequence of the TS. The above is the description of the play item information.
  • connection state information indicates the type of connection condition with the forward play item.
  • the connection condition of the play item is “1”
  • the digital stream indicated by the play item indicates that seamless connection with the digital stream indicated by the previous play item of the play item is not guaranteed.
  • the connection condition of the play item is “5” or “6”
  • the digital stream indicated by the play item guarantees seamless connection with the digital stream indicated by the previous play item of the play item.
  • the connection condition "5" is a seamless connection with a clean break.
  • the connection condition “6” is “a seamless connection in which continuity exists in ATS and PTS”.
  • FIG. 25D shows the internal structure of the sub play item.
  • the sub play item information is information for defining a playback section constituting a sub path by defining a combination of in-time and out-time on the time axis of the STC sequence. "Information”, “in time-out time information”, “synchro play item reference”, and “synchron start time information”.
  • the “stream reference information” includes “clip information file name information”, “clip encoding scheme identifier”, and “STC identifier reference” as in the play item information.
  • “In timeout time information (SubPlayItem_In_Time, SubPlayItem_Out_Time)” indicates the start point of the sub play item on the STC sequence time axis and the end point of the sub play item on the STC sequence time axis.
  • “Synchro play item reference (Sync_PlayItem_Id)” is information uniquely specifying one of the play items to be synchronized by the sub play item.
  • the sub play item in time is present on the play time axis of the play item specified by the synchronous play item reference.
  • Synchronization start time information (Sync_Start_PTS_of_PlayItem) is the time point of the start point of the sub play item designated by the sub play item in time on the time axis of the STC sequence of the play item designated by the synchronization play item reference Indicates whether it is mapped. This completes the description of the data structure of the playlist information.
  • the first-stage playlist information defines a reproduction path for the transport stream formed from the fourth-stage source packet sequence.
  • the first row shows playlist information composed of three pieces of play item information # 1.
  • the version number of the playlist information file (MPLS file) storing the playlist information is set to "version 2.4".
  • In_Time and Out_Time indicate t11 which is the reproduction start time of the frame image sequence in the second stage and t39 which is the reproduction end time.
  • FIG. 27 shows parameter settings for creating a playlist including entries for which playback of the AVC 1080 @ 60P / 50P video stream is permitted.
  • the first row shows playlist information consisting of three pieces of play item information # 1, # 2, # 3.
  • the second row shows a video stream of AVC1080 @ 60i, a video stream of AVC1080 @ 60i, AVC1080 @ 60P Shows a video stream of
  • the third row shows three clip information files 00001 to 00003 which make up an AV clip stream file in combination with a stream file including the second row video stream.
  • the fourth row shows source packet sequences that make up a stream file containing a video stream.
  • the version number of the playlist information file (MPLS file) storing the playlist information is set to "2.4" which is a specific version number for identifying "60P playlist".
  • a PID having a value of 0x1011 exists, and in the play item information # 3, a stream entry including this PID has a stream attribute indicating progressive video and It is a set.
  • These PIDs are PIDs of the parent screen video stream, and the reproduction of the parent screen video stream is permitted through all the play items by describing these PIDs in the stream selection table.
  • the PID is described in the stream selection table, and the AVC1080 @ 60i video stream and the AVC1080 @ 60P video stream permitted to be reproduced are reproduced from In_Time to Out_Time.
  • the PTS of the first picture of the first GOP of the first AVC 1080 @ 60i video stream is t101
  • the first PTS of the last GOP is t189
  • the first source of the first GOP constituting the stream file containing this video stream If the packet number is a101 and the top source packet number of the last GOP is a189, the association of t101: a101 and the association of t189: a189 are shown in the entry map.
  • the third stage In_Time is t101
  • the Out_Time is t199
  • the clip_information_file_name is set in the clip information file 00001.CLPI.
  • the PTS of the first picture of the first GOP of the second AVC 1080 @ 60i video stream is t201
  • the first PTS of the last GOP is t289
  • the first source packet number of the first GOP making up the stream file containing this video stream is a201
  • the association of t201: a201 and the association of t289: a289 are shown in the entry map.
  • In_Time is t201
  • Out_Time is t299
  • clip_information_file_name is set in the clip information file 00002. CLPI.
  • the PTS of the first picture of the first GOP of the third AVC 1080 @ 60P video stream is t301
  • the first PTS of the last GOP is t389
  • the first source packet number of the first GOP constituting the stream file including this video stream is a301
  • the start source packet number of the last GOP is a389
  • the correspondence of t301: a301 and the correspondence of t389: a389 will be shown in the entry map.
  • In_Time is t301
  • Out_Time is t399
  • clip_information_file_name is set in the clip information file 00003. CLPI.
  • the version number of the playlist information file (MPLS file) storing the playlist information has a value "0x0240" indicating version 2.4. It is set.
  • BDMV Recording Specification As a limitation of the BDMV database handled by BDMVRecording Specification + RREF, region playback control in BDMVRecording Specification in all cases is prohibited. In the BDMV Recording Specification, a new profile is added. This is a BD-R / BD-RE profile 5 and is defined in the BD-ROM. It is added to the existing profiles Profile 1, 3 and 4. The above is the limitation on the Blu-ray ReadOnly disc format in the BD-RE version 3.1 format.
  • RREF is a subset of the BDMV Recording Specification, and is intended for real-time recording and editing applications implemented in manufacturing products such as recorders and cameras. RREF provides a framework for easy database maintenance in managing additions, edits and deletions. RREF limits the BD data model. RREF limits the relationship between titles, movie objects, and playlists. Titles excluding the first play title and the top menu title refer to only one movie object, and the movie object plays only one playlist. Movie objects referenced from one title are not referenced from other titles. The first play title or top menu title may have one or more movie objects, and these movie objects can play one or more playlists, and the movie object referred to by the title is a first play title And must not be referenced from the top menu title.
  • playlists specific to RREF there are the following main playlists, alternative playlists, and menu playlists.
  • the main playlist causes the clip stream file recorded on the disc by the user to be played back.
  • the play items in the main playlist do not refer to any of the other main playlists or clip stream files referenced by the menu playlist.
  • the main playlist refers to one or more clip stream files. Two or more playlists do not refer to the same clip stream file.
  • the alternative playlist realizes the reuse of clip stream files in RREF.
  • the playlist information of the alternative playlist has a hierarchical structure of play item information-clip stream file, and the ratio of the clip stream file to the play item information is one-to-many. In relation, one clip stream file is multiply referenced from multiple pieces of play item information.
  • the menu playlist is a playlist that defines a playback path that allows playback of an IG stream for menu display and a video stream for drawing a video that is a background image of the menu. Used in first play titles and top menu titles.
  • a clip stream file referred to in the menu playlist is prohibited to be referred to in the menu playlist.
  • the menu playlist refers to the clip stream file that has been dedicated. This clip stream file is not limited to the actual reproduction content of the disc, but is limited to the menu display that can be reproduced only by the system. Menus defined by the user are not subject to playback by the menu playlist.
  • RREF limits the relationship between playlists and clip stream files as follows.
  • the interactive database layer there are no BD-J objects, title scene search, metadata, browsable slide shows, click sounds, titles with interactive graphics (except first play titles, top menu), and random shuffle play item playback.
  • the BDJO directory and JAR directory are empty because the use of BD-J objects is not permitted.
  • STN_table_SS fixed offset during pop-up display period, validity flag of drawing area offset, stereoscopic presentation graphics existence flag, upper end arrangement existence flag indicating whether upper end arranged subtitle stream exists, lower end arranged subtitle stream
  • the lower end placement presence / absence flag indicating whether or not the stereoscopic interactive graphics presence / absence flag is set to 0 (off).
  • the limitations for RREF are as follows.
  • the TS packet recording rate is less than 3.5 Mbps.
  • ATC delta a value calculated from the calculation of (188 / TS packet recording rate) is set.
  • elementary streams stored in the transport stream for RREF a primary audio stream, a primary video stream, a graphics stream, an MVC1080 @ 24p / 60i / 50i base view video stream, an MVC1080 @ 24p / 60i / 50i dependent view Video streams are only allowed.
  • a PID of 0x1011 is assigned to the primary video stream, an MVC1080 @ 24p / 60i / 50i base-view video stream, and a PID of 0x1012 to the MVC1080 @ 24p / 60i / 50i dependent-view video stream.
  • the present embodiment by defining the bit assignment to the level of the field in the BDMV database, it is possible to make the number of target processes and data types suitable. By doing this, the occupancy amount when staying in the memory can be minimized, which can contribute to cost reduction of the device and reduction of power consumption.
  • the present embodiment is an embodiment which aims to overcome the technical barrier from the aspect of implementing the recording apparatus and the aspect of implementing the reproducing apparatus.
  • the internal configuration of the apparatus disclosed in this embodiment includes any of the means for overcoming the implementation barrier described in the first embodiment to the tenth embodiment described later, or the first to the present. From one embodiment, a combination of two or more of the means for overcoming the implementation barrier described in the tenth embodiment can be introduced.
  • An internal configuration incorporating any one of the implementation barrier overcoming measures described in the previous embodiments, and a combination of two or more of the implementation barrier overcoming measures described in the previous embodiments Describing the internal structure separately is not desirable because it will consume a large amount of paper in the application specification. Therefore, as an example, the internal configuration incorporating all the means for overcoming the implementation barrier described in the previous embodiments will be disclosed.
  • FIG. 28 shows the internal configuration of the recording apparatus and the reproducing apparatus.
  • FIG. 6A shows the internal configuration of the recording apparatus 1001.
  • the recording apparatus reads and writes an optical disk, removable media, and built-in media, and executes a drive 2001 for performing eject / loading on the optical disk, and a BDMV database loaded on the optical disk, removable media, and build-in media.
  • the playback unit reads out components such as program files, playlist files, and clip stream files according to the setting of the current title, decodes the clip stream files, and outputs uncompressed pictures and audio to other devices. 2002.
  • Encode processing is performed for broadcast waves and audio and video from external input, and a set of program file-playlist file-clip stream file is generated and these are Recording unit 2003 which writes in a recording medium loaded in the drive as a BDMV database in combination with the index, and causes the reproducing unit to reproduce part of the clip stream file referred to by the playlist information, and reproduces the reproduced moving image
  • an editing unit 2004 that generates a built-in editing GUI and executes an editing operation on the recording medium in accordance with a user operation on the GUI.
  • the drive 2001 includes a reading unit 2005 and a writing unit 2006.
  • the reading unit 2005 reads data from the optical disc based on a request from the reproducing unit 2002, and the writing unit 2006 writes data on the optical disc according to an instruction from the recording unit 2003 and the editing unit 2004.
  • the playback unit 2002 receives data read from the disc by the drive 2001, outputs a video signal to the television broadcast display device, and outputs an audio signal to the speaker.
  • the editing unit 2004 processes and edits the BDMV database read from the disc by the drive 2001, and instructs the drive 2001 to write the edited content into the drive 2001.
  • the recording unit 2003 stores AV information received from a broadcast wave or the like, performs processing and editing according to a user's instruction, and instructs writing to a disc via the drive 2001.
  • the figure (b) shows the internal structure of a reproducing
  • a playback device compatible with Blu-ray Rewritable format version 3.1 or later is called a profile 5 player. By referring to the player profile register, it can be determined whether or not it is the profile 5 player.
  • the profile 5 playback apparatus which is a profile 5 player, comprises a drive 2001, a playback unit 2002, and an editing unit 2004.
  • the editing unit 2004 is added as needed, and can also constitute a playback apparatus without the editing unit 2004.
  • a portable Blu-ray ReadOnly disc player or the like can be implemented as a pure playback device having no recording function and no editing function.
  • a device configured by the drive 2001, the playback unit 2002, and the editing unit 2004 is referred to as a playback device.
  • a recording apparatus capable of covering recording, reproduction, and editing by constituent elements such as the drive 2001, the reproduction unit 2002, the recording unit 2003, and the editing unit 2004 is used.
  • the playback mode When the playback apparatus is loaded with a recorded recording medium in which the BDMV database is recorded, the playback mode performs initial setting of the editing mode according to SS_content_exist_flag existing in the index file of the BDMV database, and then the current title setting in the apparatus is set. Perform the corresponding stream playback. Specifically, of the plurality of titles described in the index file, the operation mode object program associated with the current title is activated to start the operation, assuming that the operation mode of the current title is defined. In accordance with an instruction from the operation mode object program, the clip stream file is reproduced through the playlist information.
  • the medium editing permission / prohibition setting according to SS_content_exist_flag, editability_flag, extended_editability_flag is performed, and when the loaded recording medium is treated as editable media, Blu-ray ReadOnly Recording + Realtime Recording Editing Edit the loaded recording medium according to the specification of Format (RREF).
  • FIG. 29 shows the internal configuration of the playback unit 2002.
  • the reproduction unit 2002 in this figure includes a random access control unit 101, a first read buffer 102a, a second read buffer 102b, an ATS restoration unit 103, a system target decoder 104, a plane memory set 105a, a plane synthesis unit 105b, and an inter-device interface 106.
  • the random access control unit 101 performs random access from an arbitrary time point on the time axis of the MVC1080 @ 24p / 60i / 50i video stream and the AVC1080 @ 60P / 50P video stream. Specifically, when playback from a given point in the video stream timeline is instructed, EP_map and EP_map_SS are extracted from among the extension data to which ID1 of value 0x0002 or 0x0004 is given, and using these, The source packet number of the access unit corresponding to that arbitrary time is searched. Such an access unit includes independently decodable picture data or a set of view components. By the search, the source packet number of the source packet storing the access unit delimiter for the access unit is specified.
  • Reading from the source packet number and decoding are performed.
  • random access is performed by executing the above search using time information indicating a branch destination.
  • the source packet is converted to LBN by calculation of ((ax) * 192/2048).
  • "192" represents the source packet size by the number of bytes
  • "2048” represents the sector size (logical block size) by the number of bytes. Such conversion makes it possible to derive the logical address of the read destination.
  • the first read buffer 102 a is a buffer in which TS packets constituting the main TS read from the drive 2001 are stored.
  • the second read buffer 102 b is a buffer in which TS packets constituting the sub TS read from the drive 2001 are stored.
  • the ATC sequence restoration unit 103 generates an ATC sequence forming an MVC1080 @ 24p / 60i / 50i base-view video stream from source packets in a 1TS-2VSm2ts file read from one recording medium, and an MVC1080 @ 24p / 60i / 60i / 50i baseview video stream. It separates from the ATC sequences that make up the 50i dependent-view video stream and writes them to each of the two read buffers. By doing this, the playback apparatus records the ATC sequence forming the MVC1080 @ 24p / 60i / 50i base-view video stream and the ATC sequence forming the MVC1080 @ 24p / 60i / 50i dependent-view video stream separately.
  • the system target decoder 104 performs a demultiplexing process on the source packet read to the first read buffer 102 a and the source packet read to the second read buffer 102 b to perform a stream decoding process.
  • the system target decoder 104 decodes the decoded MVC1080 @ 24p / 60i / 50i base view video stream and the MVC1080 @ 24p / 60i / 50i dependent view video stream to perform stereoscopic reproduction.
  • the plain memory set 105a is composed of a plurality of plain memories. These plane memories constitute a layer model, and the stored contents of the individual plane memories are subjected to layer composition. Uncompressed one-screen gradation bit strings are written to these plane memories. This writing is performed at the arrival of the playback start time indicated in the presentation timestamps of the individual access units in the MVC 1080 @ 24p / 60i / 50i video stream. As processing specialized for video editing, the plain memory set 105 a stores the editing GUI and the decoded image of the view component in separate plain memories.
  • the plane synthesis unit 105 b performs layer synthesis in a plurality of plane memories.
  • the layer composition of the plane memory executes a process of superimposing pixel values of pixel data stored in the plane memory between layers in the layer model of the plane memory on all combinations between layers in the layer model. It is done by
  • the layer composition by the plane composition unit 105b is a process of superimposing pixel values of pixel data stored in plane memories of two layers in a layer model of plane memory into all combinations of two layers in the layer model. It is done by executing against.
  • the plane compositing unit 105 b composites the editing GUI with the decoded image of the view component in the MVC 1080 @ 24p / 60i / 50i video stream. The same applies to the pictures in the AVC 1080 @ 60P / 50P video stream.
  • the inter-device interface 106 when connected to another device in the home theater system via an interface, goes through a negotiation phase, shifts to a data transmission phase, and performs data transmission.
  • this negotiation phase the capability (including the decoding capability, the reproduction capability, and the display frequency) of the other party's device is grasped and set in the player setting register, and the transmission method for the subsequent transmission is determined.
  • Including mutual recognition phase After the negotiation phase, non-compressed plaintext pixel data of one line in the layer composited picture data is transferred to the display at a high transfer rate according to the horizontal synchronization period in the display.
  • the inter-device interface 106 is compliant with the HDMI 4.1a 3D, and can output an odd field and an even field in uncompressed plaintext format because of interlace 3D.
  • a conversion function capable of converting an interlaced stereoscopic image into a progressive stereoscopic image is provided, and display of a stereoscopic image can be performed even if the connection partner is a display device dedicated to a progressive stereoscopic image. .
  • the non-compressed plaintext audio data is transmitted to other devices (including not only the display device but also the amplifier and the speaker) connected to the playback device. Forward.
  • devices such as a display device, an amplifier, and a speaker can receive uncompressed / plaintext picture data and uncompressed / plaintext audio data, and can realize reproduction output.
  • the other party's device has a decoding capability, then it is possible to pass-through transmission of video and audio streams. In pass-through transmission, video streams and audio streams can be transmitted as they are in compressed and encrypted form.
  • the playback control unit 107 has a function of controlling the drive 100 and the system target decoder 104 to control playback of the clip stream file.
  • the reproduction control unit 107 interprets playlist information and controls reproduction processing of a clip stream file based on a reproduction instruction from the program execution unit 111 and a notification from the user event processing unit 117. For such control, a playback control engine for interpreting playlist information and a playback engine for playback control of clip stream files are provided. Also, the reproduction control unit 107 performs the reproduction operation with reference to the system parameter.
  • the MVC 1080 @ 24p / 60i / 50i When the program execution unit 111 or the like instructs to play back a playlist whose playback target is a clip stream file including a base view video stream, the MVC 1080 @ of the play item to be played back in the playlist.
  • the clip stream file including the 24p / 60i / 50i base view video stream is identified, and the clip stream file including the MVC1080 @ 24p / 60i / 50i dependent view video stream is identified.
  • the drive 2001 is requested to read out the GOP of the MVC1080 @ 24p / 60i / 50i base-view video stream and the GOP of the MVC1080 @ 24p / 60i / 50i dependent-view video stream in extent units.
  • the playback control unit 107 starts menu playlist playback for interactive editing, and causes the video decoder to decode view components to be synthesized on the GUI.
  • the management information memory 108 stores a plurality of pieces of playlist information and clip information recorded on the recording medium which are to be processed by the reproduction control unit 107 (current playlist information, current clip information).
  • the register set 110 includes a plurality of player status registers, a plurality of player setting registers, and a general purpose register.
  • the program execution unit 111 includes a command processing module 111 a and a byte code processing module 111 b.
  • the command processing module 111a includes a command interpreter, and executes control of the HDMV mode by decoding and executing navigation commands constituting the movie object.
  • the bytecode processing module 111b is a so-called platform unit of a so-called Java virtual machine, converts bytecodes constituting a BD-J application stored in a heap memory, bytecodes constituting a system application into native codes, Make it run.
  • the program memory 112 stores a program to be executed by the program execution unit 111.
  • the index memory 115 is a memory from which an index file is read when a disk medium is loaded into the present reproducing apparatus.
  • the program management unit 116 selects one of a plurality of titles specified in the index file as the current title according to the playback device status and the user operation, and the current title number which is one of the player status registers. Store in register. Then, an operation mode object program corresponding to the current title number is selected, and the navigation command processing module and the byte code processing module are instructed to process the operation mode object program.
  • the user event processing unit 117 requests the program execution unit 111 or the reproduction control unit 107 to execute processing in response to a user operation through the remote control. For example, when a button is pressed with the remote control, the program execution unit 111 is requested to execute a command included in the button. For example, when the fast forward / rewind button is pressed by the remote control, the playback control unit 107 is instructed to execute the fast forward / rewind process on the clip stream file of the playlist currently being played.
  • FIG. 30 shows an internal configuration of the system target decoder 104.
  • the components of the system target decoder 104 are reordered by assigning reference numerals in the 120s.
  • the system target decoder 104 includes a first source packet depacketizer 121a, a second source packet depacketizer 121b, PID filters 122a and 122b, a parent screen video decoding unit 123, and a child screen.
  • the video decoder 124, the PG decoder 125, the IG decoder 126, the main audio decoder 127, the sub audio decoder 128, and the image processor 129 are included.
  • the first source depacketizer 121a interprets the source packet stored in the first read buffer 102a, extracts the TS packet, and sends it to the first PID filter 122a.
  • the second source depacketizer 121b interprets the source packet stored in the first read buffer 102a, extracts the TS packet, and sends it to the second PID filter 122b.
  • the input time to the decoder is adjusted according to the ATS of each source packet. Specifically, at the moment when the ATC value generated by the ATC counter and the ATS value of the source packet become identical, only the TS packet is transferred to the PID filter according to the recording rate of the clip stream file.
  • the first PID filter 122a is a video decoder, a child screen video decoder, and the like of the TS packets output from the source depacketizer whose PID matches the PID required for reproduction according to the PID. Transfer to the IG decoder, PG decoder, audio decoder, and sub audio decoder. For example, in the case of a BD-ROM, when the PID included in the TS packet is 0x1011, the parent screen video decoder is used. When the PID is 0x1B00 to 0x1B1F, the PID is 0x1100 to 0x111F.
  • the second PID filter 122b among the TS packets output from the second source depacketizer 121b, that whose PID of the TS packet matches the PID required for reproduction is the second Transport of the video decoder according to the PID. Transfer to Buffer As processing unique to this embodiment, the first and second PID filters 122b execute demultiplexing according to the display mode. Here, if the display mode is the 2D output mode, the first PID filter 122a demultiplexes only TS packets belonging to the MVC1080 @ 24p / 60i / 50i base-view video stream and outputs the demultiplexed TS packets to the video decoder.
  • the first PID filter demultiplexes TS packets belonging to the MVC1080 @ 24p / 60i / 50i base-view video stream, and the second PID filter performs the MVC1080 @ 24p / 60i / 50i dependent-view video stream Are demultiplexed and output to the video decoder.
  • the parent screen video decoder unit 123 is an MPEG4-MVC video decoder, and when it is set to the 3D output mode, the MVC1080 @ 24p / 60i / 50i base-view video stream and the MVC1080 @ 24p / 60i / 50i dependent-view video stream The two stream streams are input, and screen output for stereoscopic playback is performed. Since MPEG4-MVC is a subset of MPEG4-AVC, it is naturally possible to decode a video stream of the MPEG4-AVC format. That is, in the 2D output mode, the parent screen video decoder unit 123 decodes the AVC1080 @ 60P / 50P video stream permitted to be reproduced in the stream selection table.
  • the small screen video decoder 124 has the same configuration as the parent screen video decoder, decodes the input small screen video stream, and writes the picture to the small screen video plane at the timing of display time (PTS).
  • PTS display time
  • the PG decoder 125 extracts and decodes a presentation graphics stream from the TS packet input from the source depacketizer, and writes uncompressed graphics data to the PG plane at the display time (PTS) timing.
  • PTS display time
  • the IG decoder 126 extracts and decodes the interactive graphics stream from the TS packet input from the source packetizer, and writes the uncompressed graphics data to the IG plane at the display time (PTS) timing.
  • PTS display time
  • the main audio decoder 127 has a buffer buffer, removes information such as the TS header and the PES header while storing data in the buffer, decodes the audio stream, and obtains uncompressed LPCM state audio data. Output to the audio mixer at the timing of playback time (PTS).
  • PTS playback time
  • the sub audio decoder 128 has the same configuration as the main audio decoder, decodes the input sub audio stream, and outputs audio data in an uncompressed LPCM state to the audio mixer at the timing of display time. Since there are Dolby Digital Plus, DTS-HD LBR, etc. as compression encoding formats of audio streams to be multiplexed into a clip stream file, the decoding method of compressed audio is switched according to the attributes of the stream.
  • the audio mixer 128 a mixes (superimposes sound) the non-compressed audio data output from the main audio decoder and the non-compressed audio data output from the sub audio decoder and outputs the result to a speaker or the like.
  • the image processor 129 decodes the image data (in PNG, JPEG, GIFF format) and outputs it to the image plane according to the display time specified by the program execution unit. By decoding such image data, a GUI for video editing is configured in the image plane.
  • the parent screen video decoder unit 123 is constituted by TB 131, MB 132, EB 133, TB 134, MB 135, EB 136, compressed video decoder 137, buffer switch 138, DPB 139, and picture switch 124.
  • the first TB (Transport Buffer) 131 is a TS when a TS packet including an NAL unit that is a part of an MVC1080 @ 24p / 60i / 50i base view video stream or an AVC1080 @ 60P / 50P video stream is output from the first PID filter 122a. It is a buffer that is temporarily accumulated as packets.
  • the first MB (Muliplexed Bufffer) 132 is a buffer for temporarily storing PES packets when outputting TBC 131 to EB 133 to MVC 1080 @ 24p / 60i / 50i base view video stream or AVC1080 @ 60P / 50P video stream. .
  • the TS header of the TS packet is removed.
  • the first EB (Elementary Buffer) 133 is a buffer in which the video access unit in the coding state is stored.
  • the PES header is removed when data is transferred from MB 132 to EB 133.
  • the second TB (Transport Buffer) 134 is a buffer that is temporarily accumulated as a TS packet when a TS packet including an MVC 1080 @ 24p / 60i / 50i dependent-view video stream is output from the second PID filter 122 b.
  • the second MB (Muliplexed Bufffer) 135 forms an MVC 1080 @ 24p / 60i / 50i dependent-view video stream once to output an MVC1080 @ 24p / 60i / 50i-dependent-view video stream from TB 134 to EB 136. It is a buffer for accumulating packets. When data is transferred from TB 134 to MB 136, the TS header of the TS packet is removed.
  • a second EB (Elementary Buffer) 136 is a buffer in which a video access unit of the MVC 1080 @ 24p / 60i / 50i dependent-view video stream in the coding state is stored. When data is transferred from MB 135 to EB 136, the PES header is removed.
  • the compressed video decoder 137 preloads the view components making up the MVC1080 @ 24p / 60i / 50i dependent-view video stream into the elementary buffer, and then starts the top of the closed GOP in the MVC1080 @ 24p / 60i / 50i base-view video stream Decode the view component of the picture type (IDR type) intended for decoder refresh located at. In this decoding, the coded data buffer and the decoded data buffer are all cleared.
  • IDR type picture type
  • a subsequent view component of the MVC1080 @ 24p / 60i / 50i base view video stream that is compression encoded based on the correlation with this view component and MVC1080 @ 24p / 60i Decode the view component of the / 50i dependent-view video stream. If uncompressed picture data for the view component is obtained by decoding, the picture data is stored in a decoded data buffer, and the picture data is used as a reference picture.
  • motion compensation is performed on the subsequent view components of the MVC1080 @ 24p / 60i / 50i base view video stream and the view components of the MVC1080 @ 24p / 60i / 50i dependent view video stream. If it is possible to obtain uncompressed picture data for the subsequent view component of the MVC1080 @ 24p / 60i / 50i base view video stream and the view component of the MVC1080 @ 24p / 60i / 50i dependent view video stream by motion compensation , These are stored in the decoded data buffer to be used as reference pictures.
  • the above decoding is performed when the decode start time shown in the decode time stamp of each access unit comes. In the case of the AVC 1080 @ 60P / 50P video stream, the same process is performed on compressed pictures in the access unit instead of the view component.
  • the buffer switch 138 transfers the pictures stored in the first EB and the second EB to the compressed video decoder 137 at the timing of the decoding time (DTS) assigned to the video access unit. Also, it may be determined whether to extract the next access unit from the first EB or the second EB, using the decoding switch information acquired when the compressed video decoder 137 decodes the video access unit.
  • DTS decoding time
  • a DPB (Decoded Picture Buffer) 139 is a buffer for temporarily holding a decoded frame / field image.
  • the compressed video decoder 137 is used to refer to already decoded pictures when decoding video access units such as P pictures and B pictures which are inter picture prediction coded.
  • the plane memory set includes a parent screen video plane 140, a child screen video plane 141, a PG plane 142, an IG plane 143, and an image plane 144.
  • the parent screen video plane 140 includes a left-eye video plane 140a and a right-eye video plane 140b, and stores pixel data of one screen constituting uncompressed picture data obtained by the decoding of the video decoder 23.
  • the video plane 140 has a 2-plane configuration or a 1-plane configuration. In the 2-plane configuration, the video plane 140 is configured by a combination of a left eye video plane and a left eye video plane. The left eye video and the right eye video obtained by decoding the multiview video stream are stored in each of the left eye video plane and the left eye video plane that constitute the 2-plane configuration. In the case of the one plane configuration, the video plane 140 stores pixel data constituting uncompressed picture data obtained by decoding a normal video stream.
  • the baseview indicator designates the MVC1080 @ 24p / 60i / 50i baseview video stream as "for the left eye”
  • the picture data that becomes the view component of the MVC1080 @ 24p / 60i / 50i baseview video stream is the plane for the left eye
  • the picture data that is written to the memory and becomes a view component of the MVC 1080 @ 24p / 60i / 50i dependent-view video stream is written to the plane memory for the right eye.
  • the baseview indicator designates the MVC1080 @ 24p / 60i / 50i baseview video stream as "for the right eye"
  • the picture data that is the view component of the MVC1080 @ 24p / 60i / 50i baseview video stream is for the right eye.
  • the picture data which is written to the plain memory and which is a view component of the MVC 1080 @ 24p / 60i / 50i dependent-view video stream is written to the plain memory for the left eye.
  • these view components are sequentially output to the display device. Specifically, picture data of the plane memory for the left eye and picture data of the plane memory for the right eye are simultaneously output in one frame period.
  • the picture data for the child screen video output from the system target decoder 104 is output to the child screen video plane 141.
  • the PG plane 142 stores graphics data obtained by decoding a presentation graphics stream from the system target decoder 104.
  • the configuration of this plane also has a 2-plane configuration and a 1-plane configuration, and in the 2-plane configuration, it is composed of a combination of a left eye plane and a left eye plane.
  • the left eye presentation graphics and the right eye presentation graphics obtained by decoding the PG stream for the left eye and the right eye are stored in the left eye plane and the left eye plane constituting the two-plane configuration, respectively.
  • pixel data constituting uncompressed graphics obtained by decoding the PG stream is stored in this plane.
  • the IG plane 143 stores graphics data obtained by decoding an interactive graphics stream from the system target decoder 104. It consists of a set of left eye plane and left eye plane in a 2-plane configuration. The left eye interactive graphics and the right eye interactive graphics obtained by decoding the IG stream for the left eye and the right eye are stored in the left eye plane and the left eye plane constituting the 2-plane configuration, respectively. In the case of the one-plane configuration, pixel data constituting uncompressed graphics obtained by decoding the IG stream is stored in this plane.
  • the image plane 144 stores image data output from the system target decoder 104.
  • the above video plane 140, PG plane, IG plane, and image plane realize 1 plane + offset reproduction by plane shift. If an offset indicating how much the output video displayed based on the picture stored in the video plane is shifted from the reference position with respect to the horizontal direction (horizontal axis) of the display screen is output from the video decoder, only such offset In order to shift, each pixel data stored in the video plane is shifted. By realizing such 1 plane + offset, even an editing menu that was originally not intended to be reproduced in stereoscopic view can be made an object of stereoscopic reproduction.
  • the components of the playback apparatus described above can be implemented as software in the playback apparatus by describing the processing content thereof using an object-oriented programming language or the like and causing the processor to execute the processing content.
  • the processing content of the component can be generalized as a processing procedure according to the content of the input data, various external events, and the internal parameters of the apparatus. Such flowcharts of FIGS. 31 and 40 show such generalized processing procedures.
  • FIG. 31 shows the procedure for reading out source packets based on playlist information.
  • variable i is a variable that specifies the i-th read range. Therefore, in the following flowcharts, the information element related to the i-th read range is denoted with the subscript [i].
  • Step S1 the playlist information file is read out.
  • Step S2 is a judgment as to whether or not the current output mode is the 3D output mode. If the current output mode is the 2D output mode, steps S3 to S6 are executed.
  • step S3 the stream file specified by "XXXXX” described in the Clip_Information_file_name of the current play item and the extension "m2ts" are opened, and in step S4, the MVC 1080 @ 24p / 60i / 50i video stream is opened.
  • the current PlayItem.In_Time [i] and the current PlayItem.Out_Time [j] are converted into Start_SPN [i] and End_SPN [i] using the entry point of the EP_map corresponding to the packet ID.
  • step S5 an extent belonging to read range [i] for reading out TS packet [i] of packet ID [i] from Start_SPN [i] to End_SPN [i] is specified, and in step S6 read range [i] Instructs the drive of the recording medium to read out the extents belonging to.
  • step S11 If the current output mode is the 3D output mode, in step S11, according to the base view indicator of the current play item information, either MVC 1080 @ 24p / 60i / 50i base view video stream is used for either the left eye video plane or the right eye video plane And assign the MVC 1080 @ 24p / 60i / 50i dependent-view video stream to the other of the left-eye video plane and the right-eye video plane, and then execute step S3.
  • step S21 decoding and reproduction are instructed by outputting the TS packet obtained by the demultiplexing to the decoder.
  • the recording position of the first one is the MVC1080 @ 24p / 50i / 60i dependent view It is preceded on the digital stream that the recording position of the first one of the plurality of packets obtained by dividing the Open-GOP in the video stream, and the Open in the MVC1080 @ 24p / 50i / 60i dependent-view video stream is opened.
  • the video decoder must always have a Closed-GOP in the complete MVC1080 @ 24p / 50i / 60i base-view video stream and an Open-GOP pair in the MVC1080 @ 24p / 50i / 60i dependent-view video stream. Be sent.
  • step S3 to S21 when step S2 in FIG. 31 is No may be sequentially executed.
  • the above is the description of the reproduction unit.
  • the internal configuration of the recording unit which is the core of the recording apparatus, will be described.
  • the recording apparatus includes a reproduction unit and an editing unit.
  • recording processing encoding processing is performed for the imaging input from the imaging device and the broadcast input from the antenna, and the MVC1080 @ 24p / 60i / 50i base view video stream, the MVC1080 @ 24p / 60i / 50i dependent view video stream Or, obtain an AVC1080 @ 60P / 50P video stream, create a clip information file, playlist file, operation mode object program, index file corresponding to these, and then record a BDMV database including these as a recording medium Write to
  • FIG. 32 is a diagram showing an internal configuration of the recording unit. As shown in FIG. 32, the recording unit receives incident light to the left-eye camera, and receives incident light to the left-eye imaging circuit 201a that outputs 24 left-eye progressive images per second, and the right-eye camera.
  • a right-eye imaging circuit 201b that outputs 24 right-eye progressive images in one second, 24 left-eye and second-eye images per second output from the imaging circuits 201a and b are encoded, and a set of compressed picture data
  • a left-eye video encoder 202a and a right-eye video decoder 202b that generate a group of pictures that is a body
  • a shooting circuit 203 that captures external audio and outputs uncompressed audio data, and audio that encodes uncompressed audio data
  • Encoder 204 and a character input unit that accepts input of a character string to be displayed by attaching a button graphic in the top menu 05, a graphics stream generation unit 206 that generates a set of functional segments that includes a button bearing the input character string, a setting reception unit 207 that receives setting operation for a device, and a recording mode according to the received content
  • a multiplexer 209 for obtaining a TS packet sequence by multiplexing a group of pictures which are compression encoded video,
  • the recording apparatus is based on encoding parameters by the video encoder and the audio encoder, and the leading source packet number of the group of picture leading GOP output from the source depacketizer 210.
  • Clip information generation unit 213 that generates clip information including entry map, sequence information, and stream attribute information
  • playlist information generation unit 214 that generates playlist information indicating a playback path using PTS that defines playback time.
  • the program generation unit 215 generates an operation mode object program, creates an index file, and adds an index defining the program and a title number to the index file each time the program is generated. Each time a video stream is generated, the clip information, playlist information, program, index file is generated and updated, and the generated and updated clip information, playlist information, etc.
  • a control unit 217 that writes a program and an index file to a recording medium.
  • the setting items of the recording mode by the setting reception unit 207 include setting of 2D recording / 3D recording, setting of display method such as interlace / progressive, and editability as to whether the recording medium is an editable medium or a non-editable medium
  • the input video may be an AVC1080 @ 60P / 50P video stream, an MVC1080 @ 24p / 60i / 50i video stream, or a recording medium on which a BDMV database obtained by encoding is recorded may be an editable medium. Decide whether to use non-editable media.
  • the setting items set in this way are stored in the recording mode storage unit 208.
  • the multiplexer 209 depends on the recording position of the MVC1080 @ 24p / 50i / 60i dependent.
  • the recording position of the first one of a plurality of packets obtained by dividing the Open-GOP in the view video stream is preceded on the digital stream.
  • Any of the plurality of packets obtained by dividing the Open-GOP in the MVC1080 @ 24p / 50i / 60i dependent-view video stream is the closed-GOP entry address in the MVC1080 @ 24p / 50i / 60i base-view video stream. It will exist before the entry address immediately after.
  • a station selection register storing channel selection settings in the own apparatus, a receiving unit that receives a broadcast wave and obtains a transport stream, and selects a channel from a transport stream
  • the TS stream is extracted according to the PMT table corresponding to the station setting stored in the register, and a video stream, an audio stream, and a multiplex separation unit for obtaining a subtitle stream are provided. Transcode and encode the stream. Also in this case, one clip stream file (including MVC1080 @ 24p / 60i / 50i video stream and AVC1080 @ 60P / 50P video stream) obtained by encoding processing from recording operation to stop operation through the operation mode object program It will be managed as one title.
  • the components of the recording device can be implemented as software by describing the processing content using an object-oriented programming language or the like and causing the processor to execute the processing content.
  • the processing content of the component can be generalized as a processing procedure according to various external events and internal parameters of the apparatus. Such generalized processing procedures are shown in the flowcharts of FIGS. 33-35. The processing procedure for mounting the components of the recording apparatus will be described below.
  • the procedure of the recording device is mainly stream generation processing linked to encoding processing by the encoder, whereby AVC1080 @ 60P / 50P video stream, interlaced MVC1080 @ 24p / 60i / 50i base view video stream, MVC1080 @ 24p / 60i A / 50i dependent-view video stream is generated.
  • AVC1080 @ 60P / 50P video stream interlaced MVC1080 @ 24p / 60i / 50i base view video stream
  • MVC1080 @ 24p / 60i A / 50i dependent-view video stream is generated.
  • a clip stream file is generated, and corresponding play item information is generated. This series of processing is called stream generation processing.
  • FIG. 33 describes the common processing of the AVC 1080 @ 60P / 50P video stream and the MVC1080 @ 24p / 60i / 50i video stream.
  • FIG. 33 is a flowchart showing a stream generation procedure.
  • step S300 a stream file, a clip information file, and a playlist information file are created.
  • Step S305 is waiting for input of video input, and if there is video input, the process proceeds to steps S306 to S308.
  • steps S306 to S308 the input video is encoded and converted into a picture sequence (step S306), and the picture sequence is PES packetized, TS packetized, source packetized (step S307), audio stream graphics, The stream is multiplexed (step S308).
  • Step S309 is state monitoring as to whether or not accumulation of the GOP is completed, and step S310 is determination as to whether or not the ATC sequence is completed.
  • Step S311 is a determination as to whether the STC sequence is completed, and step S312 is a determination as to whether or not the recording stop operation has been performed.
  • an entry indicating the correspondence between the top source packet number of the GOP top GOP and the presentation time stamp is added to the EP_map in step S313.
  • SPN_ATC_Start which is the start source packet number of the next ATC sequence, and the number of ATC sequences are set in the sequence information of the clip information file.
  • step S315 the start source packet number (SPN_STC_start) of the STC sequence, STC_start_time which is the playback start time of the STC sequence, and STC_End_time which is the playback end time of the STC sequence are sequence information of the clip information file Set to
  • the stream file and the clip information file are completed (step S316), the In_Time and Out_Time of the play item information are set (step S317), and the clip information file and the playlist information file are recorded. Close (step S318).
  • each clip stream file is referred to by one playlist information and managed as one title. Then, every time a clip stream file is generated by stream generation, it is necessary to add an index corresponding to this title to the index file.
  • the processing in the generation process of the index file changes depending on whether the MVC 1080 @ 24p / 50i / 60i video stream is recorded as the BDMV database or the AVC1080 @ 60P / 50P video stream is recorded.
  • the procedure for generating an index file accompanying BDMV database recording will be described below separately for recording an AVC1080 @ 60P / 50P video stream and recording an MVC1080 @ 24p / 50i / 60i video stream.
  • FIG. 34 is a flowchart showing a recording procedure of a BDMV database including 3D content by the MVC 1080 @ 24p / 50i / 60i stream.
  • a variable x in this flowchart is a control variable for specifying a title to be processed. Therefore, in the subsequent flowcharts, the title to be processed in the process of the xth round of the loop and the index in Index.bdmv will be indicated with a suffix of [x].
  • step S51 it is determined whether recording instruction has been issued, and if instructed, in step S52 SS_content_exist_flag in AppInfo BDMV data is turned off, extended_editability_flag is turned off, editability_flag is turned off, and the template of Index.bdmv is created. Is created, and x is initialized to 0 in step S55.
  • Step S56 is a judgment as to whether or not the variable x is 0. If it is 0, then a clip stream file comprising an IG stream having a button object (x) including CallTitle (x) in step S57, and The playlist information file to be referred to and the operation mode object program for instructing the reproduction thereof are created, and the ID of the operation mode object program is set in the index (0) which is the index of the top menu title.
  • step S59 is a determination as to whether the recording mode is a 3D recording mode
  • step S60 is a determination as to whether or not the device setting is editable. If step S59 is YES and step S60 is YES, in step S61, SS_content_exist_flag in the AppInfo BDMV data is turned on, extended_editability_flag is turned on, and editability_flag is turned off again. If step S59 is YES and step S60 is NO, in step S62, SS_content_exist_flag in the AppInfo BDMV data is turned on, extended_editability_flag is turned off, and editability_flag is turned off again. Thereafter, the process proceeds to step S63, and an m2ts file, a clip information file to be combined with this, a playlist information file referring to this, and an operation mode object program instructing to reproduce this are created and recorded.
  • step S59 is No, it will transfer to step S64.
  • Step S64 is a determination of whether the 3D video content of MVC 1080 @ 24p / 50i / 60i is not included in the BDMV database recorded so far, and step S65 is a determination of whether or not the device setting is editable. . If the result of both step S64 and step S65 is Yes, editability_flag is set to ON in step S66. Thereafter, in step S67, a clip stream file, a playlist information file referring to the clip stream file, and an operation mode program instructing to reproduce the clip stream file are created and recorded. Thereafter, in step S68, the ID of this operation mode object program is set to the index of Index.bdmv.
  • Step S69 is a judgment as to whether or not a recording instruction has been issued. If done, the variable x is incremented in step S70, and the process returns to step S56. Since the control variable x is incremented each time this loop makes a round, the title, which is a data element designated by the control variable, is provided to the processing of this loop.
  • FIG. 35 is a flowchart showing the recording of a BDMV database including Progressive Video which is an AVC 1080 @ 60P / 50P video stream.
  • a variable x in this flowchart is a control variable for specifying a title to be processed. Therefore, in the subsequent flowcharts, the information element to be processed in the process of the xth round of the loop is indicated with the suffix (x).
  • step S401 determination is made as to whether a recording instruction has been issued, and if instructed, in step S402, the extended_editability_flag in the AppInfo BDMV data is turned off, the editability_flag is initialized to off, and a template of Index.bdmv is created.
  • Step S404 is a determination as to whether the recording mode is the 60P mode or 50P mode, and step S405 is a determination as to whether or not the device setting is editable. If step S404 is Yes and step S405 is Yes, extended_editability_flag is turned on and editability_flag is turned off again in step S406. If step S404 is Yes and step S405 is No, the extended_editability_flag is turned off and the editability_flag is turned off again in step S407.
  • step S408 a clip stream file including progressive video that is an AVC 1080 @ 60P / 50P video stream, and a playlist information file including a progressive video entry that allows playback of the AVC1080 @ 60P / 50P video stream, Create and record an operation mode object program that instructs to reproduce it.
  • step S404 is No, it will transfer to step S409.
  • Step S409 is a determination as to whether the BDMV database recorded so far does not include a playlist having progressive video entries permitted to play progressive video
  • step S410 is a determination as to whether or not the device setting is editable. . If both determination results in step S409 and step S410 are Yes, editability_flag is set to ON in step S411, and in step S412, a clip stream file not including progressive video and an entry for permitting progressive video reproduction are included. A playlist information file and an operation mode program for instructing reproduction of the file are created and recorded. Thereafter, in step S413, the ID of the operation mode object program of the operation mode object program is set and recorded in the index of Index.bdmv. Thereafter, the process proceeds to step S414.
  • Step S414 is a judgment as to whether or not a recording instruction has been issued. If so, the variable x is incremented in step S415, and the process returns to step S404.
  • FIG. 36 shows the detailed configuration of the editing unit 2004.
  • the editing unit 2004 includes a GUI processing unit 301, a management information memory 302, an editing capability register 303, a 2D / 3D editing availability determining unit 304, a work memory 305, an editing control unit 306, and a user event processing unit 307.
  • the GUI processing unit 301 configures a GUI screen using GUI components such as a scalable window, a slide bar, a pull-down menu, a button, and a software keyboard, and passes this to the playback unit 2002 to edit the stereoscopic video
  • the display GUI is displayed on the display device.
  • the GUI processing unit changes the state of the GUI screen according to the user operation.
  • the time code to be the In point and the Out point of the deletion range is output to the editing control unit.
  • division a time code which is a division point is output.
  • the GUI processing unit defines the In_Time and Out_Time in the PlayItem of the alternative playlist by accepting the specification of In_Time and Out_Time through the slide bar as processing specialized to RREF.
  • the editing GUI can be drawn by the object definition segment and interactive control segment of the IG stream in the menu playlist, but image data such as JPEG and GiFF, On Screen Display (OSD) graphics, BML (Broadcast Markup Languege) It can also be described using
  • the management information memory 302 is a buffer configured of a memory or the like for storing management information of an index file, a playlist file, and a clip information file from the BD drive 2001, respectively.
  • the editing capability register 303 indicates the setting of whether or not the editing capability exists in the present apparatus. Whether to execute editing of the BDMV database is determined based on the setting value of this register, the value of editability_flag, and the value of extended_editability_flag.
  • the 2D / 3D editability determination unit 304 determines whether the recording device can edit the BDMV database that can be accessed from the BD drive or whether the editing should be prohibited. If the editing permission determination unit 304 determines that the BDMV database is "not editable", even if the user event processing unit 307 issues an editing processing command to the editing control unit 306, the editing control unit 706 executes the editing processing. Not to be controlled.
  • the work memory 305 temporarily stores intermediate products and final products obtained in the process of editing the BDMV database.
  • the editing control unit 306 receives an editing operation on a title that is in focus in the top menu.
  • the operation mode object program for the title is loaded, and the play mode stream program is started by the operation mode object program.
  • a GUI in which the playback video of the title is incorporated in the window is displayed on the playback unit.
  • the playlist information file and the clip information file are read from the optical disk 1000, and the directory file of the BDMV directory and its subordinate file entry, and the STREAM directory directory file and its subordinate file entry are read from the recording medium.
  • editing is performed using the playlist information file, the clip information file, the file entry of the 1TS-2 VSm2ts file, and the directory file of the STEAM directory.
  • the stream entries of the 1TS-2VSm2ts file are targeted for editing, and the 1TS-2VSm2ts file itself is not targeted for editing, because RREF does not allow material editing that involves stream re-encoding or transcoding. is there.
  • edits such as partial deletion, division and integration do not require re-encoding. Only the playlist information file, the clip information file, the 1TS-2 VSm2ts file, the directory file under the BDMV directory, and the file entry are edited, and when editing is completed, these are output to the drive and written back to the recording medium.
  • the editing control unit 306 reads file system management information such as a directory file, file identification descriptor, and file entry in the disk file system, and reads an index file. Then, the clip stream file is edited by rewriting the allocation descriptor in the file entry or editing the file identification descriptor.
  • an operation for specifying an edit target conforms to the operation at the time of title selection. That is, the user is made to select any of a plurality of titles in the index file, and the operation mode object program, playlist information file, and clip information file corresponding to the titles are read out to the memory. Then, the file entry is updated, the file identification descriptor is updated, and the playlist information file and the clip information file read to the memory are updated to execute partial deletion and division.
  • the user event processing unit 307 requests the editing control unit 306 to execute processing in response to a user operation through the remote control. For example, when a button on the remote control is pressed, program execution is executed to execute a command included in the button, and an instruction such as division or deletion of recording data is instructed to the editing control unit 306 using the remote control.
  • the above is the description of the components of the editing unit 3004. With the above components, final edit products are obtained through various processes.
  • the editorial unit 3004 deepens the understanding by including specific processing contents by this component.
  • the specific processing content taken up here is that partial deletion is performed on the stereoscopic fashion catalog video. In such partial deletion, there are a case of deleting the tip of the stereoscopic video, a case of deleting the end, and a case of deleting an intermediate part. We will translate the case into these three cases.
  • FIG. 37 shows the case where the tip portion is deleted. Specifically, as shown in FIG. 6A, the tip portion is designated as a deletion range and deleted. Base view components and dependent view components belonging to these deletion ranges exist in the hatched part of the hatched part of the extent EXT [1] of (b). After deletion, the start position of the extent EXT [1] is n11, and the data length is len11. In this case, the allocation descriptor of the extent EXT [1] in the m2ts file is as shown in (c). That is, the start LBN and the data length of the extent EXT [1] are n11 and len11.
  • FIG. 38 shows how the stereoscopic moving image changes due to the deletion of the tip portion.
  • the left side shows the original stereoscopic moving image
  • the right side shows the stereoscopic moving image after tip portion deletion. Since the range of DELETED at the leading end is no longer recognized by the device, the order of the frame images of the female model existing immediately after the deletion range is carried to the top and is at the top.
  • FIG. 39 shows a stereoscopic moving image to be viewed by wearing glasses.
  • the line of sight vw3 indicates the incidence of an image when the right eye is blocked by the active shutter glasses 1008.
  • the line of sight vw4 indicates the incidence of an image when the left eye is blocked by the active shutter glasses 1008.
  • the left eye image is viewed by this vw3.
  • the right-eye image is viewed by vw4.
  • FIGS. 38 and 39 constitute a stereoscopic fashion catalog video, it is possible to easily delete an image of a model that does not fit the product or delete a video of a product for which the season is over.
  • FIG. 40 shows the case of deleting the end portion.
  • the end portion is designated as a deletion range and deleted.
  • Base view components of the MVC1080 @ 24p / 60i / 50i baseview video stream belonging to these deletion ranges, and dependent view components of the MVC1080 @ 24p / 60i / 50i dependent view video stream belong to the extent EXT (b) of (b) 7] in the hatched part.
  • the extent EXT [7] has a data length of len17 after deletion.
  • the allocation descriptor of the extent EXT [7] in the m2ts file is as shown in (c). That is, the data length of the extent EXT [7] is rewritten to len17.
  • the base view component and the extent EXT [7] storing the dependent view component are partially deleted together.
  • FIG. 41 shows the case of deleting the middle part.
  • an intermediate part is designated as a deletion range and deleted.
  • Base view components of the MVC1080 @ 24p / 60i / 50i baseview video stream belonging to these deletion ranges, and dependent view components of the MVC1080 @ 24p / 60i / 50i dependent view video stream belong to the extent EXT (b) of (b) It exists in the hatching part of 5]. It is assumed that the extent EXT [5] has the start address n15 and the data length len15 after deletion.
  • FIG. 41C shows an allocation descriptor string of the m2ts file located before the deletion range
  • FIG. 41D shows an allocation descriptor string of the m2ts file located after the deletion range.
  • the allocation descriptor of the extent EXT [5] is as shown in (d). That is, the start LBN and the data length of the extent EXT [5] are rewritten to n15 and len15.
  • Division is the same operation as deletion of the middle part. That is, instead of the deletion range at the time of partial deletion, processing may be performed on the division point time axis to divide the m2ts file into two m2ts files before and after this.
  • FIG. 37 to FIG. 41 The process of partial deletion from FIG. 37 to FIG. 41 is only an illustration of a limited aspect. On the other hand, it is necessary to cover various arrangement patterns of extents in order to make the apparatus carry out partial deletion and other editing procedures and to commercialize it. It is the flowcharts of FIGS. 42 to 48 that generalize the procedure of partial deletion assuming such various patterns.
  • FIG. 42 is a flowchart showing the procedure of partial deletion of the main TS. This flowchart is the top-level main routine, and is executed only when it is determined that the medium is to be treated as an editable medium in the determination of the editability of FIG. 9 using the setting value X of extended_editability_flag in the AppInfo BDMV data of Index.bdmv. .
  • step S91 the current PTM is initialized, and in step S92, the picture of the current PTM in the MVC 1080 @ 24p / 60i / 50i base view video stream is reduced and displayed on the GUI.
  • step S93 the slide bar is moved at a time point corresponding to the current PTM, and the process proceeds to the loop of steps S94 to S96.
  • Step S94 is a determination as to whether the In point / Out point has been designated, and step S95 is a determination as to whether the In point or the Out point has been determined.
  • Step S96 is an update of the current PTM. If step S94 is Yes, it will transfer to step S97.
  • Step S97 is an Out point, and it is determined whether there is a combined In point.
  • Step S97 is No. If the step S97 is No, the step returns to the loop with the point of the slide bar as the In point of the deletion range in the step S98. If the step S97 is Yes, in the step S99, it returns to the loop with the point of the slide bar as the out point of the deletion range.
  • Step S95 becomes Yes and the process moves to Step S100.
  • Step S100 is determination of where on the time axis the deletion range exists. If the deletion range exists at the tip, deletion of the stream tip is executed at step S101, and then at step 102, tip deletion of the ATC sequence / STC sequence is executed. If the deletion range exists at the stream end, deletion of the stream end is performed in step S103, and end deletion of the ATC sequence / STC sequence is performed in step S104. If it exists in the middle part, deletion of the middle part of the stream is executed in step S105, and middle part deletion of the ATC sequence / STC sequence is executed in step S106.
  • FIG. 43 is a flowchart of the process of deleting an intermediate part.
  • step S106 of the flowchart of FIG. 42 which is the upper routine.
  • two transport streams newly obtained by deletion in the middle of the main TS are called main TS1 and main TS2.
  • PlayItems corresponding to the main TS1 and TS2 are called PlayItems #x and # x + 1.
  • step S130 the main TS referred to by the main path information of the 3D playlist is copied on the memory to obtain a main TS1 and a main TS2.
  • step S131 partial deletion is performed by designating the combination of the designated midway portion of the main TS1 and the portion after the midway portion as a new “deletion range”.
  • step S133 partial deletion is performed on the main TS2 as a new "deletion range" with a combination of the designated midway portion and the portion before the midway portion, and the remaining portion is recorded as the sub TS2.
  • step S134 the play item information #x defining the playback section on the main TS1 and the play item information # x + 1 defining the playback section on the main TS2 are generated in the main path information in the playlist information.
  • FIG. 44 is a flowchart of an extent partial deletion process. This flowchart develops in detail the procedure of steps S131 and S133 in FIG. 43, which is the upper routine. Variables In and Out in this flowchart are control variables for specifying the start point and the end point of the deletion range to be processed.
  • a step S141 converts the In point and the Out point of the deletion range on the time axis into SPN (In) and SPN (Out) using the EP_map.
  • SPN (In) and SPN (Out) are converted to logical addresses on the medium to obtain LBN (SPN (In)) and LBN (SPN (Out)) indicating the location of the deletion range in the target extent.
  • Step S143 is a judgment as to whether or not the deletion range defined by the deletion range LBN (SPN (In)) and LBN (SPN (Out)) exists over a plurality of extents. If the deletion range is within one extent, the allocation descriptor of EXT is rewritten in step S145.
  • the deletion range is divided along the extent boundary in step S148, and rewriting of the allocation descriptor of the extent in step S151 is repeated for each deletion range obtained by division (step S149). ).
  • the termination condition of this loop is that the determination result of the step becomes Yes, and the control unit maintains the same state until this termination condition is satisfied. Since the control variables In and Out are switched to the next one each time this loop makes a round, the data element designated by this control variable is subjected to the processing of this loop. Each time the loop makes a round, the processing structure is to process each of the plurality of data elements.
  • FIG. 45 is a flowchart showing rewriting of the allocation descriptor. This flowchart expands the procedure of steps S145 and S151 in the flowchart of FIG. 44, which is the upper routine, in detail.
  • a variable E [x] in this flowchart is a control variable for specifying an extent to be processed and an allocation descriptor. Therefore, in the subsequent flowcharts, the extent and allocation descriptor to be processed in the process of the xth round of the loop will be described as an extent E [x] and an allocation descriptor E [x].
  • Step S161 determines whether the deletion range exists at the end of extent E [x]
  • step S162 determines whether the deletion range exists at the end of extent E [x]
  • step S163 determines the deletion range It is a judgment whether it exists in the middle part of the extent E [x]. Since the determination content of the determination step corresponds to each of the plurality of arrangement patterns that the deletion range can take on the extent, the corresponding processing is executed by the value that the deletion range can take. It is the role of this determination step to branch the processing procedure to one having an appropriate content depending on which of a plurality of predetermined types of allocation the allocation of the extent to be processed corresponds to.
  • step S161 the data length of the deletion range is subtracted from the data length of the allocation descriptor E [x] in the file entry of the m2ts file in step S164 to cut the end of the extent E [x].
  • step S162 the data length of the deletion range is added to the start address of the extent E [x] in the allocation descriptor E [x] of the file entry of the m2ts file to achieve a front end cut.
  • step S166 the data length of the deletion range is subtracted from the data length of the allocation descriptor E [x].
  • the deletion range exists in the middle of the extent E [x]
  • the data length of the corresponding allocation descriptor E [x] of the file entry of the m2ts file is taken as the data length immediately before the deletion range (step S167).
  • An allocation descriptor E (x + 1) including the LBN of and the data length immediately after the deletion range to the end of the extent E [x] is added to the file entry of the m2ts file (step S168).
  • FIG. 46 (a) shows the procedure of tip deletion of the ATC sequence and STC sequence. This flowchart is a detailed development of the procedure of step S102 of the flowchart of FIG.
  • step S171 the SPN_ATC_start for the ATC sequence of the main TS is increased by the number of packets belonging to the deletion range (TS).
  • step S172 the SPN_STC_start for the STC sequence of the main TS is increased by the number of packets in the deletion range.
  • step S173 the STC_Start_time for the STC sequence of the main TS is increased by the number of STCs in the deletion range (TS), and in step S174, PlayItem.In_Time corresponding to the main TS is increased by the deletion range (TS).
  • step S175 among the SPN-PTS pairs in the EP_map, those belonging to the deletion range (TS) are removed from the EP_map.
  • FIG. 46 (b) shows the procedure of terminating the ATC sequence and STC sequence. This flowchart is a detailed development of the procedure of step S126 of the flowchart of FIG. 54 (b), which is the upper routine.
  • step S176 SPN_ATC_end of the ATC sequence of the ATC sequence of the main TS is decreased by the number of packets belonging to the deletion range.
  • step S177 the SPN_STC_End for the STC sequence of the main TS is decreased by the number of packets in the deletion range.
  • step S178 STC_end_time for the STC sequence of the main TS is decreased by the number of STCs in the deletion range, and in step S179, PlayItem.Out_Time corresponding to the main TS is decreased by the deletion range.
  • step S180 of the SPN-PTS pairs in the EP_map, those belonging to the deletion range are removed from the EP_map.
  • FIG. 47 shows the procedure of partial deletion of an ATC sequence and an STC sequence. This flowchart develops in detail the procedure of step S139 of the flowchart of FIG. 43, which is the upper routine.
  • step S181 the designated intermediate part and the part before that are set as the deletion range (TS1), and in step S182, SPN_ATC_start is increased by the number of packets belonging to the deletion range (TS1) for the ATC sequence of the main TS2.
  • step S183 SPN_STC_start for the STC sequence of the main TS2 is increased by the number of packets in the deletion range (TS1).
  • step S184 the STC_Start_time for the STC sequence of the main TS2 is increased by the number of STCs in the deletion range (TS1), and in step S185, PlayItem.In_Time corresponding to the main TS2 is increased by the deletion range (TS1).
  • step S186 among the SPN-PTS pairs in the EP_map, those belonging to the deletion range (TS1) are removed from the EP_map.
  • FIG. 48 shows the continuation of the procedure of ATC sequence and STC sequence midway deletion.
  • the SPN_STC_End for the STC sequence of the main TS1 is decreased by the number of packets in the deletion range (TS2).
  • step S190 the STC_end_time for the STC sequence of the main TS1 is decreased by the STC number in the deletion range (TS2), and in step S191, PlayItem.Out_Time corresponding to the main TS1 is decreased by the deletion range (TS2).
  • step S192 among the SPN-PTS pairs in the EP_map, those belonging to the deletion range (TS2) are removed from the EP_map.
  • step S193 atc_id and stc_id larger by “1” are added to the ATC sequence and STC sequence corresponding to the main TS2, and “1” is added to ref_to_STC_id of the PlayItem and SubPlayItem corresponding to the main TS2.
  • FIG. 49 is a flowchart showing the procedure of playlist integration. This flowchart is also determined to be treated as editable media in the editability determination using the set value X of extended_editability_flag in the AppInfo BDMV data of Index.bdmv. Only run.
  • two playlists to be integrated are referred to as playlists 1 and 2.
  • step S201 selection of two titles to be integrated is accepted. When a selection is made, 3D playlists constituting two titles are made into playlists 1 and 2 in step S202.
  • step S203 the play item information # 1 to #n constituting the playlist 2 is added as play items # m + 1 to m + n behind the play item information # 1 to #m constituting the playlist 1 Do.
  • step S205 mpls playlists constituting two titles are set to playlists 3 and 4, respectively.
  • step S206 the play item information # 1 to #n constituting the playlist 4 is added as play items # m + 1 to m + n behind the play item information # 1 to #m constituting the playlist 3 Do.
  • step S208 the playlist file defining the added playlists 1 and 3 is written, and the playlist file defining the playlists 2 and 4 is deleted.
  • the above process is subroutineized and is executed only when there is a call from the upper flowchart. Then, when these processes end, the process returns to the process of the upper flowchart. As a result, after the state of the hardware resource is restored, the processing of the upper flowchart is resumed.
  • the hardware configuration and software configuration of the Blu-ray Recording disc player and the Blu-ray Rewritable disc player, which are the basis of the device, are greatly modified to expand the function of editing stereoscopic video. Since it is not necessary to apply, product manufacturers can produce new products while making use of the design know-how cultivated in the previous product development, and can shorten the design period of applied products in product manufacturers. it can.
  • a BD-J application whose operation is defined by a BD-J object realizes playlist playback, interlace 3D including a stream selection table having an entry for which playback of the AVC1080 @ 60P / 50P video stream is permitted. For improvement.
  • Java2 Micro_Edition J2ME
  • PBP 1.0 Personal Basis Profile
  • GEM1.0.2 Globally Executable MHP specification
  • java.net for network processing
  • java.awt for GUI processing
  • java.lang for language processing
  • java.io for I / O processing for recording media
  • utilities By using java. Util, which is an extension API for BD-J platform (referred to as BD-J extension), the control using the data structure and the reproduction unit described in the above embodiments is realized.
  • This BD-J extension includes in-lid methods from java.net, java.awt, java.lang, java.io, java.util, and javax.media class methods, and the interface of these classes is an embedded interface, Since it is a super interface, it is an extension of programming techniques using java.net, java.awt, java.lang, java.io, java.util, and javax.media classes, and the playlist of AVC1080 @ 60P / 50P video stream It is possible to create an application suitable for playback.
  • the extension API in the BD-J platform includes an acquisition method that instructs acquisition of PSR31, b4 of PSR29, b3 of PSR231, b8 of PSR24, and b8 and b9 of PSR24.
  • the methods of the setting acquisition class include inherid methods of methods of the java.lang.object class. Also, if the argument in method call is invalid, throw java.lang.IlleghalArgumentException event, which is an event of java.lang class. Since this class inherits the methods and events of java.lang.object, a programmer can create a program using the PSR hold value by extending java.lang.object.
  • the playback procedure of a playlist including a stream selection table having an entry that permits playback of an AVC1080 @ 60P / 50P video stream by an object-oriented programming language and the playback procedure of a playlist including interlace 3D are as follows. Describe in
  • BDLocator loc newBDlocator (bd: //1.PLAYLIST: 00001) is described.
  • the playlist playback is started by calling start () which is a member function of the JMF player instance. If the variable name of the instance variable of the player instance is a playback device, describe as Player.start (). If playlist playback by such a description is conditioned using the capability value acquired by the state acquisition method, a code that causes playlist playback to be performed only when the capability described in the sixth embodiment is present is used. It can be written in a oriented programming language.
  • HAVi device configuration will be described.
  • background plane device for storing decoded image of JPEG image as background image
  • subtitle plane device for storing subtitles to be displayed
  • bit length menu and gadget A layer model is used in which screen composition is performed by overlapping BD-J plane devices for drawing.
  • these background plane devices, subtitle plane devices, and BD-J plane devices are all configured from right-eye plane memory and left-eye plane memory.
  • a limitation of the playback of the AVC1080 @ 60P / 50P video stream and the MVC1080 @ 60i / 50i video stream is that the scaling of the video plane device is not permitted and the background plane is hidden.
  • the behavior of the JMF player for older player versions is as follows. If the version of PSR31 is lower than 0250, this implementation depends on the situation when the JMF player is pre-fetched or started if the version X player uses version Y (Y> X) playlists Do. In this scenario, hold the same as any method use of the JMF player that is prefetched and in start state.
  • the BD-J application plays back playlists of version 2.5 or later, it uses codes that avoid compatibility. This code is programmed as follows: Check the version of PSR31.
  • a system API blue.prefetched.playlistloagding
  • the behavior of the JMF player according to this blulay.prefetched.playlistloagding also changes. You should not play the JMF player if blulay.prefetched.playlistloagding is set to No or to an undefined value. This is because playing back a playlist whose version is higher than that of the player device can not guarantee normal playback.
  • Start method or SyncStart method which is the method function of the JMF player, is called from the BD-J application, the player device needs to return a ResourceUnavailable event to the BD-J application.
  • the JMF player After generating ResorceAvailableEvent, the JMF player must be closed. If the JMF player is closed, the behavior of the JMF player will be undefined.
  • a presentation time stamp value PTS (DSn [PCS]) of a packet storing a presentation control segment PCS belonging to the nth display set DSn and defining interaction control of the PG stream defines the end point of the active period of the presentation control segment
  • the value DTS (DSn + 1 [PCS]) of the decode time stamp of the packet storing the presentation control segment PCS belonging to the display set DSn + 1 immediately after indicates the start point of the active period of the presentation control segment.
  • the presentation time stamp value PTS (DSn [ICS]) of the packet that belongs to the nth display set DSn and stores the interactive control segment ICS that defines the interactive control of the IG stream defines the end point of the active period of the interactive control segment
  • the value DTS (DSn + 1 [ICS]) of the decode timestamp of the packet storing and indicating the interactive control segment ICS belonging to the display set DSn + 1 immediately after indicates the start point of the active period of the interactive control segment.
  • the playback times of successive presentation control segments and interactive control segments of different display sets have a difference of one frame and two frames. This depends on the frame rate.
  • FIG. 50 is a diagram showing an example of a recording area of a stereoscopic interleaved stream file (ssif file).
  • (A) shows a plurality of extents constituting the ssif file, and
  • (b) shows file system information on this recording area.
  • the file system information of (b) is composed of the directory file of the SSIF directory and the file entry of the ssif file.
  • the SSIF directory file is composed of a file identification descriptor of the SSIF directory and a file identification descriptor of the ssif file.
  • the file entry of the ssif file is composed of a descriptor tag, an ICB tag, an allocation descriptor length, and an allocation descriptor sequence.
  • the "descriptor tag” is a tag indicating that the file entry itself is "ICB tag” indicates attribute information on the file entry itself.
  • the leader lines close up the configuration of the allocation descriptor string. As shown in this leader line, the combination of the start address of the extent and the data length (n1: len1, n2: len2, n3: len3, ...) is shown in association with the extent ID for identifying the extent. ing. That is, in the figure (a), the ssif file has extents EXT2 [1], EXT1 [2], EXT2 [3], EXT1 [4], EXT2 [5], EXTss [6], EXT2 [7], EXTss [8].
  • the ssif file can be accessed in both (1) 2D output mode and 3D output mode only in the extent EXT1 [x] and (2) 3D output mode Extents to be accessed EXT 2 [x], (3) Extents of extents EXT 2 D [x] to be accessed only in 2D output mode, and (4) Extents of extents of EXT 1 [x], which are accessed only in 3D output mode
  • This file is composed of four types of extents EXTss [x].
  • the ssif file is opened in three forms depending on the aspect used.
  • FIG. 51 shows an attribution relationship as to which file an extent of an ssif file becomes a component of.
  • One of the extents of the ssif file constitutes one data block, or a plurality of extents gather to constitute one data block.
  • data blocks there are Closed-GOP of Base-view component, Base-view data block including Open-GOP, and Dependent-view data block including Open-GOP of Dependent-view component. It is an interleaving format in ssif files that blocks and base view data blocks are alternately arranged. In order to simplify the explanation, we introduce the premise that a data block consists of one extent.
  • Data block numbers such as 1, 2, 3, and 4 are assigned to the data blocks of the dependent view stream and the data blocks of the base view in FIG. This number indicates the order of data blocks in the ssif file, and both data blocks of the same number are read from the ssif file.
  • various variations of the ssif file are formed by changing the combination of the three extents of the extent EXT2 [x], the extent EXTss [x], and the extent EXT2D [x].
  • the first row in FIG. 51 shows the extent of the ssif file.
  • the second row shows a file (m2ts file) composed of a baseview data block and a 2D baseview data block.
  • the m2ts file is composed of four extents such as EXT1 [2], EXT1 [4], EXT2D [9], and EXT2D [10]. These extents include base-view data blocks B [1], B [2], B2D [3], B2D [4] that constitute the main TS including the MVC1080 @ 24p / 60i / 50i base-view video stream.
  • the base-view data block and the base-view data block for 2D are read out to the memory.
  • the third row shows a file (file base) composed of only base view data blocks.
  • the file base comprises four extents such as EXT1 [2], EXT1 [4], EXTss [6], and EXTss [6]. Since these extents include base-view data blocks B [1], B [2], Bss [3], Bss [4], the base-view data blocks are read to memory by opening the file base. It will be.
  • the fourth row shows a file (file dependent) composed of only dependent-view data blocks.
  • the file dependent consists of four extents EXT2 [1], EXT2 [3], EXT2 [5], and EXT2 [7]. Since these extents include dependent-view data blocks D [1], D [2], D [3], D [4], by opening the file dependent, MVC1080 @ 24p / 60i / Source packet trains constituting the dependent data blocks constituting the sub-TS including the 50i dependent-view video stream are read out to the memory.
  • the ssif file is opened as an m2ts file, a file base, or a file dependent.
  • the ssif file By defining the extent of the ssif file as the allocation descriptor described above, the ssif file will be read by the recording device in a manner depending on the output mode. Since the above EXT1 [x], EXT2 [x], EXT2D [x], and EXTss [x] constitute separate stream files such as file base, file dependent, and m2ts file, these extents are The length must be sufficient not to cause the read buffer underflow.
  • the lower limit values of the file base, the file dependent, and the extent constituting the m2ts file will be described.
  • the lower limit value of the file-based EXT1 [x] is the jump period from the last extent of each base-view data block to the first extent of the next dependent-view data block during playback in 3D output mode, and It is determined not to cause double buffer underflow during the jump period from the last extent of the dent-view data block to the first extent of the next base-view data block.
  • the double buffer here is composed of a first read buffer and a second read buffer.
  • the first read buffer is identical to the read buffer of the 2D output mode playback device of the Blu-ray ReadOnly disc.
  • the jump from the last extent constituting the nth baseview data block to the first extent constituting the pth dependent view data block is time TFjump3D (n)
  • the pth It is assumed that the jump from the last extent constituting the dependent-view data block of to the first extent constituting the (n + 1) th base-view data block takes time TBjump3D (n).
  • TFjump3D (n) and TBjump3D (n) are jump times in the 3D output mode in the BD-3D player model.
  • each base-view data block is read to the first read buffer at the speed Rud3D
  • each dependent-view data block is read to the second read buffer at the speed Rud3D
  • the read buffer 1 to the video decoder is the base
  • the lower limit value of EXT1 [n] is expressed by the following condition A.
  • EXT1 [n] lower limit value of EXT1 [n] ⁇ (Rud3D ⁇ Rbext3D) / (Rud3D ⁇ Rbext3D) ⁇ (TFjump3D (n) + EXT2 [n] / (Rud3D + TBjump3D (n)))
  • the lower limit value of EXT2 [n] is the jump period from the extent of a dependent-view data block to the extent of the next base-view data block and the extent of the base-view data block during playback in 3D output mode. It is decided not to cause the double buffer in the reproducing apparatus to underflow through the jump period to the extent of the dependent-view data block.
  • the jump from the last extent constituting the (n + 1) th base view data block to the first extent constituting the (p + 1) th dependent view data block is time TFjump3D (n + 1).
  • the lower limit value of EXT2 [n] is expressed by the following condition B:
  • the velocity Rud3D and the average velocity Rbext3D are transfer times in the 3D output mode in the BD-3D player model.
  • EXT2D is a buffer under read buffer in the read device in the playback apparatus during a jump period from the last extent of each base view data block to the first extent of the next base view data block during playback in the non-3D output mode. It is determined not to generate a flow.
  • the jump from the nth baseview data block to the (n + 1) th baseview data block takes time Tjump2D (n), and each baseview data block is read into the read buffer at speed Rud2D, and
  • the lower limit value of EXT2D is expressed by the following condition C:
  • EXTss is calculated as follows. From reading an extent here to jumping to the next extent, the buffer occupancy just before the jump must be sufficient. Then, when reading a stereoscopic interleaved stream file, the read buffer needs to be filled with one extent, and the occurrence of buffer underflow must be avoided. Therefore, Sextss which is the minimum extent size is calculated as a value satisfying the following condition D.
  • the stream configuration of the ssif file means that the base view component stores the main transport stream (main TS) containing the base video stream, and the dependent view component contains the sub transport containing the dependent view video stream A stream (sub-TS) is stored. Therefore, the base view component and the dependent view component are generated through the process of elementary stream generation ⁇ transport stream generation ⁇ source packetization of TS (transport stream) packets constituting the transport stream.
  • FIG. 52 is a diagram showing a process of generating a dependent view data block and a base view data block.
  • FIG. 52 schematically shows how the base-view data block (B [x], B2D [x], Bss [x]) stored in the extent EXT1 [x] is multiplexed.
  • a Closed-GOP 501 composed of a base view component and a plurality of audio frames 507 as an access unit of an audio stream are converted into PES packet sequences 502 and 508, respectively, and converted to TS packets 503 and 509. Convert.
  • the data of the PG stream 504 and interactive graphics 510 are converted to PES packet sequences 505 and 511, respectively, and further converted to TS packets 506 and 512.
  • the base-view data block is configured by multiplexing these TS packets into one stream. Such base-view data blocks are stored in EXT1 [x], EXT2D [x], and EXTss [x] in the previous figure. Also, the transport stream including the base-view video stream obtained in this process is referred to as “main TS”.
  • the parent screen video stream, the audio stream, the PG stream, and the IG stream are multiplexed.
  • FIG. 52 schematically shows how the dependent-view data block (D [x]) stored in the extent EXT2 [x] is multiplexed.
  • Open-GOP 601 composed of dependent view components, and a plurality of audio frames 604 constituting an audio stream are converted into PES packet sequences 602 and 605, respectively, and converted to TS packets 603 and 606.
  • data of the PG stream 607 and interactive graphics 610 are converted to PES packet sequences 608 and 611, respectively, and further converted to TS packets 609 and 612.
  • a dependent-view data block is configured by multiplexing these TS packets into one stream.
  • This dependent view data block is stored in EXT2 [x] in this figure.
  • the transport stream including the dependent-view video stream obtained in the process of such transport streaming (multiplexing) is referred to as "sub TS".
  • FIG. 53 shows the relationship among clip information files, playlists, and stereoscopic interleaved stream files.
  • the right side shows a stereoscopic interleaved stream file
  • the left side shows a clip information file.
  • Arrows split 1 and 2 indicate that m2ts file and file dependent can be obtained by splitting the stereoscopic interleaved stream file on the right side.
  • the middle shows the extent EXT1 [x] and EXT2D [x] that constitute the m2ts file in the first row, and the second row shows the basic entry map (EP_map) in 00001.clpi which is the clip information for the m2ts file.
  • the third row shows the 3D playlist, the fourth row EP_map_SS which is the stereoscopic version of the entry map, and the fifth row the extent EXT2 [x] of the file dependent.
  • the file base and file dependent clip information files on the left side include EP_map_SS in the feature point information, file base extent start point information, and extent start point information for extracting file dependent extents.
  • Arrows split 3 and 4 schematically indicate that extent start point information for file base and extent start point information for extracting an extent of file dependent provide a way to divide a stereoscopic interleaved stream file.
  • the feature point information SS includes an EP_map_SS, and the EP_map_SS is composed of a plurality of entry points as in the basic entry map.
  • FIG. 54 is a diagram showing a basic entry map (EP_map) and a stereoscopic version of the entry map (EP_map_SS).
  • the fifth row shows a plurality of sets of dependent view data blocks and base view data blocks.
  • the fourth row shows source packet sequences constituting the dependent-view data block and the base-view data block.
  • the first row consists of an Open-GOP composed of dependent view components of the MVC1080 @ 24p / 60i / 50i dependent-view video stream, and a base view component of the MVC1080 @ 24p / 60i / 50i base-view video stream Shows a set of Closed-GOPs.
  • the second row shows EP_map which is a basic entry map
  • the third row shows EP_map_SS which is a stereoscopic version of the entry map.
  • PTS presentation time stamps t1, t11 and t31 described in the EP_map of this figure
  • PTS an arbitrary one is called PTS (i).
  • SPN the one corresponding to the PTS (i) is called SPN (i). Therefore, the range from the packet (m) indicated by the SPN (i) of the EP_map to the packet (n-1) immediately before the packet (n) indicated by the SPN (i + 1) of the EP_map
  • SPN the range from the packet (m) indicated by the SPN (i) of the EP_map to the packet (n-1) immediately before the packet (n) indicated by the SPN (i + 1) of the EP_map
  • PTS presentation time stamps t1, t11 and t31 described in the drawing EP_map_SS
  • PTS presentation time stamps t1, t11 and t31 described in the drawing EP_map_SS
  • SPN source packet numbers a1, a21 and a41 described in the figure EP_map_SS
  • SPN source packet numbers a1, a21 and a41 described in the figure EP_map_SS
  • SPN SPN
  • a combination of Closed-GOP composed of these base-view view components and Open-GOP composed of base-view view components can be decoded independently, and these Closed-GOP and Open-GOP are configured.
  • a plurality of source packets to be read out from the recording medium may be input to a video decoder to construct a stereoscopic image per second.
  • Closed-GOP configured by the view component of the base view in the MVC1080 @ 24p / 60i / 50i video stream, and configured by the view component of the dependent view in the MVC1080 @ 24p / 60i / 50i video stream
  • the source packet located at the beginning of GOP (i) of the base-view video stream and the source packet located at the beginning of GOP (i) of the dependent-view video stream form a set of consecutive extents (interleaved extent unit) If it belongs, the source packet of the GOP (i) top of the base-view video stream of MVC1080 @ 24p / 60i / 50i and the top source packet of the GOP (i) of the dependent-view video stream of MVC1080 @ 24p / 60i / 50i Since an entry pointing to the is added to both the basic EP_map and the extension EP_map_SS, using both the basic EP_map and the extension EP_map_SS, the MVC 1080 @ 24p / 60i / 50i baseview video stream is Guarantee continuous reading of GOP (i) and GOP (i) of MVC1080 @ 24p / 60i / 50i dependent-view video stream It can be.
  • the MVC1080 @ 24p / 60i / 50i base-view video stream Since the address of the IDR picture located at the beginning of the Closed-GOP in the MVC1080 @ 24p / 60i / 50i base-view video stream is associated with the playback start time, the MVC1080 @ 24p / 60i / 50i base-view video stream, MVC1080 Among the @ 24p / 60i / 50i dependent-view stream video streams, it can be grasped from where and how far the source packets making up the Closed-GOP exist. To facilitate such grasping and efficiently perform processing of releasing a part of the recording area of the video stream to a free area, the EP_map is applied to the extension data to which the ID1 with a value of 0x0002 or 0x0004 is given. This is the intention of providing EP_map_SS.
  • FIG. 55 shows an example of locating an extent location using EP_map, EP_map_SS, allocation descriptor, and extent start point information.
  • the left side of the first stage to the third stage of FIG. 55 is the same as the first stage to the third stage of FIG. It differs from FIG. 50 in that specific values of the allocation descriptor and the extent start point are described on the right side.
  • the right side of the first row shows the allocation descriptor of the m2ts file.
  • the extents in the m2ts file are obtained by extracting EXT1 [x], EXT2 [x], and EXT2D [x] in the ssif file, so in the allocation descriptor of the m2ts file, the extent ID of the independent system is given to each extent .
  • the allocation descriptor of the m2ts file indicates the address (n2, n4) of EXT1 [2], EXT1 [4] and the data length (len1, len4), and the address (n9, n10) of EXT2D, the data length Indicates (len9, len10).
  • the stereoscopically interleaved stream files EXT1 [x] and EXT2D [x] will be recognized as the extent of the m2ts file.
  • the right side of the second row in FIG. 55 shows the start address of the file-based extent and the extent start point information for extracting the file-based extent in association with each other.
  • LBN logical block number
  • SPN (n2), SPN (n4), SPN (n6) and SPN (n8) obtained by converting these LBNs into source packet numbers are described.
  • the right side of the third row in FIG. 55 shows the start address of the file dependent extent and the extent start point information on the file dependent in association with each other.
  • source packet numbers SPN (n1), SPN (n3), SPN (n5) and SPN (n9) obtained by converting these LBNs into source packet numbers are described.
  • the extent of the m2ts file, the file-based extent, and the file dependent extents are read individually.
  • FIG. 56 shows a playlist and a stereoscopic playlist defined by a playlist file (mpls file) recorded in the BDMV directory.
  • the first row is playlist information in the BDMV directory
  • the second row is a base-view data block
  • the third row is a stereoscopic playlist
  • the fourth row is a dependent-view data block. Show.
  • Arrows rf 0, rf 1, rf 2, and rf 3 indicate the reference of the reproduction path by combining the file name 00001 described in clip_information_file_name in the play item information of the play list information in the BDMV directory and the extension m2ts.
  • the extents EXT1 [2], EXT1 [4], EXT2D [9], and EXT2D [10] constitute a playback path on the Base video side.
  • Arrows rf4, rf5, rf6, and rf7 indicate the reference of the reproduction path designated by the play item information of the stereoscopic play list information.
  • a reproduction path on the Base video side is configured using EXT1 [2], EXT1 [4], EXTss [6], and EXTss [8].
  • Arrows rf8, rf9, rf10, and rf11 indicate playback paths specified by the sub play item information of the stereoscopic play list information.
  • the playback path on the dependent-view video side is configured using EXT2 [1], EXT2 [3], EXT2 [5], and EXT2 [7].
  • the data block constituting the playback path specified by the play item information and the sub play item information is opened by combining the file name described in clip_information_file_name in the play item information and the extension ssif. It can be read out.
  • clip_information_file_name in the play item information of the playlist in the BDMV directory describes the file name of the m2ts file.
  • Clip_information_file_name in the play item information of the stereoscopic playlist describes a file-based file name.
  • the file base is a virtual file, and the file name is the same as the interleaved stream file, so the file name of the interleaved stream file may be described in clip_information_file_name in the play item information.
  • Ref_to_subclip_entry_id in the stream registration information of STN_table_SS describes the file name of the file dependent.
  • the file name of the file dependent is obtained by adding 1 to the identification number of the interleaved stream file.
  • FIG. 57 shows three types of editing for a playlist.
  • the same figure (a) shows a movie playlist and a 3D playlist that have been deleted. In the ssif file, a case where EXT2 [1] and EXT1 [2] are deleted is shown.
  • FIG. 58 shows the case where the tip portion is deleted. Specifically, as shown in FIG. 6A, the tip portion is designated as a deletion range and deleted. Base view components and dependent view components belonging to these deletion ranges exist in the hatched portion of the extent EXT2 [1] of (b) and the hatched portion of the extent EXT1 [2]. After deletion, the start positions of the extent EXT2 [1] and the extent EXT1 [2] are n11 and n12, and the data lengths are len11 and len12. In this case, the allocation descriptor of the extent EXT2 [1] and the allocation descriptor of the extent EXT1 [2] in the ssif file are as shown in (c).
  • the start LBN and data length of the extent EXT2 [1] are n11 and len11
  • the start address LBN of the extent EXT1 [2] is n12
  • the data length is len12.
  • the extent EXT1 [2] storing the base view component and the extent EXT2 [1] storing the dependent view component are partially deleted together.
  • the allocation descriptor of the extent of ID1 in the m2ts file is as shown in (d). That is, the head LBN of the extent of ID1 is rewritten from n1 to n11, and the data length is rewritten from len1 to len11. The remaining extents are not rewritten.
  • FIG. 58E shows file-based extent start point information.
  • This file-based extent start point information includes the source packet number SPN (n2) of the extent EXT1 [2] and the source packet number SPN (n4) of the extent EXT1 [4] among the original file-based allocation descriptors.
  • FIG. 58F shows extent start point information of the file dependent.
  • the file dependent's extent start point information includes the source packet number SPN (n1) of the extent EXT2 [1] and the source packet of the extent EXT2 [3] among the original file-based allocation descriptors.
  • the number SPN (n3), the source packet number SPN (n5) of the extent EXT2 [5], and the source packet number SPN (n7) of the extent EXT2 [7] exist.
  • the last one has been rewritten (n1 ⁇ n11) along with the halfway deletion.
  • FIG. 59 shows the case of deleting the end portion.
  • the end portion is designated as a deletion range and deleted.
  • the allocation descriptor of the extent EXT2 [7] in the ssif file and the allocation descriptor of the extent EXTss [8], EXT2D [10] are as shown in (c). That is, the data length of the extent EXT2 [7] is rewritten to len17, and the data lengths of the extents EXTss [8] and EXT2D [10] are rewritten to len18 and len20.
  • the extents EXTss [8], EXT2D [10] storing the base view component and the extent EXT2 [7] storing the dependent view component are partially deleted together.
  • (E) is an extent start point for a file base
  • (f) is an extent start point for a file dependent. Rewriting does not occur in the source packets described in these.
  • FIG. 60 shows the case of deleting the middle part.
  • an intermediate part is designated as a deletion range and deleted.
  • the extent EXT2 [5] has the start address n15, the data length len15, the extents EXTss [6], and the start address EXT2D [9] n16, n19, and the data lengths len16, len19.
  • FIG. 60 (c) shows the allocation descriptor string of the ssif file located before the deletion range
  • FIG. 60 (d) shows the allocation descriptor row of the ssif file located after the deletion range.
  • allocation descriptors from extent ID 5 to 10 exist.
  • the allocation descriptor of the extent EXT2 [5] and the allocation descriptor of the extent EXTss [6], EXT2D [9] are as shown in (d). That is, the start LBN and data length of the extent EXT2 [5] are rewritten to n15 and len15, the start address of the extents EXTss [6] and EXT2D [9] is rewritten to n16 and n19, and the data length to len16 and len19.
  • FIG. 61 (a) shows the allocation descriptor string of the m2ts file located before the intermediate part
  • FIG. 61 (b) shows the allocation descriptor string of the m2ts file located after the intermediate part.
  • FIG. 61 (c) shows file-based extent start point information located before the middle portion
  • FIG. 61 (d) shows file-based extent start point information located before the middle portion
  • file-based extent start point information prior to the deletion range includes the source packet number SPN (n2) of the extent EXT1 [2] among the original file-based allocation descriptors, and the extent EXT1 [ Source packet number SPN (n4) of 4] and source packet number SPN (n6) of the extent EXTss [6] exist. The last one is subjected to rewriting (n6 ⁇ n16) along with the halfway deletion.
  • file-based extent start point information before the middle part includes the source packet number SPN (n1) of the extent EXT2 [1] among the original file-based allocation descriptors, and the extent EXT2 [3] Source packet number SPN (n3), and source packet number SPN (n15) of the extent EXT2 [5].
  • the last one has been rewritten (n5 ⁇ n15) along with the halfway deletion.
  • FIG. 61 (e) shows file-based extent start point information located after the middle part
  • FIG. 61 (f) shows file dependent extent start point information located after the deletion range.
  • the source packet number SPN (n8) of the extent EXTss [8] among the original file-based allocation descriptors is present.
  • EXT1 [1], EXT2 [x], EXT2D [x], and EXTss [x] exist in the extents of the ssif file, so partial deletion of the extents is replaced with that shown in FIG. The one shown in FIG. 62 is executed.
  • FIG. 62 is a flowchart of an extent partial deletion process. Variables In and Out in this flowchart are control variables for specifying the start point and the end point of the deletion range to be processed.
  • a step S141 converts the In point and the Out point of the deletion range on the time axis into SPN (In) and SPN (Out) using the EP_map.
  • SPN (In) and SPN (Out) are converted to logical addresses on the medium to obtain LBN (SPN (In)) and LBN (SPN (Out)) indicating the location of the deletion range in the target extent.
  • Step S143 is a judgment as to whether or not the deletion range defined by the deletion range LBN (SPN (In)) and LBN (SPN (Out)) exists over a plurality of extents. If the deletion range exists in one extent, the process proceeds to step S144.
  • Step S144 is a determination as to whether the extent in which the deletion range exists is EXT1.
  • step S145 the allocation descriptor of EXT1 is rewritten in step S145. If not EXT1, in step S146, the allocation descriptor of EXT2D is rewritten, and in step S147, the allocation descriptor of EXTss is rewritten.
  • Step S151 to S153 determine whether or not the extent in which the deletion range exists is EXT1 (step S150), and if Yes, rewrite the allocation descriptor of EXT1 (step S151), and if not EXT1. For example, the allocation descriptor of EXT2D is rewritten (step S152), and the allocation descriptor of EXTss is rewritten (step S153).
  • the termination condition of this loop is that the determination result of the step becomes Yes, and the control unit maintains the same state until this termination condition is satisfied.
  • Step S154 converts the In point and Out point of the deletion range on the time axis into SPN (In) and SPN (Out) using EP_map_SS.
  • step S155 SPN (In) and SPN (Out) are converted to logical addresses on the medium to obtain LBN (SPN (In)) and LBN (SPN (Out)) indicating the location of the deletion range in the target extent.
  • step S156 is a judgment as to whether or not the deletion range defined by the deletion range LBN (SPN (In)) and LBN (SPN (Out)) exists over a plurality of extents. If the deletion range exists in one extent, the process proceeds to step S157. In step S157, the allocation descriptor of EXT2 is rewritten.
  • Step S158 When the deletion range exists over a plurality of extents, the deletion range is divided along the extent boundary in step S158, and the process of step S161 is repeated for each deletion range obtained by the division (step S160).
  • Step S161 is to rewrite the allocation descriptor of EXT2D. Since the control variables In and Out are switched to the next one each time this loop makes a round, the data element designated by this control variable is subjected to the processing of this loop. Each time the loop makes a round, the processing structure is to process each of the plurality of data elements.
  • editability information (Placement place of extended_editability_flag)
  • editability_flag and extended_editability_flag are arranged in the index file and the editability is in the entire BDMV category in the above embodiments
  • the editability information is not the index file but the play. It may be provided in a list file or clip information file.
  • the editability information can be managed in playlist units, and the edit information (editability_flag, extended_editability_flag) is provided in the clip information file.
  • the editing availability information can be managed in clip stream file units.
  • Information for managing the editability information of may be provided.
  • Target movie recording format Although the target movie recording format is a version that can handle stereoscopically playable video streams and video streams that can be played back at an optional frame rate, the resolution of the image and the gradation of pixels have been increased. It may be a version of the movie recording format that enables it. Also, it may be a version of the real time recording format.
  • a mechanical drive such as a drive unit of a recording medium, a connector with the outside, etc. excluding a mechanical part, a part corresponding to a logic circuit or a memory element That is, the core of the logic circuit may be integrated into a system LSI.
  • the system LSI is one in which a bare chip is mounted on a high density substrate and packaged.
  • a package in which a plurality of bare chips are mounted on a high density substrate and packaged to provide an outer structure like one LSI to a plurality of bare chips is called a multichip module, but such a package Is also included in the system LSI.
  • QFP quad flood array
  • PGA pin grid array
  • the QFP is a system LSI in which pins are attached to the four sides of the package.
  • the PGA is a system LSI in which many pins are attached to the entire bottom surface.
  • pins serve as power supply, ground, and interface with other circuits. Since the pins in the system LSI have such an interface role, by connecting other circuits to these pins in the system LSI, the system LSI serves as the core of the playback device.
  • the architecture of this integrated circuit is composed of a front end unit, a signal processing unit, a back end unit, a media I / O, a memory controller, and a host microcomputer, and through the media I / O and the memory controller Connected to the drive, the memory, and the transmitting / receiving unit.
  • Drives in the playback device include drives of read only media, drives of local storage, drives of removable media, and the like.
  • the front end processing unit is composed of a preprogrammed DMA master circuit, an I / O processor, and the like, and performs overall packet processing.
  • the packet processing corresponds to processing by the demultiplexer.
  • the above-described packet processing is realized by realizing DMA transfer between the read buffer, various plane memories, and various buffers secured in the memory of the reproduction apparatus.
  • the signal processing unit is composed of a signal processing processor, a SIMD processor, etc., and performs overall signal processing.
  • Signal processing includes decoding by a video decoder and decoding by an audio decoder.
  • the back end unit is composed of an adder and a filter, and performs all AV output processing.
  • the AV output processing includes pixel processing, and image superposition, resizing, and image format conversion for layer composition are performed by the pixel processing. In addition, digital / analog conversion etc. are executed together.
  • Media I / O is an interface with the drive and the network.
  • the memory controller is a slave circuit for memory access, and realizes reading and writing of memory of packets and picture data according to the request of the front end unit, the signal processing unit, and the back end unit.
  • the memory controller 75 By reading and writing the memory through the memory controller 75, the memory functions as various buffers in the read buffer, video plane, graphics plane, and video decoder.
  • the host microcomputer is composed of MPU, ROM and RAM.
  • the CPU in this host microcomputer has an instruction fetch unit, a decoder, an execution unit, a register file, and a program counter.
  • the program for executing the various processes described in the above embodiments is stored as a built-in program in a ROM in the microcomputer in the host microcomputer together with a basic input / output system (BIOS) and various middleware (operation systems). It is done. Therefore, the main function of the playback device can be incorporated in the system LSI.
  • BIOS basic input / output system
  • the program shown in each embodiment may be configured by a computer code, and may be supplied to the recording apparatus and the reproducing apparatus by recording the program on a non-transitory computer readable medium.
  • the bit rate from the PID filter to the transport buffer is 28 Mbps. This Rts1 is described in TS_recording_rate.
  • the elementary buffer 1 and the elementary stream buffer are 3.75 M bytes, and the elementary picture buffer 1 is a decoded picture buffer, which is 12.382912 M bytes.
  • the format ID of the AVC1080 @ 60P / 50P video stream and the HDMVTS include the AVC1080 @ 60P / 50P video stream, they are set to 48, 44, 50, 53.
  • the level idc of the SPS is set to 42. If PSR 29 b 4 is set to 1 and there is an AVC 1080 @ 60P / 50P video stream capability, the decoder supports level 4.2 of the high profile.
  • the maximum number of displayable frames in a GOP in the AVC 1080 @ 60P / 50P video stream is 1920 ⁇ 1080, 50/60 Hz
  • frame_mbs_only_flag is 1
  • frame_mbs_only_flag is 1
  • Rbx is 2.8 Mbps
  • Rx is 1
  • the maximum number of frames is 50/60.
  • the Rx is 1.2 ⁇ frame_mbs_only_flag is 1, the Rbx is 2.8 Mbps, the Rx is 1.2 ⁇ 2.8 Mbps, the maximum number of frames is 50/60, and the maximum number of frames is 50/60.
  • frame_mbs_only_flag is 1, Rbx is 1.5 Mbps, Rx is 1.2 ⁇ 1.5 Mbps, and the maximum number of frames is 100/120.
  • the maximum size of a slice per slice is one macroblock row (macroblock row or macroblock pair row).
  • a slice consists of one or more macroblock rows.
  • the maximum number of complete field pairs or frames in the decoded picture buffer is set to 4 frames at levels 4.1, 4.2, 1920 ⁇ 1080, as compared to the maximum DPB size of ISO / IEC 14496.
  • MinCR main profile minimum compression ratio
  • a picture is configured by multi-slices of four or more slices per picture.
  • the number of macroblocks in any slice should not exceed 1/2 of the total number of macroblocks.
  • the number of macroblock rows in each slice should be the number of rows matching the height of the current picture, or the number of rows equivalent to the interlace coding mode.
  • mb_adaptive_frame_field_type “1”, even slices are 16 macroblocks, and odd slices are 18 macroblock rows (16/18/16/18 configuration).
  • mb_adaptive_frame_field_type is set to 0, it indicates that the coded picture in the sequence includes a coded frame and a coded field. When set to 1, it indicates that the coded picture in the sequence is a code frame containing only frame macroblocks.
  • pic_width_in_mbs_minus1 indicates the width of a decoded picture in a macroblock unit.
  • Pic_height_in_map_unit_minus1 indicates the height of a decoded frame / field in slice group units.
  • Pic_width_in_mbs_minus1 indicates the width of a decoded picture in a macroblock unit.
  • Pic_height_in_map_unit_minus1 indicates the height of a decoded frame / field in slice group units.
  • Rx1 indicates the transfer rate from the transport buffer to the multiplexed buffer
  • Rbx1 indicates the transfer rate from the multiplexed buffer to the elementary buffer
  • Rx1 is 1.2 ⁇ 40 Mbps and Rbx1 is 40 Mbps, 60 fields at level 4.1.
  • Rx1 is 1.2 ⁇ 24 Mbps
  • Rbx1 is 24 Mbps.
  • Rx1 is 1.2 ⁇ 40 Mbps and Rbx1 is 40 Mbps at level 4.1.
  • Rx1 is 1.2 ⁇ 24 Mbps
  • Rbx1 is 24 Mbps.
  • Rx1 is 1.2 ⁇ 15 Mbps and Rbx1 is 15 Mbps.
  • the information recording medium according to the present invention can store 3D video captured by a user using broadcast waves, 3D video supplied by network distribution, or a 3D-compatible video camera. Therefore, the present invention has great potential to be used in the consumer electronics industry as a technology for protecting the 3D video content of the user and enabling safer viewing on various devices.
  • optical disc 1001 2D / 3D recording device 1002 recording device 1003 remote control 1004 television broadcast display device

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Television Signal Processing For Recording (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

 リライタブル型記録媒体には、BDMVディレクトリにIndex.bdmvが記録される。Index.bdmvは、editability_flagと、extended_editability_flagとを含み、editability_flagは、機器に本記録媒体が装填された際、当該機器によって、本記録媒体がエディタブルメディアとして取り扱われるか否かを規定する。立体視映像の記録及び編集に対応していないレガシー機器は、editability_flagがオフに設定されることで本記録媒体が非エディタブルメディアとして取り扱われる。extended_editability_flagは、立体視映像の記録及び編集に対応した非レガシー機器に本記録媒体が装填された際、editability_flagがオフを示していたとしても、本記録媒体が、当該非レガシー機器によってエディタブルメディアとして取り扱われストリームファイルに対する編集が可能になる旨を規定する。

Description

旧来のフォーマットとの互換を維持しつつも、記録内容を編集することができる記録媒体、再生装置、記録装置、再生方法、記録方法
 本発明は、映像編集の技術分野に属する発明である。
 映像編集には、特殊な視覚効果を伴う高度のものから、映像の部分削除・分割・統合といった基本的なものまで様々な内容のものが知られている。映像を記録するにあたって、映像はMPEG2、MPEG4-AVCといった符号化方式により符号化され、MPEG2-TS形式のストリームファイルに格納されて記録媒体に書き込まれる。記録媒体において、ファイルの形式で記録されることから、一般のコンピュータファイルと同様、ファイルシステム管理情報の書き換えにより、かかるストリームファイルを部分削除したり、分割、統合することができる。ファイルシステム管理情報の書き換えのみによって可能になるから、ファイルシステム情報書き換え型の編集機能は、記録装置や再生装置の標準機能として実装されることが一般的である。
 従来、編集の対象となる映像記録のデータフォーマットは、ユーザが独自に記録した録画物の記録のためのリアルタイムAV記録フォーマットに限られていたが、近年、編集対象の裾野が広がり、映画作品記録のためのムービー記録フォーマットも、部分削除・分割・統合といったファイルシステム書き換えによるストリーム編集の対象になった。映画作品記録のためのムービー記録フォーマットは、画像の高解像度化、画素の高階調化等、更なる高機能化、付加価値化を目差して様々な改訂が加えられており、その改訂は、現在も進行中である。部分削除・分割・統合といったファイルシステム書き換えによるストリーム編集の先行技術としては、以下の特許文献1に記載された文献公知発明が存在する。
国際公開 WO02/052556号公報
 上述したように、編集可能なフォーマットが拡充されてゆくと、旧来のフォーマットしか処理できないレガシー機器との互換の問題が生じる。ここで最新の改訂が施されたムービー記録フォーマットの記録媒体がレガシー機器に装填され、レガシー機器による編集の対象になったものとする。ここでレガシー機器は、その最新のムービー記録フォーマットのうち、旧来のフォーマットとの共通項を編集の対象にする。この共通項は、最新のフォーマットにとって、旧来のフォーマットとの互換性を維持するための部分であることが多い。そうすると、新フォーマットで映像を記録した記録媒体がレガシー機器に装填され編集に供されれば、この共通項を除く差異となる部分がレガシー機器の編集によって失われてしまう。この共通項を除く差異となる部分は、新規のフォーマットで補充された部分であり、かかる差異が失われることにより新フォーマットで記録されて本来存在していたはずの映像を視聴することができなくなる。つまり新しいフォーマットで記録された高解像度画像や高階調画素の映像コンテンツが、旧来フォーマットしか処理できないレガシー機器で編集されると、旧来フォーマットとの共通項の情報のみが残り、新フォーマットで拡充された情報は図らずも失われてしまうことになる。ユーザの所有する貴重な映像コンテンツが、ユーザの意図しないところで不本意に失われてしまうことは、実用上非常に大きな問題である。
 そこで、上記特許文献1に記載されたように、フォーマットで規定したデータ構造に障害が発生した際、再生不能メディアとして扱うことも考えられるが、これではユーザは、その記録媒体に記録された映画作品をもはや見ることができない。一方、上述したような画像の高解像度化、画素の高階調化では、圧縮符号化の画像のデータサイズはかなり大きなものとなる。このようなデータが記録媒体上の領域を多く占有しているというのにかかるデータを記録媒体から削除できないのでは、実用性は乏しいという問題がある。
 本発明の目的は、最新のフォーマットのうち、古いフォーマットとの共通項の部分が事後的に書き換えられるという現象の発生を回避することである。
 上記課題は、ストリームファイルと、インデックスファイルとが記録された記録媒体であって、インデックスファイルは、エディタビリティフラグと、エクステンディッドエディタビリティフラグとを含み、エディタビリティフラグは、機器に本記録媒体が装填された際、当該機器によって、本記録媒体がエディタブルメディアとして取り扱われるか否かを規定する情報であり、オンに設定されることで、本記録媒体がエディタブルメディアとして取り扱われストリームファイルに対する編集が可能になる旨を示し、ストリームファイルに対する編集が可能になり、オフに設定されることで、レガシー機器では、本記録媒体がエディタブルメディアとして取り扱われずストリームファイルに対する編集が不可になる旨を示し、エクステンディッドエディタビリティフラグは、非レガシー機器に本記録媒体が装填された際、エディタビリティフラグがオフを示していたとしても、本記録媒体が、当該非レガシー機器によってエディタブルメディアとして取り扱われる旨を示し、ストリームファイルに対する編集が可能になることを規定することで解決される。
 エクステンディッドエディタビリティフラグが存在する場合、エディタビリティフラグはオフに設定されるのでレガシー機器により新フォーマットで拡充された差異部分の情報が書き換えられてしまうことはなくなる。ユーザの所有する貴重な映像コンテンツが、ユーザの意図しないところで不本意に失われることは発生しないから、内容の不整合の発生を回避しつつも、映画作品を最新のフォーマットで非レガシー機器に供給することができる。
記録装置、表示装置、シャッター式眼鏡によって構成されるホームシアターシステムを示す。 表示装置による表示画像の一例を示す。 平面視動画像を構成する複数のフレーム画像と、立体視動画像を構成する複数のフレーム画像とを対比して示す。 1個のビデオアクセスユニットに格納される圧縮スライス列、マクロブロックを示すと共に、MVCビューコンポーネントによって構成されるClosed-GOP、Open-GOPを示す。 平面視ビデオストリームの3つの典型的な類型を示す。 Blu-rayディスクフォーマット記述用のオブジェクト指向プログラミング言語におけるIndex.bdmvのシンタックスを示す。 extended_editability_flag生成のための条件を解説した図である。 editability_flagを0にしなければならない条件と、extended_editability_flagが1であるときの記録装置の扱いとをテーブル形式で示す。 拡張フォーマットにて記録されたディスクの編集可否を判定する手順を示すフローチャートである。 ブランクディスクに新たにコンテンツを記録する際における編集可否の決定手順を示すフローチャートである。 3D撮影装置により3Dビデオを含むファイルが記録された記録媒体が、バージョン3.1のBlu-ray Rewritable非対応の記録装置、バージョン3.1のBlu-ray Rewritable対応の記録装置に装填されるケースを示す。 TV放送のTV録画を行うというケースを示す。 オブジェクト指向プログラミング言語でプレイリスト情報ファイルを作成する場合のシンタックスを示す。 PSR31のビットアサインを示す図である。 PSR29のビットアサインを示す図である。 PSR23のビットアサインを示す図である。 PSR24のビットアサインを示す図である。 PSR22のビットアサインと、モード選択プロシージャとを示す。 多層化光ディスクの内部構成を示す。 メディアムービーデータベース領域のディレクトリ階層を示す。 MVC1080@24p/50i/60iベースビュービデオストリームと、MVC1080@24p/50i/60iディペンデントビュービデオストリームとから1つのトランスポートストリームを得る過程を示す。 PESパケット、TSパケット、ソースパケット、PMTの一例を示す。 クリップ情報ファイルの内部構成を示す。 MVC1080@24p/50i/60iベースビュービデオストリーム及びMVC1080@24p/50i/60iディペンデントビュービデオストリームを多重化することで得られたトランスポートストリームと、EP_mapと、エクステントとの対応関係を示す。 プレイリスト情報ファイルの内部構成を示す。 MVC1080@24p/50i/60iベースビュービデオストリーム及びMVC1080@24p/50i/60iディペンデントビュービデオストリームを多重化することで得られたトランスポートストリームと、EP_mapと、エクステントと、プレイリストとの対応関係を示す。 AVC1080@60P/50Pビデオストリームの再生を許可したエントリーをもつストリーム選択テーブルを含むプレイリストを作成するにあたってのパラメータ設定を示す。 記録装置、再生装置の内部構成を示す。 再生部2002の内部構成を示している。 システムターゲットデコーダ104の内部構成を示す。 プレイリスト情報に基づくソースパケットの読み出し手順を示す。 記録部の内部構成を示す図である。 ストリーム生成手順を示すフローチャートである。 MVC1080@24p/50i/60i3Dビデオコンテンツを含むBDMVデータベースの記録手順を示すフローチャートである。 AVC1080@60P/50Pビデオストリームを含むBDMVデータベースの記録手順を示すフローチャートである。 編集部2004の詳細な構成を示している。 先端部分を削除するケースを示す。 先端部分の削除により立体視動画像がどのように変化するかを示す。 眼鏡を着用することで視聴されることになる立体視動画像を示す。 終端部分を削除するケースを示す。 途中部分を削除するケースを示す。 メインTSの部分削除手順を詳細に展開するフローチャートである。 ストリーム途中部分の削除の手順を示すフローチャートである。 エクステント部分削除の手順を示すフローチャートである。 アロケーション記述子の書換え手順を示すフローチャートである。 ATCシーケンス、STCシーケンスの先端削除、終端削除の手順を示すフローチャートである。 ATCシーケンス、STCシーケンスの途中部分削除の手順を示すフローチャートである。 ATCシーケンス、STCシーケンスの途中部分削除の手順の続きを示す。 プレイリスト統合の手順を示すフローチャートである。 ssifファイルの記録領域の一例を示す図である。 ssifファイルのエクステントが、どのファイルの構成要素になるかという帰属関係を示す。 ディペンデントビューのデータブロック、及び、ベースビューのデータブロックの生成の過程を示す図である。 クリップ情報ファイルと、プレイリストと、ssifファイルとの関係を示す。 EP_map、EP_map_SS、アロケーション記述子及びエクステントスタートポイント情報を用いたエクステントの所在特定の一例を示す。 アロケーション記述子及びエクステントスタートポイント情報を用いたエクステントの所在特定の一例を示す。 BDMVディレクトリに記録されたプレイリストファイル(mplsファイル)によって定義されるプレイリスト、3Dプレイリストを示す。 プレイリストに対する編集の3つの類型を示す。 ssifファイルの先端部分を削除するケースを示す。 ssifファイルの終端部分を削除するケースを示す。 ssifファイルの途中部分を削除するケースを示す。 削除範囲の前後に位置するm2tsファイルのアロケーション記述子列、ファイルベース、ファイルディペンデントのエクステントスタートポイントを示す。 ssifファイルにおけるアロケーション記述子の書き換え手順を示すフローチャートである
 上記課題解決手段を具備した記録媒体は、映像記録のためのディスク媒体、メモリカード媒体の製品として工業分野で実施することができる。上記課題解決手段を具備した再生装置は、プレーヤー機器として、上記課題解決手段を具備した記録装置は、レコーダー機器として工業分野で実施することができる。上記課題解決手段を具備した再生方法、記録方法は、上記プレーヤー機器、レコーダー機器において、コンピュータプログラムの処理手順として組み込むことにより実施することができる。これらの製品を具体的に記載したのが図1のホームシアターシステムである。図1は再生装置、表示装置、シャッター式眼鏡によって構成されるホームシアターシステムを示す。当該ホームシアターシステムは、図1に示すように、多層化光ディスク1000、記録装置1001、記録装置1002、リモコン1003、テレビ放送表示装置1004、3D撮影装置1005、地上波放送局1006、地上波アンテナ1007、アクティブシャッター式眼鏡1008によって構成され、ユーザによる使用に供される。
 多層化光ディスク1000は、映画作品記録のためのフォーマットを有した可搬体の記録媒体である。
 記録装置1001は、ムービー記録フォーマットの最新の規格改訂に対応していないレガシー機器であり、光ディスクに対する記録、再生及び編集を実行する。 記録装置1002は、ムービー記録フォーマットの最新の規格改訂に対応した非レガシー機器であり、光ディスクに対する記録、再生及び編集を実行する。
 リモコン1003は、編集操作、記録操作の実行にあたって、階層化されたGUIに対する操作をユーザから受け付ける機器であり、かかる操作受け付けのため、リモコン102は、GUIを構成するメニューを呼び出すメニューキー、メニューを構成するGUI部品のフォーカスを移動させる矢印キー、メニューを構成するGUI部品に対して確定操作を行う決定キー、階層化されたメニューをより上位のものにもどってゆくための戻りキー、数値キーを備える。
 テレビ放送表示装置1004は、機器間インターフェイスを通じて記録装置1001、記録装置1002から送出されてくる一画面分の画素ビット値を受け取り、この画素ビット値に従い表示パネルの表示素子を駆動することで画像表示を行う。この画像表示には、1フレーム期間において、一画面の画像を表示するという2D出力モードと、1フレーム期間において、一画面の左目画像及び右目画像を表示するという3D出力モードとがある。シャッター式眼鏡を着用していないユーザがこの再生装置200の画面を見ると、2以上の視点画像データ(図中では左目画像、右目画像)が重ね合わされた状態で見えることになる。
 3D撮影装置1005は、非レガシー機器であり、光ディスクに対する記録、再生、編集を行う。
 地上波放送局1006は、3Dテレビ番組を含む地上波テレビ放送を送信する。
 地上波アンテナ1007は、3Dテレビ番組を含む地上波テレビ放送を受信して、かかる放送波を記録装置1001、記録装置1002に出力する。記録装置1001、記録装置1002は、かかる放送波入力に対して記録処理を行う。
 アクティブシャッター式眼鏡1008は、フレームを分割することで得られた複数の表示期間のそれぞれにおいて、右目シャッター、左目のシャッターのうち何れか一方を閉じ、他方を開状態にする。こうすることで、立体視映像が構成される。左目画像の表示期間においては、右目側のシャッターを閉状態に設定する。右目画像の表示期間においては、左目側のシャッターを閉状態に設定する。シャッター式眼鏡は無線通信機能を具備しており、表示装置1004からの要求に応じて内蔵バッテリーの残量を表示装置に送信することができる。
 このシステムにおける、表示装置による表示画像の一例について図2を参照しながら説明する。表示装置の表示画像には、図2(a)の平面視画像と、図2(b)の立体視画像とがある。図2(b)の立体視動画像におけるフレーム画像は、左目画像と、右目画像とを1つのフレーム期間内で重なり合わせた画像である。
 図2(b)では、アクティブシャッター式眼鏡1008を通じた左目画像、右目画像の視聴の一例を示している。視線vw1は、アクティブシャッター式眼鏡1008によって右目が遮光された場合の映像の入射を示す。視線vw2は、アクティブシャッター式眼鏡1008によって左目が遮光された場合の映像の入射を示す。このvw1により左目画像が視聴されることになる。またvw2により右目画像が視聴されることになる。アクティブシャッター式眼鏡1008を着用することによりユーザは、右目画像、左目画像を交互に視聴することになり、立体視画像が再生される。図2(b)では、上記2つの視線が交差する場所に、立体視映像が出現していることがわかる。
 立体視映像の具体例を挙げたところで、本記録媒体に対する記録及び編集の対象となるビデオストリームに焦点をあてて説明を進める。当該ビデオストリームは、複数のフレーム画像を再生させることで、平面視動画像、立体視動画像を再生する。
 図3は、平面視動画像を構成する複数のフレーム画像と、立体視動画像を構成する複数のフレーム画像とを対比して示す。本図では、横方向を時間軸としてして、この時間軸に沿った複数のX-Y平面に配置された複数のフレーム画像を描いている。このフレーム画像には、プログレッシブ方式の右目画像と、プログレッシブ方式の左目画像とを重ね合わせたもものと、インターレース方式の右目画像と、インターレース方式の左目画像とを重ね合わせたもものとがある。(a)は、プログレッシブ方式の左目画像、右目画像から構成されるプログレッシブ3D動画像を示す。この動画像は、1920×1080プログレッシブ方式のフレーム画像から構成され、そのフレームレートは24Hz(23.976Hz)である。 これらの左目画像、右目画像は、MVCによって符号化されたものである。Multiview  Video Coding(MVC)とは、MPEG-4 AVC/H.264を修正したサブセット規格であり、映像の時間方向の類似性だけでなく視点間の類似性も予測符号化に利用することで、複数視点の独立した圧縮に比べて圧縮効率を向上している。
 同図(b)は、インターレース方式の左目画像、インターレース方式の右目画像から構成されるインターレース3D動画像を示す。この動画像は、1920×1080インターレース方式の画像から構成され、そのフレームレートはフィールド換算で59.94Hz、50Hzである。インターレースMVC1080@60i/50iビデオを構成するインターレースMVC1080@60i/50iビデオストリームは、MPEG4-MVC1080@60i/50iベースビデオストリームと、MPEG4-MVC1080@60i/50iディペンデントビュービデオストリームとから構成される(これらを併せて「MVC1080@60i/50iビデオストリーム」という)。同図(b)のように、横スジ入りの画像は、インターレース方式の画像を表すものとする。逆に(a)のように、横スジがない画像は、プログレッシブ方式の画像を表すものとする。
 立体視画像を構成するビデオストリームには、MVC1080@24Pビデオストリームのものと、MVC1080@60i/50iビデオストリームのものとがあるが、以降の説明は、これらを代表してMVC1080@60i/50iビデオストリームについて説明するものとする。MVC1080@24Pビデオストリームの再生は、Blu-ray ReadOnlyディスクの3DバージョンであるBD-3Dプレーヤーでも立体視再生が可能であるのに対して、MVC1080@60i/50iビデオストリームによる立体視再生は、既存のBlu-ray ReadOnlyディスクの再生装置において実現されておらず、当業者の興味はMVC1080@60i/50iビデオストリームに集中しているからである。
 図3(c)は、これらのフレーム期間に、どのようなデータ構造が割り当てられているかを示す。この図3(c)によると、フレーム(1)、(2)、(3)といった個々のフレーム期間には、ビデオアクセスユニットが割り当てられている。かかるビデオアクセスユニットは、MPEG4-MVCにおいてビューコンポーネントを構成する。(b)で重ね合わせの対象になった左目画像及び右目画像は、ベースビューのビューコンポーネント及びディペンデントビューのビューコンポーネントの復号画像である。(c)の引出線は、ビューコンポーネントの内部構成をクローズアップしている。ビューコンポーネントは、ビデオアクセスユニットデリミター格納したNALユニット、シーケンスパラメータセットを格納したNALユニット、ピクチャパラメータセットを格納したNALユニット、MVCスケーラブルネスティングSEIメッセージを格納したNALユニット、圧縮スライス列を格納した可変長NALユニット、シーケンス終端コードを格納したNALユニット、ストリーム終端コードを格納したNALユニットを配列することにより構成される。これらのベースビューコンポーネント、ディペンデントビューコンポーネントは、それぞれが独立したビデオストリーム(ベースビュービデオストリーム、ディペンデントビュービデオストリーム)を構成する。
 図4(a)は、1個のビデオアクセスユニットに格納される圧縮スライスデータ列を示す。本図に示すように、1個のビデオアクセスユニットに格納される圧縮スライスデータ列は、スライス1からスライス68までの68個のスライスからなる。個々のスライスは、1920×16画素を構成するものなので、これらが68個集まって1920×1080という一画面分の画素が構成される。
 引出線cup2は、スライスの内部構成をクローズアップしている。この引出線に示すようにスライスは、120個のマクロブロックからなり、個々のマクロブロックは、16×16画像の符号語を格納している。(b)は、マクロブロックの構成を示す。本図のマクロブロックは、16:8:8フォーマットであり、マクロブロック(MB)ヘッダと、16×16画素の輝度Yの符号語、8×8画素の赤色差Crの符号語、8×8画素の赤色差Cbの符号語から構成される。マクロブロックヘッダには、ピクチャ参照子が存在していて、ここにマクロブロック復号時に参照すべきビューコンポーネントに割り当てられたピクチャ番号を記述することができる。ここで平面視動画像を構成するフレーム画像は、1つのピクチャであり、ビデオストリームにおいて1つのアクセスユニット内に存在するNALユニット群から、一画面分の複数のスライスを取り出しデコードすることで形成される。
 一方、ベースビュービデオストリームのアクセスユニットから一画面を構成するスライスを取り出すと共に、ディペンデントビュービデオストリームのアクセスユニットから一画面分のスライスを取り出して、これらのベースビューのスライスから構成されるベースビューのビューコンポーネントの復号画像である左目画像/右目画像と、ディペンデントビューのスライスから構成されるディペンデントビューのビューコンポーネントの復号画像である右目画像/左目画像とを1つのフレーム期間内に表示させることで、図2(b)のフレーム画像が構成される。 ベースビュービデオストリームのビデオアクセスユニットは、上述したようにシーケンスパラメータセット、ピクチャパラメータセットが存在しているので、上記復号画像である右目画像、左目画像は、「ピクチャ」となる。
 マクロブロックにおけるピクチャ参照子は、MVCビデオデコーダ内のデコーデッドピクチャバッファにおいて、参照ピクチャとしてストックされている個々の非圧縮のピクチャデータに付与されるピクチャ番号を参照するものである。MVC1080@60i/50iビデオストリームのデコード時において、ベースビューコンポーネントの復号画像に奇数のピクチャ番号が、ディペンデントビューコンポーネントの復号画像に偶数のピクチャ番号がそれぞれ付与されている場合、各マクロブロックのヘッダにおけるピクチャ参照子に奇数のピクチャ番号を採用すれば、ベースビュービデオストリームの復号化ビューコンポーネント画像のみを参照ピクチャとして採用することができる。またMVCビデオデコーダでは、非圧縮のピクチャがそれぞれどのようなピクチャタイプであるか(IDR(Instantaneous Decoding Refresh)ピクチャタイプであるか、I(Intra)ピクチャタイプであるか、B(Bi-directional predictive)ピクチャタイプであるか)を、ピクチャ番号に対応付けて管理している。よってマクロブロックでは、どのようなピクチャを参照ピクチャから除外しているかというピクチャタイプに応じた制限も導入可能である。例えば、ディペンデントビュービデオストリームのビューコンポーネントのマクロブロックにおいては、Bピクチャタイプのビューコンポーネントを参照ピクチャから除外するという制限が可能となる。以上のように、マクロブロックでは、ピクチャ参照子にどのようなピクチャ番号を採用するかによって、参照ピクチャに使用すべきビューコンポーネントのタイプを限定することができる。
 ベースビュービデオストリーム、ディペンデントビュービデオストリームのデコード単位について説明する。ベースビュービデオストリームのビデオアクセスユニットは、上述したようにシーケンスパラメータセット、ピクチャパラメータセットが存在しているので、ベースビューのビューコンポーネントは、「ピクチャ」として再生されることが可能である。よってベースビューのビューコンポーネントは、MPEG2ビデオストリーム、又は、MPEG4-AVCビデオストリームのように、Closed-GOP、Open-GOPの何れかを構成することができる。Closed-GOPでは先頭に、フレーム内符号化により符号化されたスライスからなるビューコンポーネントが配置される。かかるビューコンポーネントは、IDRタイプのスライスから構成されるビューコンポーネント(IDRタイプのビューコンポーネント)である。符号化順序においてIDRタイプのビューコンポーネントが先頭に配置されたClosed-GOP先頭からであれば、ベースビュービデオストリームの単独デコードが可能になり、また、ベースビュービデオストリームにおいてClosed-GOP単位の部分削除が可能になる。
 一方、ディペンデントビュービデオストリームのビデオアクセスユニットにも、ピクチャヘッダ、ピクチャパラメータセット、シーケンスヘッドが存在しているので、ディペンデントビューのビューコンポーネントは、「ピクチャ」として再生されることが可能である。ただし、ディペンデントビューのビューコンポーネントが構築することができるのは、Open-GOPのみである。これは、ディペンデントビューのビューコンポーネントは、ベースビュービデオストリームにおけるClosed-GOPの個々のビューコンポーネントを、参照画像としたビュー間予測符号化方式と、フレーム間要件符号化方式とにより符号化されるからである。Open-GOPでは先頭に、フレーム間符号化、ビュー間符号化により符号化されたスライスからなるビューコンポーネントが配置される。かかるビューコンポーネントは、Non-IDRタイプのスライスから構成されるビューコンポーネント(Non-IDRタイプのビューコンポーネント)である。
 図4(c)は、ベースビューのビューコンポーネント、及び、ディペンデントビューのビューコンポーネントによって構成されるClosed-GOPと、Open-GOPとの組みを示す。
 図中の矢印vr1,vr2,vr3はビュー間の相関性を象徴的に示しており、矢印fr1,fr2,fr3はフレーム間の相関性を象徴的に示している。これらのビュー間相関性、フレーム間相関性に基づきビューコンポーネントは圧縮符号化されている。ディペンデントビューのOpen-GOPは、ベースビューのClosed-GOPと共でないと単独デコードは不可能である。また部分削除にあたっては、ディペンデントビューのOpen-GOPの参照ピクチャを含むベースビューのClosed-GOPも、併せて部分削除にする必要がある。ここでベースビュービデオストリームに対してClosed-GOPをどの程度の頻度で挿入するかは、エンコード条件による。編集を想定したような立体視画像では、どんな部分からでも削除がなされなければならないから、例えば、時間軸の1秒置きにClosed-GOPを挿入することが望ましい。しかしこれでは容量が大きくなることから、5秒置き、10秒置きというようにClosed-GOPの挿入間隔を変化させることが望ましい。出願人は本発明の製品化・実用化にあたって、様々な技術的障壁に直面した。その障壁と、対応する解決手段とを実施形態毎に提示する。
 (第1実施形態) 
 映画作品の記録のためのデータフォーマットが、平面視専用のものから立体視可能なものへと改訂された場合に、当業者が直面する技術的障壁の克服を目指したものである。
 立体視可能な映画作品の記録のためのデータフォーマットでは、立体視映像を構成する多視点の複数のビデオストリームのうち、単独デコードが可能になるもの(ベースビュービデオストリーム)をデコードした場合は平面視再生が、多視点の複数のビデオストリーム(ベースビュービデオストリーム及びディペンデントビュービデオストリーム)を再生した場合は、立体視再生が可能になるようにしている。
 立体視用の複数のビデオストリームを包含したストリームファイルが記録された記録媒体が、レガシー機器に装填され、記録媒体が編集に供されると、ベースビデオストリームのみが短くされたり、また、ベースビデオストリームのみが2つに分割される。
 ここでディペンデントビュービデオストリームを構成する個々のビューコンポーネントは、ビュー間相関性に基づく予測符号化方式により圧縮されていることが一般的である。これは、ある視点から視聴された映像は、他の視点から視聴された映像と強い相関性をもつことが知られているからである。レガシー機器によってベースビュービデオストリームが部分的に削除されたとすると、ディペンデントビュービデオストリームを構成するピクチャは参照ピクチャを失い、正常なデコードが不可能となる。
 またオーサリング段階において左目画像、右目画像の視覚差が発生しないように万全の配慮を施していたとしても、エンドユーザが家庭内で勝手にシーン削除を行うことにより、かかる配慮が水泡に帰する恐れがある。しかし、3D撮影装置が普及してきて、3Dテレビ放送が本格化しつつあるのに、いらないシーンを削除すらできないのでは、媒体の容量不足時に迅速に空き領域を確保することができない。特に3D撮影装置による録画は、大きな容量を消費するので、この容量不足の問題が深刻化する。よって、3D撮影装置による記録内容の一部を削除できないようなムービー記録フォーマットでは消費者の購買意欲を刺激することができず、大規模量販店や、メーカーの企画部門、営業部門からの強い要請に応えることができない。
 本実施形態の目的は、ビューコンポーネントが前提にしているようなビュー間依存関係の崩壊を招かずに、立体視映像の編集を実現することである。
 記録媒体の局面で上記実施化の障壁の克服を図る場合、記録媒体は、ストリームファイルと、インデックスファイルとが記録され、インデックスファイルは、エディタビリティフラグと、エクステンディッドエディタビリティフラグとを含み、エディタビリティフラグは、機器に本記録媒体が装填された際、当該機器によって、本記録媒体がエディタブルメディアとして取り扱われるか否かを規定する情報であり、オンに設定されることで、本記録媒体がエディタブルメディアとして取り扱われストリームファイルに対する編集が可能になる旨を示し、ストリームファイルに対する編集が可能になり、オフに設定されることで、立体視映像の記録及び編集に対応していないレガシー機器では、本記録媒体がエディタブルメディアとして取り扱われずストリームファイルに対する編集が不可になる旨を示し、エクステンディッドエディタビリティフラグは、立体視映像の記録及び編集に対応した非レガシー機器に本記録媒体が装填された際、エディタビリティフラグがオフを示していたとしても、本記録媒体が、当該非レガシー機器によってエディタブルメディアとして取り扱われる旨を示し、ストリームファイルに対する編集が可能になることを規定していれば足りる。
 かかるインデックスファイルは、記録媒体のローディング時に記録媒体から最初に読み出され、記録媒体が装填されている期間において、再生装置のメモリに常駐するものである。かかるインデックスファイルに、エディタビリティフラグ、エクステンディッドエディタビリティフラグを設定しておけば、この記録媒体固有の編集の扱いを規定しておくことができる。
 上記実施化障壁を克服できる形態の記録媒体によれば、立体視映像の記録・編集に対応していないレガシー機器による編集を禁じることにより、ディペンデントビューのビューコンポーネントが前提にしているようなビュー間依存関係の崩壊を招かないから、立体視映像が正しく編集されることを保障しつつも、ストリームファイルを正しく編集に供することが可能になる。
 上記実施化障壁を克服しうる形態は、以下のような下位概念化が可能である。
 記録媒体にはメディアムービーデータベース領域が存在しており、メディアムービーデータベース領域は、ファイルシステムにおける特定ディレクトリ配下に存在する複数のサブディレクトリの階層と、サブディレクトリの各階層に存在するファイルとによって構成され、インデックスファイルは、特定ディレクトリに記録され、ストリームファイルは、ストリーム用サブディレクトリに記録され、インデックスファイルは、メディアムービーデータベース領域内に立体視コンテンツが存在するか否かを示す存否フラグを含み、存否フラグが立体視コンテンツ存在を示すことを条件にして、エクステンディッドエディタビリティフラグはインデックスファイルに生成されてもよい。
 フラグによる編集可否が規定される編集対象は、「メディアムービーデータベース」である。「メディアムービーデータベース」とは、デジタル映画作品を構成するデータ要素を、その種別毎に、対応するサブディレクトリやファイルに格納して、これらのデータ要素を、インデックスファイルにおける複数のタイトルに関連付けたデータ集合体である。かかるメディアムービーデータベースは、平面視(2D)出力モードのムービーを構成するデータ構造が前提になっていて、この拡張として立体視(3D)出力モードのムービーを構成するデータ構造が追加される。メディアムービーデータベースは、ファイルシステムにおいて予め定められたディレクトリ・ファイル構成を有しており、その記録媒体に対応する再生装置によって、映画作品の記録データとして認識されることが保障される。
 記録媒体の装填時に、媒体の内容物として認識されるのは、このメディアムービーデータベース領域の配下に位置するディレクトリ階層構造であるから、かかるディレクトリ階層構造を書込不可、編集不可とすることで、記録媒体はノンエディタブルメディアとして認識されることになる。立体視再生を想定したムービー記録フォーマットに適合する形で、記録媒体を編集可能、編集不可能に設定することができる。
 ムービー記録フォーマットの例に絞っていうと、Blu-rayディスクに、映画作品を記録するために特化されたメディアムービーデータベースを、「BDMVデータベース」という。BDMVデータベースは、BDMVディレクトリと呼ばれる特定名称のディレクトリの配下に格納される。映画作品記録のためのフォーマットは、ファイルシステムにおける特定ディレクトリ(BDMVディレクトリ)配下のディレクトリ階層と、この特定ディレクトリの各階層に存在するファイル内部のデータ構造とによって構成される。
 3Dコンテンツの存否の判断にあたっては、本来、かかるディレクトリ階層に対するサーチが必要になるが、3Dコンテンツの存否を示す存否フラグ(SS_content_exist_flag)がインデックスファイルに存在するので、かかる存否フラグ(SS_content_exist_flag)に従えば、上記のようなディレクトリ階層に対するサーチを省略したとしても、記録媒体に対する3Dコンテンツの存否の判断を適切に設定することができる。
 上記実施化障壁を克服しうる形態は、以下のような下位概念化が可能である。
  存否フラグがオンに設定された場合、エディタビリティフラグはオフに設定され、非レガシー機器が記録媒体をエディタブルメディアとして扱うのは、エクステンディッドエディタビリティフラグがオンに設定された場合であり、エクステンディッドエディタビリティフラグがオフに設定された場合、記録媒体は、非レガシー機器によってエディタブルメディアとして扱われなくしてもよい。
 エクステンディッドエディタビリティフラグをオフに設定することで、非レガシー機器による編集をロックすることができる。誤った書き換えから、記録内容を保護することができるので、内容の安全性をたもつことができる。
 上記実施化障壁を克服しうる形態は、以下のような下位概念化が可能である。
 ストリームファイルには、立体視映像を示す複数のビデオストリームを含むものと、含まないものとがあり、メディアムービーデータベース領域にはプレイリスト情報が記録され、プレイリスト情報には、立体視映像を示す複数のビデオストリームに対しての再生経路を定義する 立体視プレイリスト情報と、1つのビデオストリームに対して再生経路を定義する通常のプレイリスト情報とがあり、プレイリスト情報が立体視プレイリスト情報である場合、存否フラグはオンに設定されてもよい。ここでの再生経路は、クリップストリームファイル内に存在するビデオストリームの時間軸上で定義された再生区間を、所定の順序に従って並べることで構成されるものである。
 クリップストリームファイルとは、クリップ情報ファイルと、ストリームファイルとの組みのことである。クリップ情報ファイルとは、ストリームのランダムアクセスを可能とするため、ストリームファイルと一対一に対応する情報であり、ストリームファイルを構成するソースパケット読み出しにあたって、メモリに読み出すことが要求される。
 プレイリストが立体視を構成するかどうかで、ローディングされた記録媒体をエディタブルメディアとするか、非エディタブルメディアとするかの扱いを、非レガシー機器に変えさせることができる。2D出力モードにおけるピクチャインピクチャ再生を行うためのプレイリストや2D出力モードにおけるサウンドミキシングを実現するためのプレイリストが記録媒体に存在していたとしても、これらを立体視のためのプレイリストと区別してエディタブルメディアとするかどうかを正しく設定することができる。
 ここで、メディアムービーデータベース領域は、ストリーム領域と、非ストリーム領域とから構成され、ストリーム領域は内周側に位置していて、インデックスファイルは、非ストリーム領域に書き込まれ、ストリームファイルはストリーム領域に書き込まれてもよい。光ディスクにおける記録領域が螺旋トラックに形成されている場合、非ストリーム領域は、ストリーム領域よりも内周側に位置することになり、ストリームアクセスに先立ちインデックスファイルをメモリに読み出すことができる。
 以上が記録媒体の局面において実施化障壁の克服を図るアプローチである。
 続いて、再生装置の局面で実施化障壁の克服を図る場合の再生装置の形態について説明する。再生装置の局面で上記実施化障壁の克服を図るには、記録媒体からストリームファイルを読み出して再生する再生装置であって、記録媒体からインデックスファイル、及び、ストリームファイルを読み出す読出手段と、読み出されたストリームファイル内のビデオストリームを再生する再生手段とを含み、インデックスファイルは、エディタビリティフラグを含み、エディタビリティフラグは、機器に本記録媒体が装填された際、当該機器によって、本記録媒体がエディタブルメディアとして取り扱われるか否かを規定する情報であり、オンに設定されることで、本記録媒体がエディタブルメディアとして取り扱われストリームファイルに対する編集が可能になる旨を示し、オフに設定されることで、立体視映像の記録及び編集に対応していないレガシー機器では、本記録媒体がエディタブルメディアとして取り扱われずストリームファイルに対する編集が不可になる旨を示し、再生手段は、エディタビリティフラグの他にエクステンディッドエディタビリティフラグがインデックスファイルに存在する場合、エクステンディッドエディタビリティフラグがオンに設定されることで、エディタビリティフラグがオフに設定されたとしても、記録媒体をエディタブルメディアとして扱ってビデオストリームの再生を行えば足りる。
 立体視映像の記録・編集を行い得るかどうかに拘らず、ムービー記録フォーマットに対応する再生装置のインデックスファイル読み込み時において記録媒体をエディタブルメディアと扱うか非エディタブルメディアと扱うかの設定を実行するので、記録媒体をエディタブルメディアと扱うか非エディタブルメディアと扱うかの設定の設定回数を必要最低限のものにすることができる。これによりレガシー機器、非レガシー機器による動作の一貫性を維持することができる。
 記録装置の局面で実施化障壁の克服を図る場合、エンコード処理を行うことでビデオストリームを得るエンコーダと、ビデオストリームと、インデックスファイルとを記録媒体に書き込む書込手段とを備え、インデックスファイルはエディタビリティフラグを含み、インデックスファイルを記録媒体に書き込むにあたって、エディタビリティフラグにオン、オフの何れかの値を設定すると共にエディタビリティフラグにエクステンディッドエディタビリティフラグを対応付け、エディタビリティフラグは、機器に本記録媒体が装填された際、当該機器によって、本記録媒体がエディタブルメディアとして取り扱われるか否かを規定する情報であり、オンに設定されることで、本記録媒体がエディタブルメディアとして取り扱われストリームファイルに対する編集が可能になる旨を示し、オフに設定されることで、立体視映像の記録及び編集に対応していないレガシー機器では、本記録媒体がエディタブルメディアとして取り扱われずストリームファイルに対する編集が不可になる旨を示し、エクステンディッドエディタビリティフラグは、立体視映像の記録及び編集に対応した非レガシー機器に本記録媒体が装填された際、エクステンディッドエディタビリティフラグがオンに設定されることで、エディタビリティフラグがオフを示していたとしても、本記録媒体が、当該非レガシー機器によってエディタブルメディアとして取り扱われる旨を規定すれば足りる。
 この形態では、レコーディング・エディティング媒体対応の再生装置が2D再生専用のタイプなら編集を認めず、2D/3D兼用タイプなら編集を認めるという装填される機器の側面に併せた扱いを実現することができる。
 立体視映像を構成する複数のビデオストリームを編集可能な態様で記録媒体に記録してムービー記録フォーマットで世に出したいというアマチュア映画制作者の願望を叶えることができ、映像文化の裾野を広げて、映像産業の更なる発展を図ることができる。
 ここで記録媒体にはメディアムービーデータベース領域が存在しており、メディアムービーデータベース領域は、ファイルシステムにおける特定ディレクトリ配下に存在する複数のサブディレクトリの階層と、サブディレクトリの各階層に存在するファイルとによって構成され、書込手段は、インデックスファイルを特定ディレクトリに書き込み、ストリームファイルを、ストリーム用サブディレクトリに書き込み、メディアムービーデータベース領域への書き込みにあたって、存否フラグをインデックスファイル内に生成し、メディアムービーデータベース領域内に立体視コンテンツが存在するか否かに従い、存否フラグの値を設定してもよい。
 記録媒体のローディング時において、3Dコンテンツの存在を再生装置に知らせるというシグナリングが可能になり、ローディング時において、出力モードを速やかに3D出力モードに移行させることができる。
 メディアムービーデータベース領域に3Dコンテンツが含まれるか否かを再生装置に通知する存否フラグに連動して、エクステンディッドエディタビリティフラグをインデックスファイルに生成するから、ムービー記録フォーマット再生装置での処理の延長線上で、エクステンディッドエディタビリティフラグに従った編集操作を実現することができる。
 (第2実施形態) 
 第1実施形態は、立体視ビデオストリームを対象としたが、本実施形態では、平面視ビデオストリームの属性拡張のために、ムービー記録フォーマットが改訂された場合の技術的障壁克服を目指す。
 ムービー記録フォーマットで記録可能なビデオストリームには、個々のピクチャがプログレッシブ(順次走査)方式になっているものと、インターレース(飛越走査)方式になっているものの2種類がある。プログレッシブピクチャから構成されるビデオストリームにおいては、規格上必須のフレームレート(マンダトリレート)として、24Hz(≒23.976(=24000/100001))Hzが規定されている。このように、個々のピクチャがプログレッシブピクチャからなり、かつ、フレームレートが24Hzになっているビデオストリームを「24Pビデオストリーム」(正確には23.976Pだが、一般にこれを24Pと呼んでいる)という。これ以外にも、プログレッシブピクチャから構成されるビデオストリームにおけるフレームレートとしては、24Hz、25Hzが知られている。
 一方、個々のピクチャがインターレースピクチャになっているビデオストリームの代表的なものは、60Hzのインターレースピクチャから構成されるビデオストリーム(60iビデオストリーム)である。60iビデオストリームは、各々のピクチャがインターレースピクチャであり、かつ、フレームレートが29.97(30000/100001)HZであるビデオストリームをいう。この29.97Hzをフィールドピクチャに換算すると1秒当りのピクチャ数が約60枚になる。
 プログレッシブピクチャ、及び、インターレースピクチャでフレームレートが制約されている背景は以下の通りである。それは映画業界において、映画の撮影は通常、プログレッシブ方式かつ上記のようなフレームレートで撮影されることが一般的であり、多くの映画がフィルムで保存されている。また放送業界では、世界中の多くのTV放送用の映像が60iで作成され、放送されている。これらの映画や放送での使用を想定しているため、撮影に用いられる機材では、前述のフレームレートを超える映像素材が扱えない。しかしながら、24Hz、23.976(24000/100001)Hz、又は、25Hzの程度の低いフレームレートで動きの激しい映像を撮影すると、フレームレートが十分でないから、映像がカクつき不自然に見えてしまう。これでは映像品位が充分なものにならない。60iで撮影した場合でも、インターレースピクチャでは斜め方向の線が崩れて画像劣化が顕著化してしまう。
 そこでビデオストリームの属性拡張の要請が生じる。属性拡張で網羅されるビデオストリームは、「プログレッシブビデオストリーム」である。これは、1920×1080フォーマットで、フレームレートが50Hz又は60Hz(59.94Hz)のフレームレートのMPEG4-AVCを使用することが許されている(「AVC1080@60P/50Pビデオストリーム」という)。AVC1080@60P/50Pビデオストリームのうち、60HzのフレームレートのものをAVC1080@60Pビデオストリーム、50HzのフレームレートのものをAVC1080@50Pビデオストリームという。
 AVC1080@60Pビデオストリームとは、1920×1080のプログレッシブピクチャから構成され、そのフレームレートが60Hzのビデオストリームである。より詳しくいうと、オプショナルなフレームレートをもつAVC1080@60Pビデオストリームは、1秒当りの画像数が60枚なので、GOPのデータ規模が、AVC1080@24PビデオストリームのGOPのデータ規模と比べて倍以上になっていて、GOPのオーバースケールが発生している。1秒当りの画像数が60枚なので、デコードタイムスタンプ(DTS)にて規定されるデコードタイミングやプレゼンテーションタイムスタンプ(PTS)にて規定される再生タイミングも緻密な時間間隔で設定される。併せてエントリーマップによりポインティングされるデータ間隔も緻密になっている。
 ここでのAVC1080@60P/50Pビデオストリームは、あくまでも符号化方式にMPEG4-AVCを採用したものであり、MPEG4-SVC(Scalable Video Coding)を採用したものではない。MPEG4-SVC方式のビデオストリームを除外したのは、MPEG4-SVCは、動画像を複数の異なる解像度、フレームレート、画質で再生することができるように、空間スケーラビリティ、時間スケーラビリティ、SNRスケーラビリティなどの各種スケーラビリティをもたせて動画像を符号化したものであり、これは既存のBlu-rayディスクフォーマットではサポートしていないからである。
 「AVC1080@50Pビデオストリーム」とは、プログレッシブピクチャから構成され、そのフレームレートが50Hzになっているビデオストリームをいう。60Pは60iであるNTSC方式の延長線上に位置付けられる。60iであるNTSC方式は、世界的なテレビ放送方式であるから、60Pの利用が想定される地理的範囲は、全世界的な地理的範囲となる。
 対照的に50Pは、50iであるPAL方式の延長線上に位置付けられる。50iのPAL方式は、欧州での走査方式であるから、50Pの利用範囲も欧州という地理的範囲に限定される。
 図5は、平面視ビデオストリームの3つの典型的な類型を示す。図5(a)は、1920×1080プログレッシブ/60の属性をもつAVC1080@60Pビデオストリームである。図5(b)は、1920×1080インターレース/60の属性をもつAVC1080@60iビデオストリームを示す。図5(c)は、第1実施形態で示したベースビュービデオストリームの平面視動画像であり、1920×1080プログレッシブ/24の属性をもつAVC1080@24Pビデオストリームである。図5(b)によると、AVC1080@60iビデオストリームでは、個々のピクチャがインターレース画像になっている。インターレース画像は、奇数フィールド、偶数フィールドの2つのフィールドから構成される。図5(b)のように、横スジ入りの画像は、インターレースピクチャを表すものとする。逆に図5(a)のように、横スジがない画像は、プログレッシブピクチャであるとする。
 図5(a)におけるAVC1080@60Pビデオストリームのピクチャ列を、図5(c)のAVC1080@24Pビデオストリームのピクチャ列と比較すると、AVC1080@24Pビデオストリームは、1秒当りの画像枚数が少ないため、画像中のモデルの動きがカクつき、細かい動きの再現度が落ちる。これに対して(a)では、1秒あたりの画像枚数が倍以上になっているから、画像中の人物の動きが細部にわたり表現され、躍動感が伝わる。
 ところが、AVC1080@60Pビデオストリーム、AVC1080@50Pビデオストリームのように、オプショナルレートのプログレッシブピクチャからなるビデオストリームが記録された記録媒体がレガシー機器に装填された場合、レガシー機器は24P、60iといったストリーム属性のビデオストリームしか認識しえないから、レガシー機器により認識されるストリーム属性に書き換えられることになる。色々な機器を巡るにつれて、プログレッシブビデオストリームのストリーム属性が失われるというおかしな現象が発生することであれば、これらの機器や記録媒体を製造した様々な企業に、影響が波及することになり、業界全体の問題になりかねない。またプログレッシブビデオストリーム記録のメリットが台無しになり、関連商品の消費停滞を発生させかねない。
 本実施形態の目的は、様々な機器を経由したとしてもストリーム属性の同一性が損なわないような編集上の担保を記録媒体上で実現することである。
 記録媒体の局面で上記実施化障壁の克服を図る場合、ストリームファイルと、インデックスファイルとを含み、ストリームファイルはビデオストリームを含みビデオストリームには、フレームレートがマンダトリなフレームレートであり、プログレッシブピクチャから構成されるものと、フレームレートがオプショナルなフレームレートであり、プログレッシブピクチャから構成されるものとがあり、エディタビリティフラグは、機器に本記録媒体が装填された際、当該機器によって、本記録媒体がエディタブルメディアとして取り扱われるか否かを規定する情報であり、オンに設定されることで本記録媒体がエディタブルメディアとして取り扱われストリームファイルに対する編集が可能になる旨を示し、オフに設定されることで、オプショナルなフレームレートによるプログレッシブピクチャの記録及び編集に対応していないレガシー機器では、本記録媒体がエディタブルメディアとして取り扱われずストリームファイルに対する編集が不可能になる旨を示し、エクステンディッドエディタビリティフラグは、オプショナルなフレームレートによるプログレッシブピクチャの記録及び編集に対応した非レガシー機器に本記録媒体が装填された際、エクステンディッドエディタビリティフラグがオンに設定されることで、エディタビリティフラグがオフを示していたとしても、本記録媒体が、当該非レガシー機器によってエディタブルメディアとして取り扱われる旨を示せば足りる。
 ここで「マンダトリなフレームレート(マンダトリレート)」とは、全てのバージョンの再生装置によりデコード及び再生が可能とされているフレームレートのことである。BD-ROMディスク、BD-Rディスク、BD-REディスクを例にとると、これらのディスクのアプリケーション規格は、初期バージョン発行以降、バージョンアップを繰り返しているが、AVC1080@24Pビデオストリーム、AVC1080@60iビデオストリームは全てのバージョンでのデコード・再生が可能になっている。よってAVC1080@24Pビデオストリームの24Hz、AVC1080@60iビデオストリームの60Hzは、BD-ROMディスクのアプリケーション規格におけるマンダトリレートとなる。
 「オプショナルなフレームレート(オプショナルレート)」とは、一部の再生装置によりデコード及び再生が可能となるフレームレートのことである。AVC1080@60Pビデオストリームのフレームレートである60Hzは、現行のBD-ROMディスク、BD-Rディスク、BD-REディスクにおいてデコード・再生可能であるとはされていないが、近い将来の規格改訂でデコード・再生が可能になる予定である。よってAVC1080@60Pビデオストリームにおける60Hzは、Blu-rayディスクのアプリケーション規格におけるオプショナルレートに該当する。
 以上の記録媒体によれば、エディタビリティフラグをオフに設定しておけば、レガシー機器による編集が禁じられる反面、フレームレートがオプショナルレートとなる複数のプログレッシブピクチャから構成されるビデオストリームの記録・編集に対応した非レガシー機器による編集はエクステンディッドエディタビリティフラグの存在により可能になる。レガシー機器による編集が禁じられ、非レガシー機器による編集が可能になることから、記録媒体に対する編集は、非レガシー機器によるものに限られることになる。
 よって、オプショナルレートのプログレッシブピクチャによって構成されるビデオストリームを記録媒体にムービー記録フォーマットで記録し、自由に編集した上で世に出したいというアマチュア映画制作者の願望を適えることができ、映像文化の発展を図ることができる。ここで記録媒体にはプレイリスト情報が記録され、プレイリスト情報は、複数の再生区間情報から構成され、再生区間情報は、時間軸における再生区間の開始点及び終了点を示す情報と、当該再生区間において再生が許可されるエレメンタリストリームを示すストリーム選択テーブルとを含み、フレームレートがオプショナルなフレームレートであり、ピクチャがプログレッシブピクチャであるビデオストリームのエントリーが、何れか1つのプレイリスト情報における再生区間情報のストリーム選択テーブルに存在する場合、かかるエントリーの存在を条件にして、エクステンディッドエディタビリティフラグはインデックスファイルに生成されるという下位概念化を図ってもよい。
 ここでのプレイリスト情報のエントリーとは、ストリーム属性と組みになって、ストリーム選択テーブルにおけるストリーム登録を構成するものである。ここでストリーム登録とは、ストリーム選択テーブル(BD-ROMディスクではSTN_table)が帰属しているプレイアイテムがカレントプレイアイテムになった際、再生を許可すべきエレメンタリストリームがどのようなストリームであるかを、そのストリーム番号に対応付けて示すものであり、ストリーム登録は、論理的なストリーム番号に、ストリームエントリー及びストリーム属性の組合せを対応付けるというデータ構造になっている。
 ストリーム属性と組みになったエントリーにおけるストリーム番号は、1、2、3というような整数値で表現され、ストリーム番号の最大数は、対応するストリーム種別のストリーム本数となる。
 再生装置には、このストリーム種別毎に、ストリーム番号レジスタが存在しており、ここに格納されたストリーム番号で指示されるエレメンタリストリームが、現在再生対象になっているエレメンタリストリーム、つまりカレントストリームになる。
 このストリームエントリー内に、再生すべきエレメンタリストリームのパケット識別子が記述される。ストリーム選択テーブルにおけるエントリー内に、再生すべきエレメンタリストリームのパケット識別子を記述することができるので、ストリーム登録におけるストリーム番号を再生装置のストリーム番号レジスタに格納し、ストリーム登録におけるストリームエントリー内のパケット識別子に基づいて再生装置のPIDフィルタにパケットフィルタリングを再生装置に実行させる。こうすることで、ストリーム選択テーブルにおいて再生が許可されたエレメンタリストリームのTSパケットがデコーダに出力され、エレメンタリストリームの再生がなされることになる。
 ストリーム選択テーブルにおけるこれらのストリーム登録は、ストリーム番号の順序に従って並べられており、ストリーム番号の順序に基づくストリーム登録の順位は、「再生装置が再生することができる」、「ストリームの言語属性が再生装置の言語設定と一致する」の条件を満たすストリームが複数存在する場合、ストリーム登録列におけるストリーム番号の順位によって、選択対象となるストリームが決定される。
 こうすることで、ストリーム選択テーブルにおけるストリーム登録の中に、再生装置が再生できないものが存在する場合、かかるストリームは再生から除外されることになり、また、「再生装置が再生することができる」、「ストリームの言語属性が再生装置の言語設定と一致する」との条件を満たすストリームが複数存在する場合は、それらのうちどれを優先的に選択すべきかという指針をオーサリング者は再生装置に伝えることができる。上記実施化障壁を克服できる形態においては、オプショナルレートのプログレッシブピクチャからなるビデオストリームについて、再生を許可するエントリーが、プレイリスト情報内の何れかのストリーム選択テーブルに存在するかどうかで、ローディングされた記録媒体をエディタブルメディアとするか、非エディタブルメディアとするかの扱いを、非レガシー機器に変えさせることができる。AVC1080@24Pビデオストリームの再生のみを許可したプレイリストや、AVC1080@60iビデオストリームの再生のみを許可したプレイリストが記録媒体に存在していたとしても、これらを区別して、エディタブルメディアとするかどうかを正しく設定することができる。こうすることで、ストリーム属性の同一性を維持したままの自由な編集が可能になる。
 ストリーム選択テーブルにおいて登録の対象となるエレメンタリストリームの種別としては、親画面ビデオストリーム、オーディオストリーム、プレゼンテーショングラフィクスストリーム、インタラクティブグラフィクスストリームがある。
 親画面ビデオストリームとは、ピクチャインピクチャにおいて子画面のはめ込みが予定されているピクチャからなるビデオストリーム(プライマリビデオストリーム)である。ピクチャインピクチャを行うかどうかは再生装置によって決められる。非ピクチャインピクチャ表示を再生装置が選択した場合、この親画面ビデオストリームのみで画面表示はなされる。オーディオストリームには、主音声オーディオストリーム、副音声ストリームの2種類がある。主音声オーディオストリームは、ミキシング再生を行う場合、主音声となるべきオーディオストリームであり、副音声ストリームは、ミキシング再生を行う場合、副音声をとなるべきオーディオストリームである。副音声ストリームは、このミキシングのためのダウンサンプリングのための情報、ゲイン制御のための情報が存在する。
 プレゼンテーショングラフィクス(PG)ストリームは、デコーダにパイプラインを採用することで、映像との緻密な同期を実現することができ、字幕表示に適したグラフィクスストリームである。パイプラインによるデコード動作の実現により、動画像との緻密な同期を実現するので、PGストリームの用途は字幕のような文字再生に限定されない。映画作品のマスコットキャラクタを表示して、これを動画像と同期させつつ動作させるなど、緻密な同期が必要なグラフィクス再生であれば、どのようなものも、PGストリームによる再生対象として、採用することができる。インタラクティブグラフィクス(IG)ストリーム は、対話操作の情報を具備することで、ビデオストリームの再生進行に伴ってメニューを表示したり、またユーザ操作に従いポップアップメニューを表示することができるグラフィクスストリームである。
 以上のストリーム選択テーブルのストリーム登録列において、プログレッシブビデオストリームの再生の許否は、ストリーム選択テーブルにおける親画面ビデオストリーム用のエントリーにて規定されるから、親画面ビデオストリームの再生を許可したエントリーの中に、オプショナルレートによるプログレッシブビデオの再生を許可するものが存在するかどうかをサーチすることにより、編集を許可するかどうかの判定が可能になる。よって、編集対象となるメディアムービーデータセットの中にプログレッシブビデオストリームが存在しうるかどうかの判定を効率的にすることができる。
 以上が、記録媒体の局面における実施化障壁の克服形態の説明である。
 再生装置の局面で実施化障壁の克服を図る場合、再生装置は
 記録媒体からインデックスファイル、及び、ストリームファイルを読み出す読出手段と、読み出されたストリームファイル内のビデオストリームを再生する再生手段とを含み、インデックスファイルは、エディタビリティフラグを含み、エディタビリティフラグは、機器に本記録媒体が装填された際、当該機器によって、本記録媒体がエディタブルメディアとして取り扱われるか否かを規定する情報であり、オンに設定されることで、本記録媒体がエディタブルメディアとして取り扱われストリームファイルに対する編集が可能になる旨を示し、オフに設定されることで、オプショナルなフレームレートによるプログレッシブピクチャの記録及び編集に対応していないレガシー機器では、本記録媒体がエディタブルメディアとして取り扱われずストリームファイルに対する編集が不可になる旨を示し、再生手段は、エディタビリティフラグの他にエクステンディッドエディタビリティフラグがインデックスファイルに存在する場合、エクステンディッドエディタビリティフラグがオンに設定されることで、エディタビリティフラグがオフに設定されたとしても、記録媒体をエディタブルメディアとして扱ってビデオストリームの再生を行えば足りる。
 ムービー記録フォーマットにおけるインデックスファイルの読み取りの際、オプショナルレートのプログレッシブピクチャからなるビデオストリームが記録された記録媒体をエディタブルメディアとして扱うか否かの設定をリライタブル媒体再生装置に行わせるので、エクステンディッドエディタビリティフラグに基づく制御の追加に、大きな改変は必要ではない。既存のリライタブル媒体再生装置によるインデックスファイルの処理の延長線上でエディタブルメディアに対する処理を実現することができる。
 ここで記録媒体にはプレイリスト情報が記録され、プレイリスト情報は、複数の再生区間情報から構成され、再生区間情報は、時間軸における再生区間の開始点及び終了点を示す情報と、当該再生区間において再生が許可されるエレメンタリストリームを示すストリーム選択テーブルとを含み、フレームレートがオプショナルなフレームレートであり、ピクチャがプログレッシブピクチャであるビデオストリームのエントリーが、プレイリスト情報における何れかの再生区間情報のストリーム選択テーブルに存在する場合、かかるエントリーの存在を条件にして、エクステンディッドエディタビリティフラグはインデックスファイルに生成され、
 再生装置は、カレントストリーム番号を格納するストリーム番号レジスタと、プレイリスト情報におけるカレント再生区間情報の番号を格納する再生区間情報番号レジスタと、プレイリスト情報におけるカレント再生区間情報のストリーム選択テーブルに記載された複数のエレメンタリストリームのうち、カレントストリーム番号に対応するものを分離する多重分離手段とを備え、前記再生手段は、分離で得られたエレメンタリストリームのうち、フレームレートがオプショナルレートであり、プログレッシブピクチャから構成されるビデオストリームをデコードするビデオデコーダを含むという下位概念化が可能である。
 再生装置は、プレイリスト情報において、個々の再生区間情報内に存在するストリーム選択テーブルに基づきストリーム選択プロシージャを実行する。ストリーム選択プロシージャとは、ストリーム選択テーブルのストリーム登録列から「再生装置が再生することができる」、「ストリームの言語属性が再生装置の言語設定と一致する」との条件を満たすものはそれかを判定して、これらのうちどれを選択するかという選択手順であり、ストリーム選択プロシージャは、カレントプレイアイテムが新しいものに切り替った際、また、ユーザからストリーム切り替えが要求された際、実行される。
 カレントプレイアイテムが新しいものに切り替わる等、再生装置の状態変化が生じた際、上述したような判定や選択を行い、再生装置のストリーム番号レジスタにストリーム番号を設定する一連の手順を「状態変化時に実行すべきプロシージャ」という。ストリーム番号レジスタは、ストリーム種別毎に存在するから、上記プロシージャは、ストリーム種別ごとに実行されることになる。
 ストリーム切り替え要求がユーザによってなされた場合、上述したような判定や選択を行い、再生装置のストリーム番号レジスタにストリーム番号を設定する一連の手順を「ストリーム変化が要求された際のプロシージャ」という。
 ここで「ストリーム切り替えの要求」には、セットストリームコマンドの発行、ストリームテンジUOの発行、セットストリームAPIのコールといった種別がある。
 オプショナルレートでのプログレッシブピクチャの記録・編集を行い得る非レガシー機器(上記形態の再生装置)は、ストリーム選択プロシージャの対象となるストリーム選択テーブルから、オプショナルなレートでプログレッシブビデオのエントリーを探す。これによりメディアムービーデータベース領域の全てのファイルの中身をサーチしなくてもローディングされた記録媒体をエディタブルメディアとするか、非エディタブルメディアとするかの扱いを適切に設定することができる。
 ムービー記録フォーマットに対応する再生装置におけるインデックスファイルに対する処理の延長線上で、エクステンディッドエディタビリティフラグに従ったエディタブルメディアについての扱いを規定することができる。
 また、ストリーム選択テーブルの存在を前提にした多重分離、デコードをリライタブル媒体再生装置に行わせるので、編集を前提にしたプログレッシブビデオストリームの再生をリライタブル媒体再生装置に行わせることができる。
 (第3実施形態) 
 Blu-rayディスクのムービー記録フォーマットを一例にして上記実施化障壁の克服のための形態の具体的な形態を述べる。このムービー記録フォーマットとして、BDMVRecording Specificationで規定されたBD-REディスクフォーマットを選ぶ。
 BDMVRecording Specificationは、BDMVコンテンツのリアルタイムレコーディング-エディティングを可能とするBDMVのサブセットを定義するものである。このサブセットのフォーマットは、Realtime Recording Editing Format(RREF)と呼ばれ、BD-ROMディスクのデータフォーマットの記録バージョンを、リアルタイム記録及び編集処理に適合させるためのものである。
 BDMVRecording Specificationであって、AVC1080@60P/50Pビデオストリームの記録及び/又はMVC1080@60i/50iビデオストリームの記録に対応するものは、Blu-ray Rewritableフォーマットにおいて、最新のバージョンであるバージョン3.1に位置付けられる。よって、本願の実施形態で対象とする製品レベルのフォーマットを、Blu-ray Rewritableバージョン3.1フォーマット(BDMVRecording Specification+RREFフォーマット)とする。
 Blu-ray Rewritableフォーマットバージョン3.1は、BD-REやBD-RにおけるBDMVコンテンツを記録し、編集するためのBD-ROMアプリケーションフォーマットの伝送や制限を規定する。そして、Blu-ray Rewritableフォーマットバージョン3.1が参照するBD-ROMフォーマットPart3のバージョンは「バージョン2.5」となる。
 Blu-ray Rewritableフォーマットバージョン3.1によるBDMVデータベースの記録は、以下のパーソナルBDMVコンテンツオーサリング、BDMVリアルタイムレコーディングアンドエディテイングを実現するためのものである。パーソナルBDMVコンテンツオーサリングはライトワンスシナリオや非編集シナリオを仮定している。これらのライトワンスや非編集シナリオは、ユーザによって完成され、後日の編集を認めないBD-ROMタイトルに存在するものである。
 一方、BDMVリアルタイムレコーディングアンドエディテイング(BDMVRecording Specification+RREF)は、リライタブルアンドエディタブルのユースケースを仮定している。これは、レコーダがカメラによって得られたビデオ記録物を網羅するものである。これの網羅を可能とするため、RREFは、異なるマニファクチャが製造したマニファクチャプロダクト(工業製品)によるコンテンツの編集、削除操作をサポートする。何れのRREFコンテンツを編集する何れのマニファクチャプロダクトも、RREFコンフィマンスを維持する。これはデータベースのアップデートや編集操作、操作時のメニューによってなされる。
 またBlu-ray ReadOnly Recording + Realtime Recording Editing Format(RREF)を用いることに併せて、本実施形態では、Blu-ray Rewritableバージョン3.1フォーマットに対応した記録装置を非レガシー機器であるとする。Blu-ray Rewritableバージョン3.1フォーマットに対応せず、バージョン3.0以下のフォーマットにのみに対応した記録装置がレガシー機器であるとする。
 以下、BDMVデータベースによる具体例を通じて、上記実施化障壁の克服までの歩みを追ってゆく。
 オブジェクト指向プログラミング言語によるインデックスファイルの記述について説明する。BDMVデータベースにおけるインデックスファイルは、Index.bdmvと呼ばれる。
 図6は、BD-ROMディスク用オブジェクト指向プログラミング言語におけるIndex.bdmvのシンタックスを示す。図6(a)に示すように、オブジェクト指向プログラミング言語のシンタックスにおいて、インデックスファイルは、type_indicator、version_number、indexes_start_address、extension_data_start_address、reserved_for_future_use、AppInfoBDMV、N1個のpadding_wordを定義するfor文、indexes、N2個のpadding_wordを定義するfor文、ExtensionDataから構成される。
 BDMVデータベースが従来のBlu-ray Rewritableフォーマットに従う場合、AppInfoBDMVの詳細な構造は図6(b)の通りになる。図6(b)は、従来型のリライタブル媒体のフォーマットであるBlu-ray Rewritableバージョン3.0におけるAppInfoBDMVのデータ構造を示す。図6(b)に示すように、Blu-ray Rewritableバージョン3.0におけるフォーマットでは、AppInfoBDMV内に、editability_flag、reserved_for_future_use,content_provider_use_dataが定義される。この図6(b)に対して図6(c)では、編集可否を表す情報(editability_flag)としての役割と共に、バージョン3.1の編集可否を表す情報(extended_editability_flag)とを定義する。
 図6(c)は、BDMVRecording+RREFのために拡張されたAppInfoBDMVデータのデータ構造を示す。ここでの拡張とは、リライタブルの可否を示すeditability_flagをそのままeditability_flagとして採用し、また15ビットのreserved_for_future_useのうち、3ビットをinitial_output_mode_preference,SS_content_exist_flag,extended_editabitily_flagに置き換えたものである。図6(c)で拡張したデータ構造の32ビット(b32)目にあたるeditability_flagは、従来のeditability_flagの位置に相当するために、レガシー機器では編集可否情報として判断される。
 一方、35ビット(b35)目にあたるextended_editability_flagは従来のreserved領域の位置に相当するため、レガシー機器にとってその値は無効なものである。したがって、3Dコンテンツを含むBDMVデータベースにおいて、editability_flagの値を『0』と設定しておけば、3Dコンテンツで編集可能とするためにextended_editability_flagの値を『1』と設定しても、レガシー機器がその値を認識することはない。editability_flagの値が『0』である限り、3Dコンテンツを含むBDMVデータベースがレガシー機器によって誤編集されることはない。
 「editability_flag」は、BD-ROM part3-1ではreservedに定義される。このフィールドが0であれば、ノンエディタブルメディアである旨を指示する。ノンエディタブルメディアは、BDMVRecording Specificationに拘束されるが、RREFについては、従っても従わなくてもよい。editability_flagが「1」に設定された際、インデックスファイルが記録された記録媒体の扱いを「エディタブルメディア」とする旨を指示する。このエディタブルメディアの中身は、BDMVRecording Specificationに追加されたRREFのフォーマットに従う。editability_flagの値が、「1」であるならば、このディスクは「編集可」と判定され編集されることになる。
 「initial_output_mode_preference」は、ディスクにおける初期出力モードのプレファレンスであり、「0」で2D出力モード、「1」で3D出力モードを示す。本「initial_output_mode_preference」が『3D出力モード』に設定されている場合、表示装置に立体視表示能力が存在することを前提として、ディスク装填時において、再生装置は3D出力モードに設定される。
 「SS_content_exist_flag」は、プロファイル5機能を用いているか否かを示す。以下の条件の何れかを満たす場合、このフィールドは「1」に設定される。
 -ストリーム選択テーブルSSが組み込まれた3Dプレイリストをもつ
 -動作モードオブジェクトデータ内のアプリケーション管理テーブル内で現在シグナリングされているバイトコードアプリケーションは、自身のアプリケーション記述子におけるアプリケーションプロファイル値のセット内に、「プロファイル5」を含む。「プロファイル5」とは、立体視再生に対応したアプリケーションプロファイルのことである。よって動作モードオブジェクトに対応するタイトルに3Dプレイリストが存在しない場合や、プレイリストそのものがない場合であっても、かかるバイトコードアプリケーションがHAViスクリーンデバイスにおいて、左目用グラフィクスプレーンデバイス、右目用グラフィクスプレーンデバイスに対する描画を行うことで、メニューの立体視等を実現する場合、上記「SS_content_exist_flag」は「オン」に設定される。本明細書における3Dコンテンツとは、MVC1080@50i/60iビデオストリーム、MVC1080@24pビデオストリームにより構成されるものだけではなく、バイトコードアプリケーションがHAViスクリーンデバイスに対して、左目用グラフィクス、右目用グラフィクスを描画することで実現される3D映像をも包含する。
 -3D出力モードを用いる。SS_content_exist_flagが、「存在しない」と設定されている場合、対応するディスクが装填されている間は3D出力モードに移行することはないから、再生装置において出力モードの設定を示す出力モードレジスタのモード選択プロシージャを実行せず、出力モードレジスタを2D出力モードのまま固定化する。一方、立体視コンテンツ存否フラグが存在すると設定されている場合のみ、モード選択プロシージャを実行する。
 「extended_editability_flag」は、図6(c)において、if文によって定義されている通り、3Dコンテンツ及び/又はAVC1080@60P/50Pビデオストリームの存在に依拠した条件(A)が成就した際、AppInfoBDMVデータに生成される。条件(A)がみたされなかった場合、このフィールドは「0」となる。editability_flagの値が「0]ならば、レガシー機器である記録装置ではこのディスクは「編集不可」と判定されるが、立体視コンテンツ及び/又はAVC1080@60P/50Pビデオストリームの存在に依拠した条件(condition(A))を満足する場合、新たに設けられるexetended_editability_flagによって編集可否の判定がなされる。
 上述したような条件(A)を満たす場合、extended_editability_flagは、本フォーマット(RREF)のバージョンよりも上位バージョンをサポートするBD-R/BD-REに対してノンエディタブルメディア、又は、エディタブルメディアの何れとして取り扱うべきかを示す。extended_editability_flagフィールドが「0」であれば、ディスクはノンエディタブルメディアであると扱われ、extended_editability_flagフィールドが「1」であればエディタブルメディアであり、editability_flagの値に拘らず(regardless of the editability_flag)、エディタブルメディアであると扱われることを示す。
 以上のように、exetended_editability_flagが存在する場合、extended_editability_flagの値が「1」ならば、editability_flagの値によらずこのディスクは「編集可」と判定され、ディスクを編集することができる。extended_editability_flagの値が「0」ならば、「編集不可」と判定され、ディスクを編集することができないことになる。
 「video_format」は、高バンド幅デジタル出力機能におけるビデオフォーマットを4ビットの値を用いて指示する。ディスク挿入時において、このビデオフォーマットを、ネゴシエートによって定めることができる。
 「frame_rate」は、高バンド幅デジタル出力機能におけるビデオレートを指示する4ビットの値である。ディスク挿入時において、このビデオレートを、ネゴシエートによって定めることができる。video_format、frame_rateは、どちらかを0に設定することができる。どちらかが0に設定された場合、両フィールドは、再生装置によって無視される。
 図6(d)は、図6(b)に示す従来のBD-REディスクのAppInfoBDMVデータのビット位置と、図6(c)に示す本実施例で拡張したAppInfoBDMVデータのビット位置との意味合いが、それぞれにおいてどのように変化するかを表形式で対比して示す図である。横方向の項目の並びはAppInfoBDMVのb0からb48までのビット位置を、縦方向の項目の並びは従来型のAppInfoBDMVデータ(AppInfoBDMVデータ@従来)、拡張型のAppInfoBDMVデータ(AppInfoBDMVデータ@拡張)を示す。本図の表の読み方は、以下の通りである。先ず始めに横方向の項目の中から探したいものを選ぶ。次いで縦方向の項目の中から探したいものを選ぶ。そうして探した横方向の項目と、縦方向の項目とが交差する場所の記載爛を読む。そうすれば、そのビット位置に存在するBDMVRecording Specificationに対応した拡張型AppInfoBDMVデータ(AppInfoBDMV@拡張)、BD-ROMディスクのみに対応した従来型AppInfoBDMVデータ(AppInfoBDMV@従来)にどのような情報要素が割り当てられているかを理解することができる。
 本図(d)によると、b32は、Blu-ray Rewritableバージョン3.1である拡張フォーマット、Blu-ray Rewritableバージョン3.0である通常フォーマットでeditability_flagとなり、これらは同じ役割を果たす。そしてBlu-ray Rewritableバージョン3.1非対応再生装置による読み取りが可能であることがわかる。b33からb39までは、拡張フォーマットではinitial_output_mode_preference,SS_content_exist_flag,extended_editabitily_flagとなり、3D記録編集装置により読み取られる。
 従来の記録装置では、図6(b)で定義されるデータ構造を基に、意味のある情報を取得する一方、将来の使用目的に確保されているreserved領域を2D再生装置は無視するか、あるいはたとえ2D再生装置が読み取っても何の機能も果たさないことになる。
 図6で説明したextended_editability_flagは次に示す条件のいずれかを満たすときに、Index.bdmvに設けられる。図7は、extended_editability_flag生成のための条件を解説した図である。
 第一の条件は、ディスク内に3Dコンテンツが存在することである。3Dコンテンツが存在するか否かは、index.bdmvのAppInfoBDMV()内のSS_content_exist_flagによって判定できる。SS_content_exist_flagが「1」の場合、ディスク内に3Dコンテンツが存在し、condition(A)はTRUEになる。
 第二の条件は、Progressive videoのPrimary Video Entryを含むコンテンツがBDMVデータベースに存在することである。このPrimary Video Entryとは、ピクチャインピクチャの親画面ビデオストリーム(プライマリビデオストリーム)のPIDを格納したストリームエントリーであって、MPEG-4 AVC@1920x1080/59.94p 又は、MPEG-4 AVC@1920x1080/50pのストリーム属性と組みになっているもののことである。具体的にいうとPrimary Video Entryは、以下の1)、2)を示すものである。
 1)ディスク内のPlayListのSTN_tableにあるstream_attributesのうち、stream_coding_type=0x1B(即ちコーデックがMPEG-4 AVC)であること、
 2)video_format=6(即ち、解像度が1920x1080p)であり、frame_rate=6 or 7(即ち、フレームレートが50Hzまたは59.94Hz)であることの値の組合せである。
 PlayListのSTN_table内に、stream_coding_type=0x1B、video_format=6、frame_rate=6 or 7の組合せが1つでも存在する場合、ディスク内にProgressive videoのコンテンツが存在し、条件(A)はTRUEとなる。
 図8は、editability_flagを0にしなければならない条件と、extended_editability_flagが「1」であるときの記録装置の扱いとをテーブル形式で示す。テーブルの上段は、editability_flagを0にしなければならない条件、テーブル下段は、extended_editability_flagが「1」であるときの記録装置の扱いを示す。3Dコンテンツ、及び、Progressive Videoコンテンツを記録したディスクは、従来型の再生装置においても再生互換性があるため、従来型の再生装置にて再生される。
 一方、従来機器での編集は、新しい方式である、MVC1080@24pビデオストリーム及び50i/60iビデオストリームによる3D再生と、AVC1080@60P/50Pビデオストリームによるプログレッシブ再生とには対応せず、編集の結果、プレイリスト情報ファイル、及び、クリップ情報ファイルに含まれるMVC1080@24p/50i/60iビデオストリーム、及び、AVC1080@60P/50Pビデオストリームに関する情報が破棄され改変される恐れがある。その結果、本来記録されていたMVC1080@24p/50i/60iコンテンツ、及び、AVC1080@60P/50Pコンテンツが消失する可能性がある。したがって、MVC1080@24p/50i/60iビデオストリームの再生を許可したエントリーを含むプレイリストが存在するとき、及び、AVC1080@60P/50Pビデオストリームの再生を許可したエントリーを含むプレイリストが存在するとき、editability_flagは「0」とし、従来機器での編集を禁止している。一方、この手当としてeditability_flagが0であったとしても、Blu-ray Rewritableバージョン3.1フォーマット(BDMVRecording Specification+RREF)に従う記録装置は、エディタブルメディアとして扱う。
 以上のように、Blu-ray Rewritableバージョン3.1フォーマット(BDMVRecording Specification+RREFフォーマット)におけるインデックスファイルのシンタックスを規定し、extended_editability_flagの設定値の意味合いを規定することでBD-Rディスク、BD-REディスクの再生装置が解釈可能な記載により、インデックスファイルを記録媒体に記録して.記録装置による処理に供することができる。以上のようなパラメータ設定をオブジェクト指向プログラミング言語を用いて行うことで、本発明におけるデータ構造の特徴をBDMVRecording Specification+RREFに対応した記録装置や再生装置に読み取らせることができる。
 以上が記録媒体における形態である。次に、再生装置の形態について説明する。再生装置については、上述した構成要素のうち、読出手段に、上記Index.bdmvに対応する処理を行わせればよい。この読出手段の改良を具体的に記載したのが図9である。
 図9は、非レガシー機器の記録装置が拡張フォーマットにて記録されたディスクの編集可否を判定する手順を示すフローチャートである。ディスクからのIndex.bdmvの読込み後、まずeditability_flagの値をチェックする(B0001)。もし、editability_flagの値が「1」ならば、再生装置はこのディスクを「編集可能」と判断する(G0001)。editability_flagが「1」の場合は、再生装置が3D、及び、Progressive Videoに対応するか否かに関わらず、編集を許可する。
 もし、editability_flagの値が「0」ならば、続いてこのディスクがcondition(A)を満足するかどうかを判定する(B0002)。
 condition(A)は、ディスク内に、MVC1080@24p/50i/60iのコンテンツあるいはProgressive videoコンテンツのいずれかまたは両方が含まれていれば「TRUE」となり、両方とも含まれなければ「FALSE」となる。よってまず、MVC1080@24p/50i/60i3Dビデオコンテンツを含むかどうかをSS_content_exist_flagの値によって判定する(C0001)。
 もし、SS_content_exist_flagの値が「1」ならば、ディスクにMVC1080@24p/50i/60iの3Dビデオコンテンツが記録されていると判断できる。したがって、condition(A)はTRUEを返す。
 もし、SS_content_exist_flagの値が「0」ならば、次に、Progressive videoコンテンツが存在するかを調べる。Progressive videoコンテンツが存在するかどうかの判断は、ディスク内の全PlayListのSTN_tableを調べることでなされる(C0002)。
 もし、STN_table内にstream_coding_type=0x1B、video_format=0x06、frame_rate=6または7の値をもつPrimary video entryがひとつでも存在するならば、ディスクにAVC1080@60P/50Pビデオストリームを含むコンテンツが記録されていると判断できる。したがって、condition(A)はTRUEを返す。もし、STN_table内にstream_coding_type=0x1B、video_format=0x06、frame_rate=6または7の値をもつPrimary video entryがひとつも存在しないならば、ディスクにProgressive videoコンテンツが記録されていないと判断できる。したがって、MVC1080@24p/50i/60iの3DビデオコンテンツもProgressive videoコンテンツも記録されていないと判断でき、condition(A)はFALSEを返す。
 なお、以上の説明ではMVC1080@24p/50i/60iの3Dビデオコンテンツの記録有無を調べた後(C0001)、Progressive videoコンテンツの記録有無を調べた(C0002)がC0001とC0002の順序が逆であっても問題はない。
 すなわち、Progressive videoコンテンツの記録有無を調べた後、MVC1080@24p/50i/60iの3Dビデオコンテンツの記録有無を調べてもよい。以上のようにしてcondition(A)を判定の結果、codition(A)がTRUEならば、index.bdmvのAPPInfoBDMV()にextended_editability_flagが存在するため、ディスクの編集可否は、extended_editability_flagの値を見て判断される。
 もし、codition(A)がFALSEならばextended_editability_flagは存在せず、ディスクの編集可否の判断はeditability_flagの値によって判断される。すなわち、このときeditability_flagの値は「0」であるため、再生装置はこのディスクを「編集不可」と判断する(G0002)。
 codition(A)がTRUEならば、つづいてextended_editability_flagの値を調べる(B0003)。もし、extended_editability_flagの値が「1」ならば、再生装置はeditability_flagの値に関わらず、このディスクを「編集可能」と判断し、ディスクを編集することを許可する。もし、extended_editability_flagの値が「0」ならば、再生装置はこのディスクを「編集不可」と判断し、編集することはできない。
 バージョン3.0以下のBlu-ray Rewritableフォーマットのみに対応する機器での読み取り時について説明する。バージョン3.0以下のBlu-ray Rewritableフォーマットのプレーヤーにおいては、extended_editability_flagの存在を認識することはできず、編集可否はeditability_flagによってのみ判断される。
 したがって、もし、editability_flagの値が「1」ならば、バージョン3.0以下のBlu-ray Rewritableフォーマットのみに対応する再生装置はこのディスクは「編集可能」と判断し編集することが出来る。また、editability_flagの値が「0」ならば、バージョン3.0以下のBlu-ray Rewritableフォーマットのみに対応する再生装置はこのディスクを「編集不可」と判断し編集することはできない。ディスクにMVC1080@24p/50i/60iの3DビデオコンテンツあるいはProgressive videoコンテンツが記録されている場合、editability_flagの値は「0」に設定されるため、バージョン3.0以下のBlu-ray Rewritableフォーマットのみに対応する再生装置がMVC1080@24p/50i/60iの3DビデオコンテンツあるいはProgressive videoコンテンツが記録されているディスクを編集することはできない。
 以上が再生装置の局面における実施化障壁の克服のアプローチである。
 図9では、BDMVデータベースが既に記録されたBDディスクに対して編集可否の判定を決定する方法の説明であったが、未記録メディア(ブランクディスク)に記録装置がBDMVデータベースを記録する場合にも、上述と同様の規則に沿って記録されることが求められる。
 上述したIndex.bdmvの処理を記録装置に行わせるには、上記実施化障壁を克服しうる記録装置の形態のうち、構成要素の1つである書込手段に、上記手順を実行させねばならない。この特徴を具体的に記載したのが図10である。図10は、ブランクディスクに新たにコンテンツを記録する際における編集可否の決定手順を示すフローチャートである。
 まず、MVC1080@24p/50i/60iの3Dビデオコンテンツを記録するかどうかを判定する(B0010)。Yesであれば、MVC1080@24p/50i/60iの3Dビデオコンテンツを含む場合、レガシー機器では編集を禁止せねばならないから、SS_content_exist_flagを1に、editability_flagを0に、extended_editability_flagをXに設定する。ここでXは、モード設定に応じた値であり、編集を許可する場合、extended_editability_flagは「可(X=1)」に設定される。編集を禁止する場合、exetended_editability_flagは「不可(X=0)」に設定される。
 BDMVデータベースにMVC1080@24p/50i/60iの3Dビデオコンテンツが含まれない場合、AVC1080@60P/50Pビデオストリームを記録するかどうかを判定する(B0011)。記録しない場合(B0011でNo)、BDMVデータベースは2Dコンテンツのみであり、2D機器での編集を可能にせねばならないので、SS_content_exist_flagを0に設定し、extended_editability_flagをreserved領域にして、editability_flagをYに設定する。ここでYは、モード設定に応じた値であり、編集を許可する場合、editability_flagは「可(Y=1)」に設定する(G0011)。
 AVC1080@60P/50Pビデオストリームを記録する場合(B0011でYes)、プログレッシブビデオを含むのでレガシー機器では編集禁止とせねばならないから、SS_content_exist_flagを0に、editability_flagを0に、extended_editability_flagをXに設定する(G0012)。ここでXは、モード設定に応じた値であり、編集を許可する場合、extended_editability_flagは「可(X=1)」に設定する。編集を禁止する場合、extended_editability_flagは「不可(X=0)」に設定される。
 なお、B0010とB0011のフローの順序は入れ替わっても問題はない。
 図11は、3D撮影装置によりMVC1080@24p/50i/60iの3Dビデオコンテンツが記録された記録媒体が、バージョン3.1のBlu-ray Rewritable非対応の記録装置、バージョン3.1のBlu-ray Rewritable対応の記録装置に装填されるケースを示す。図中のeject1は、3D撮影装置からの記録媒体の取り出しを示し、この状態で記録媒体のインデックスファイルにおいてAppInfoBDMVデータは、editability_flagがオフ、extended_editability_flagがオンに設定される。図中のinsert2は、Blu-ray Rewritableバージョン3.1非対応の記録装置への記録媒体の装填を示す。editability_flagがオフ、extended_editability_flagがオンに設定されるから、Blu-ray Rewritableバージョン3.1非対応の記録装置では、部分削除・分割・統合といった編集操作が不可能となる。insert1は、Blu-ray Rewritableバージョン3.1対応の記録装置への記録媒体の装填を示す。editability_flagがオフ、extended_editability_flagがオンに設定されるから、バージョン3.1のBlu-ray Rewritableに対応する記録装置は、立体視映像のうち、途中部分を削除するという部分削除を行うことができる。
 図12は、記録装置がTV放送のTV録画を行うというケースを示す。図中の矢印eject2は、録画を終えた記録媒体が記録装置から排出されるというイジェクトを示す。この際、記録媒体において記録物であるBDMVデータベースには、MVC1080@24p/50i/60iの3Dビデオコンテンツが含まれているので、SS_content_exist_flagがオン、editability_flagがオフ、extended_editability_flagがオンに設定される。矢印insert3は、バージョン3.1非対応再生装置への装填を示す。Index.bdmvにおいてSS_content_exist_flagがオン、editability_flagがオフ、extended_editability_flagがオンに設定されているので、バージョン3.0非対応再生装置では、平面視再生のみが可能となり、MVC1080@24p/50i/60iの3Dビデオコンテンツ編集が行われることはない。insert4は、バージョン3.1のBlu-ray Rewritableに対応する記録装置への記録媒体の装填を示す。Index.bdmvにおいてSS_content_exist_flagがオン、editability_flagがオフ、extended_editability_flagがオンに設定されているので、バージョン3.1のBlu-ray Rewritableに対応する記録装置は、立体視映像のうち、途中部分を削除するという部分削除が可能になる。
 以上のように本実施形態によれば、Blu-ray Rewritableバージョン3.1フォーマット(BDMVRecording Specification+RREFフォーマット)の発行後、更なるフォーマットの改訂があれば、その改訂後のフォーマットを編集対象に加えてゆくことで、編集対象の範囲拡大を図ることができ、記録装置や記録媒体の高付加価値化を図ることができる。
 改訂されたBDMVデータベースの編集が、記録媒体を製造したメーカー、編集を行ったレガシー機器を製造したメーカー、再生を行った再生装置のメーカーを巻き込むような品質問題に波及することはないから、BDMVデータベースフォーマットに絶えず新たな改良を重ねてゆくことができ、フォーマットの合理化、最適化を追究してゆくことができる。
 (第4実施形態) 
 本実施形態では、インターレース3D再生を実現する場合におけるプレイリスト情報の記述について説明する。インターレース3D再生では、1920×1080といった解像度の画像をインターレース方式で構成するため、BD-ROMフォーマットの再生装置が解釈しえないストリーム属性で、BDMVデータベースが記述されることになる。
 よって、インターレース3D再生を実現しうるBDMVデータベースは、MVC1080@24Pビデオストリームによる3D再生には対応するが、MVC1080@60i/50iビデオストリームによるインターレース3D再生には非対応である従来の3D再生装置に装填された場合に問題が生じないようなデータ構造で作成されねばならない。
 ここで立体視再生では、ストリーム選択テーブルの立体視版(STN_table_SSと呼ばれる)に従い、ベースビュービデオストリームやディペンデントビュービデオストリームの選択を行う。しかし、STN_table_SSにインタレースビデオについてのストリーム属性情報が含まれることは、プレーヤーにとって未知の情報がSTN_table_SSに含まれていることを意味し、誤動作を引き起こす可能性がある。
 本実施形態の目的は、インターレース映像による立体視再生に対応していない再生装置に、装填された場合の誤動作を避けつつ、記録媒体によるインターレース映像の提供を可能にすることである。
 ここで従来のBDー3DのBDMVデータに対するSTN_table_SSに対して、インターレース3D用のSTN_table_SSを区別することで再生互換性の確保を図る必要がある。
 具体的にいうと上記実施化障壁を克服できる記録媒体は、プレイリスト情報と、ストリームファイルとが記録され、プレイリスト情報のうち、インターレース画像による立体視再生に対応していないバージョンのもののエクステントデータには、第1の値が設定された識別情報が付与されていて、プレイリスト情報であって、インターレース画像による立体視再生に対応するバージョンのプレイリスト情報のエクステントデータには、第2の値が設定された識別情報が付与されており、第2の値の識別情報が付与されたエクステントデータは立体視用のストリーム選択テーブルを含み、当該立体視用のストリーム選択テーブルは、インターレースタイプのビューコンポーネントからなるディペンデントビュービデオストリームのパケット識別子を含むエントリーを、インターレースビデオのストリーム属性と対応付けて示していれば足りる。
 上記実施化障壁を克服できる再生装置は、当該装置のバージョンを格納しているバージョンレジスタと、記録媒体からトランスポートストリームを読み出す読出手段と、読み出されたトランスポートストリームに対して多重分離を行う多重分離部とを備え、インターレース映像による立体視に対応した特定のバージョンでなければ、プレイリスト情報におけるエクステントのうち、第1の値の識別子に対応付けられたものからストリーム選択テーブルを取得し、装置のバージョンが、インターレース映像による立体視に対応した特定のバージョンであれば、プレイリスト情報におけるエクステンションデータのうち、第2の値の識別子に対応付けられたものからストリーム選択テーブルを取得して、取得したストリーム選択テーブルにおいて、ストリーム属性に対応付けられたストリームエントリー内のパケット識別子を用いて、インターレースビデオの属性をもつディペンデントビュービデオストリームの多重分離を多重分離部に行わせ、前記第1の値はプログレッシブビデオによる立体視の再生のみが可能な機器によって認識される値であり、第2の値はプログレッシブビデオによる立体視再生及びインターレースビデオによる立体視再生が可能な機器によって認識される値であれば足りる。
 以下、上記の態様の記録媒体のうち、エクステンションデータについて解説する。エクステンションデータは、インデックスファイル、ムービーオブジェクト、ムービープレイリスト、クリップ情報において、プライベートデータを格納するために確保され、ID1、ID2といった二種類のIDのうちどちらかが付与される。
 ID1は、メーカープライベートデータが登録されたマニファクチャにとってプライベートとなるエクステンションデータを識別する。このID1には、このBDMVRecording Specificationのライセンサーによってアサインされた値がエンコードされて設定される。ID1として設定可能なエンコード値は、0x0000から0x0FFFまでの範囲の数値である。
 ID2は、ライセンスされたマニファクチャによって定められたエクステンションデータを識別する。具体的にいうとID2が付与されたエクステンションデータには、記録装置であって、メーカプライベートデータが予め登録されているものモデルナンバーコードが配置される。エクステンションデータのモデルナンバーコードが配置されるから、インデックスファイル、ムービーオブジェクト、ムービプレイリストのエクステンションデータを参照することにより、かかる記録を行った記録装置がどれであるかの判別が可能になる。
 Blu-ray ReadOnlyディスクフォーマットでは、ムービープレイリストファイル(MPLSファイル)のエクステンションデータにおいて、エンコード値「0x0002」が設定されたID1が付与されたエクステンションデータが、STN_table_SSの格納のために使用されていた。しかしMVC1080@60i/50iビデオストリームの再生を許可するSTN_table_SSを、この「0x0002」が設定されたID1のエクステンションデータに配置するのはまずい。かかるMVC1080@60i/50iビデオストリームの再生を許可したSTN_table_SSは、バージョン3.1に対応していない再生装置にとって未知の情報であり、かかるSTN_table_SSが当該再生装置に供給されることで誤動作を招くからである。
 そこで、STN_table_SSの記述のため、ID1において未使用のエンコード値を導入する。エンコード値『4(=0x0004)』は、未使用であるからmplsファイルのエクステンションデータにエンコード値が0x0004に設定されたID1を登録し、ここにSTN_table_SSを配置する。0x0004のエンコード値が設定されたID1は、既存のBlu-ray ReadOnlyディスクプレーヤーによって無視されるので、かかるプレーヤーの誤動作を招くことはない。
 図13は、オブジェクト指向プログラミング言語でプレイリスト情報ファイルを作成する場合のシンタックスを示す。図中のPlalist ()はメインパス情報、サブパス情報を定義する部分である。PlayListMark()は、プレイリストマーク情報を記述する部分、ExtensionData()は、上記のエクステンションデータを記述する部分である。これらのアドレスは、PlayList_start_address,PlayListMark_start_address,ExtensionData_start_addressに記述される。
 以下、メインパス情報、サブパス情報、プレイリストマーク情報について説明する。
 メインパス情報は、1つ以上の主たる再生区間情報から構成される。主たる再生区間情報はプレイアイテム情報と呼ばれ、TSの再生時間軸のうち、In_Timeとなる時点と、Out_Timeとなる時点の組みを1つ以上定義することにより、論理的な再生区間を定義する情報である。再生装置には、カレントのプレイアイテムの番号を格納するプレイアイテム番号レジスタを含み、複数のプレイリスト情報のうち、このプレイアイテム番号レジスタに格納されているものが、現在の再生対象になる。また再生区間であるプレイアイテム情報は、ストリーム参照情報を含む。ストリーム参照情報はクリップ情報ファイルネーム情報(clip_information_file_name)であり、プレイアイテムを構成するトランスポートストリームをクリップストリームファイルとして管理しているクリップ情報ファイルを示す。
 従たる再生区間情報は、サブパス情報と呼ばれ、複数のサブプレイアイテム情報から構成される。
 プレイリストマーク情報は、再生区間固有のマークポイントを定義する情報であり、再生区間を示す参照子と、デジタルストリームの時間軸において、マークポイントが何処にあるかを示すタイムスタンプと、マークポイントの属性を示す属性情報とを含む。属性情報は、プレイリストマーク情報により定義されたマークポイントが、リンクコマンドによるリンクが可能であるが、チャプタースキップ操作がユーザによりなされた場合の選択対象にはならないリンクポイントであるか、リンクコマンドによるリンクが可能であり、尚且つチャプタースキップ操作がユーザによりなされた場合の選択対象になるエントリーマークであるかを示す。
 以上がプレイリスト情報ファイルについての説明である。MVC1080@60i/50iビデオストリームの再生を許可したエントリーを含むSTN_table_SSを従来のSTN_table_SSと区別する方法としては、インデックスファイルに付与すべきID1を別の値に変更すればよい。MVC1080@60i/50iビデオストリームのエントリーを含むSTN_table_SSを、ID1=0x0004が登録されたエクステンションデータに配置している。
 ストリーム選択テーブル立体視版は、このシンタックスにおけるExtention_Dataの1つとして再生装置による処理に供されることになる。
 図13の矢印cul1は、ExtentionDataの内部構成をクローズアップして示している。この引出線に示すように、ExtentionDataには、0x0004のID1が付与されており、その内部にSTN_table_SSが存在する。引出し線cul2は、STN_table_SSの内部構成をクローズアップして示している。この引出線に示すように、STN_table_SSは、STN_table_SSのstream_attribute_SSにインターレース3Dビデオが含まれる場合におけるvideo_format,frame_rateの設定値を示している。本図によると、video_format,frame_rateには、video_formatが=4(1080i)と設定され、frame_rateは3又は4(25Hz,29.97Hz)に設定される。この25Hz,29.97Hzという値は、MVC1080@50i/60iビデオストリームの50Hz/59.94Hz(フィールド)を、一秒当りのフレーム数に換算したものである。
 MVC1080@60i/50iビデオストリームの再生を許可したエントリーを含むSTN_table_SS()を、別のエンコード値が設定されたID1のエクステンションデータに配置すれば、Blu-ray ReadOnlyディスクプレーヤーでは、読み飛ばしてよい拡張情報として扱うから、再生に悪影響をもたらすことはない。また、新しくインターレース3Dに対応するバージョン3.1のBlu-ray Rewritableの再生装置は、新規IDであるID1=0x0004のエクステンションデータからMVC1080@60i/50iビデオストリームのエントリーを含むSTN_table_SSであることを判別できるため、インターレース3Dのデコードが可能となる。
 上記はSTN_table_SSに特化した説明である。インターレースMVC1080@60i/50iの3Dビデオにおけるプレイリスト情報、クリップ情報の記載規則を一般化する。
 クリップ情報ファイルにおいて、0x0004のID1が付与されたエクステンションデータに並べられる情報要素としては、プログラム情報SS、エクステントスタートポイント情報、特徴点情報SSがある。
 プログラム情報SSは、プログラム情報を立体視のために拡張したものである。プログラム情報とは、クリップストリームファイルにおけるメインTS、サブTSのプログラム構成を示す情報であり、クリップストリームファイルがどのようなエレメンタリストリームを多重化したものであるかを示す。具体的には、クリップストリームファイルに多重化されているエレメンタリストリームがどのようなパケット識別子を有しているか、どのようなビデオフォーマット、フレームレートを有しているかを示す。プログラム情報SSは、ビデオフォーマットと、フレームレートとの組合せが以下の通り規定されている点が、通常のプログラム情報と異なる。
 つまりプログラム情報SSでは、フォーマットコード=4が1080i(SMPTE)、フォーマットコード=5が720P、フォーマットコード=6が1080Pという3つが追加されている。
 フレームレートは以下の通り。フレームレートコード=4が24000/1001(=23.996)=3025Hz、フレームレートコード=4が3000/1001(29.97Hz)、フレームレートコード=6が50Hz、フレームレートコード=7が6000/1001(59.94)が追加されている。そして、プログラム情報_SSにおけるフォーマット、及び、フレームレートの組合せとしては1920×1080interless(1080i)が規定される。1080iは、SMPTE274M-1998 1920×1080Scanning and Analog and Digital interface for multiple picture layerに規定されたものである。
 エクステントスタートポイント情報は、立体視インターリーブドストリームファイルに存在する複数のエクステントから、ベースビデオストリームを含むATCシーケンスと、ディペンデントビュービデオストリームを含むATCシーケンスとに分離するための情報である。
 特徴点情報SSは、クリップ情報ファイルにおける特徴点情報を立体視再生のために拡張したものである。一般的な特徴点情報について説明する。Blu-ray ReadOnlyディスクフォーマットで定義されていた特徴点情報とは、クリップストリームファイルに多重化されている複数のエレメンタリストリームの特徴点がどこに存在するかを、エレメンタリストリーム毎に示す情報である。エレメンタリストリーム毎の特徴点を示す情報が、エントリーマップ(EP_map)と呼ばれる。何が特徴点になるかは、ストリームの種別毎に異なる。親画面ビデオストリームの場合は、Open-GOP、Closed-GOPの先頭に位置するIピクチャタイプのビューコンポーネントの先頭を示すアクセスユニットデリッミターが特徴点となる。
 また特徴点をどのように表すかは、ATCシーケンス、STCシーケンスのそれぞれで異なる。ATCシーケンスにおいて特徴点は、ソースパケット番号で表現される。STCシーケンスにおいては、同じ特徴点が、STC時間軸における時点を示すPTSを用いて表現される。これらのソースパケット番号を再生時間と対応付けるため、エントリーマップは、複数のエントリーポイントから構成されている。具体的にいうと、エントリーマップを構成する個々のエントリーポイントは、ATCシーケンスにおける特徴点の所在を示すソースパケット番号を、STCシーケンスにおける特徴点の所在を示すPTSに対応付けられており、その特徴点からの単独再生が可能であるか否かを示すフラグ(is_angle_changeフラグ)と、GOP先頭に存在するイントラピクチャのサイズを示す情報(I_size)とを具備している。
 エレメンタリストリーム毎のエントリーマップは、これらストリーム種別毎の特徴点のソースパケット番号を、PTSに対応付けて示しているので、このエントリーマップを参照することで、STCシーケンスにおける任意の時点から、その時点に最も近いエレメンタリストリーム毎の特徴点の所在を示すソースパケット番号を導くことができる。上記の特徴点情報は、平面視のためのものであり、ディペンデントビュービデオストリームの特徴点は網羅していない。これを補完するため、クリップ情報ファイルには立体視のための特徴点情報SSが存在していて、MVC1080@60i/50iディペンデントビュービデオストリームの時間軸上のPTSを、SPNに対応付けるEP_map_SSを含む。かかるEP_map_SSを用いることで、ベースビュービデオストリームのランダムアクセスが可能になる。
 このようなプログラム情報SS、エクステントスタートポイント情報、特徴点情報SSが、クリップ情報ファイルのエクステンションデータにおいて、「4」のエンコード値のID1に登録されている。
 次に、プレイリスト情報のエクステンションデータに配置される情報を述べる。
 ストリーム選択テーブルSS(STreamNumber_table_StereoScopic(SS))は、3D出力モードにおいてのみ、ストリーム選択テーブルと共に使用されるストリーム選択テーブルであり、プレイアイテムの再生や、これに関連するサブパスが再生されている際、選択することができるエレメンタリストリームを定義する。ここでプレイアイテム#1~#NというN個のプレイアイテムが存在する場合、プレイアイテム#1~#Nのそれぞれに対応するストリーム登録列が、ストリーム選択テーブルSSに設けられる。
 ストリーム登録列における個々のストリーム登録情報は、ストリーム番号と、そのストリーム番号に対応するストリームエントリーと、ストリーム属性とを含む。このストリームエントリーは、パケット識別子(PID)を含み、これを用いることで、3D再生時のみに用いるべきエレメンタリストリームの多重分離をPIDフィルタに行わせることができる。ストリーム選択テーブルSSは、3D出力モード固有の拡張を意味するので、各プレイアイテム情報にストリーム選択テーブルSS(STN_table_SS)が関連付けられているプレイリストを「3Dプレイリスト」という。
 STN_table_SSのストリーム登録列としては、MVC1080@60i/50iディペンデントビュービデオストリームのストリームエントリー及びストリーム属性にストリーム番号を付与したもの(1)、立体視プレゼンテーショングラフィクスを構成する左目用PGストリーム、及び、右目用PGストリームのストリームエントリー及びストリーム属性にストリーム番号を付与したもの(2)、立体視インタラクティブグラフィクスを構成する左目用IGストリーム、及び、右目用IGストリームのストリームエントリー及びストリーム属性にストリーム番号を付与したもの(3)、画面上端に字幕を配置するという上端配置レイアウトを採用する場合に、1plane+Offsetでの再生が許可されうる字幕ストリームであるPGストリーム又はテキスト字幕ストリームのストリームエントリー及びストリーム属性にストリーム番号を付与したもの(4)、画面下端に字幕を配置するという下端配置レイアウトを採用する場合に、1plane+Offsetでの再生が許可されうる字幕ストリームであるPGストリーム又はテキスト字幕ストリームのストリームエントリー及びストリーム属性にストリーム番号を付与したもの(5)がある。
 ここで1plane+Offsetとは、1つのフレーム期間においてプレーンメモリにおける画素の座標を左方向及び右方向に変化させることで、1枚のグラフィクスを用いて立体視を実現する出力モードのことである。この1plane+Offsetモードにおける変化量は、ディペンデントビュービデオストリームにおけるGOP先頭に存在するビデオアクセスユニットのMVCスケーラブルネスティングSEIメッセージ(図3(c)を参照)の中に存在していて、GOPにおける個々のフレームについて固有な値が設定される。
 この他、STN_table_SSに記載されるストリーム登録列以外の情報要素には以下のものがある。IGストリームでポップアップメニューを表示するにあたって、ベースビュービデオストリームの1plane+Offset再生に適用すべきポップアップ表示固定オフセット(1)、テキスト字幕ストリームを1plane+Offsetモードで表示するにあたって、各描画領域に対する1plane+Offset再生を有効するかどうかを規定する有効性フラグ(2)、右目用グラフィクス、左目用グラフィクスで立体視を可能とする立体視PGストリームが存するか否かを示す存否フラグ(3)、字幕の上端配置を可能とする上端配置字幕ストリームが存在するか否かを示す上端配置存否フラグ(4)、字幕の下端配置を可能とする下端配置字幕ストリームが存在するか否かを示す下端配置存否フラグ(5)、右目用グラフィクス、左目用グラフィクスで対話的な立体視を可能とする立体視IGストリームが存在するか否かを示す存否フラグ(6)がある。
 ストリーム選択テーブルSSにおけるストリームエントリーは、再生装置が3D出力モードに設定されている場合において、対応するストリーム番号が再生装置におけるストリーム番号レジスタに設定された際、再生装置が多重分離に用いるべきパケット識別子を示す。ここで、プレイアイテム情報内のストリーム選択テーブルとの違いは、STN_table_SSにおけるストリーム登録列は、ストリーム選択プロシージャの対象にならない点である。つまり、ストリーム選択テーブルにおけるストリーム登録列におけるストリーム登録情報は、個々のエレメンタリストリームの優先順序と解釈され、何れかのストリーム登録情報内のストリーム番号が、ストリーム番号レジスタに書き込まれる。しかしSTN_table_SSにおけるストリーム登録列は、ストリーム選択プロシージャの対象とはならず、STN_table_SSにおけるストリーム登録情報は、何れかのストリーム番号がストリーム番号レジスタに格納された際、そのストリーム番号に対応するストリームエントリー及びストリーム属性を取り出すという目的のみに用いられる。
 次にサブパスエントリーエクステンションについて説明する。サブパスエントリーエクステンションは、立体視のためのエレメンタリストリームが、何処に存在するかを明示するためのエントリーであり、そのエレメンタリストリームを含むクリップストリームファイルのクリップ情報のエントリーID、サブパスID、ストリームPIDを含む。以上がサブパスエントリーエクステンションについての説明である。
 次にプレーン内有効化情報列について説明する。
  プレーン内有効化情報は、対応するプレイリスト情報がカレントプレイリストとして選択されている場合、ビデオプレーンにおける画素領域のうち、どの部分を有効にして動画像のための表示枠を配置するかを規定する情報であり、bottom_margin、top_margin、top_down_offset、bottom_up_offsetから構成される。
 top_margin、bottom_marginは、ビデオプレーンに通常レイアウトを採用する場合、画面の上端領域の縦幅、下端領域の縦幅がどれだけであるかを規定する。
 bottom_up_offsetは、字幕の画面の下端に配置するという下端配置レイアウトを採用する場合、画面の上端部を縮めて、動画像の表示枠を引き上げ、下端をどれだけ広げるかを示すオフセットであり、下端配置レイアウトの採用時において、top_marginに代えて使用される。
 top_down_offsetは、字幕の画面の上端に配置するという上端配置レイアウトを採用する場合、画面の上端部をどれだけ広げて、動画像の表示枠を引き下げるかを示すオフセットであり、上端配置レイアウトの採用時において、top_marginに代えて使用される。
 以上がクリップ情報ファイル、プレイリスト情報ファイルの値が0x0004のID1のエクステンションデータに設けられる情報要素についての説明である。
 プレイリスト再生時におけるエクステンションデータアクセスは以下の通りとなる。
 プレイリストに基づく再生について述べる。ムービーオブジェクトやバイトコードアプリケーションによって再生が命じられた場合、そのプレイリストのバージョンをチェックする。
 また、そのプレイリストにおいてカレントのプレイアイテムになっているプレイアイテム情報のclip_information_file_nameで参照されているクリップ情報ファイルのバージョンをチェックする。
 カレントの出力モードが3D出力モードであり、プレイリストのバージョンがバージョン2.4であるなら、STN_table_SS、サブパスエクステンションを、0x0004のID1が付与されたエクステンションデータから取り出す。そうでないなら、STN_table_SS、サブパスエクステンションを、0x0002のID1が配置されたエクステンションデータから取り出す。0x0004のID1から取り出されたSTN_table_SSには、MVC1080@60i/50iビデオストリームのストリーム属性に対応付けて、MVC1080@60i/50iビデオストリームのPIDが設定されており、サブパスエントリーエクステンションにはディペンデントビュービデオストリームのパケット識別子が記載されているから、これに基づきPIDフィルタに、ベースビュービデオストリーム、ディペンデントビュービデオストリームの多重分離を行わせることができる。更に、STN_table_SSを用いて、左目用・右目用のPGストリーム、左目用右目用のIGストリームを用いた立体視再生やPGストリーム、IGストリーム、テキスト字幕ストリームの1plane+Offset再生を実現することができる。
 カレントの出力モードが3D出力モードであり、クリップ情報のバージョンがバージョン2.4であるなら、プログラム情報SS、特徴点情報SS、エクステントスタートポイント情報を、0x0004のID1が付与されたエクステンションデータから取り出す。そうでないなら、プログラム情報SS、特徴点情報SS、エクステントスタートポイント情報を、0x0002のID1が付与されたエクステンションデータから取り出す。00x0004のID1が付与されたエクステンションデータから取り出されたプログラム情報SSには、MVC1080@60i/50iビデオストリームの符号化方式やビデオフォーマット、フレームレートを示すストリーム属性が存在するから、これをビデオデコーダに設定する。
 また0x0004のID1から取り出したエクステントスタートポイント情報に従い、ATCシーケンス1、2の分離を行わせ、特徴点情報に従ってランダムアクセスを実行する。
 (第5実施形態) 
 本実施形態は、インデックスファイルにおける動作モードオブジェクトプログラムと、タイトルとの対応付けの改良を述べる。
 インデックスファイルにおける上記対応付けの概要について説明する。インデックスファイルは、再生装置におけるタイトル番号レジスタに格納され得る複数のタイトル番号と、動作モードオブジェクトプログラムとの対応付けを規定する。ここで、タイトル番号レジスタにおけるタイトル番号は、0、1~999、不定値(0xFFFF)という番号がある。タイトル番号0は、トップメニュータイトルのタイトル番号である。
 トップメニューとは、記録媒体におけるメニュー階層の最上位に位置するメニューであり、タイトルからタイトルへと遷移するタイトル間の遷移構造の根幹にあたる。トップメニュータイトルとは、ユーザによるメニューコール操作によってトップメニューを呼び出すことができるタイトルである。不定値(0xFFFF)のタイトル番号は、ファーストプレイタイトルのタイトル番号である。ファーストプレイタイトルとは、記録媒体の装填直後に、視聴者への警告やコンテンツプロバイダによるロゴ表示等を行うタイトルである。
 動作モードオブジェクトプログラムとは、あるタイトルがカレントタイトルになった際、そのタイトルの動作モードを規定するオブジェクトデータ及びプログラムの組みのことである。 動作モードオブジェクトプログラムには、動作モードのためのオブジェクトデータと、プログラムファイルとが1つのファイルにまとめられているものと、オブジェクトデータと、プログラムとが別々のファイルに別れているものとがある。前者の動作モードオブジェクトプログラムは、コマンドベースの動作モードで起動されるムービーオブジェクトである。ムービーオブジェクトは、ナビゲーションコマンドから構成される。また動作モードオブジェクトデータは、タイトルコール時のレジュームの可否等を設定する。
 後者の動作モードオブジェクトプログラムは、バイトコードインタプリタベースの動作モードで起動されるバイトコードアプリケーションと、動作モードオブジェクトデータとの組みのことである。動作モードオブジェクトデータは、アプリケーションシグナリングのためのアプリケーション管理テーブルを含み、この動作モードオブジェクトによってタイトルバウンダリの動作を再生装置に行わせる。Blu-ray ReadOnlyディスクのjavaモード(BD-Jモード)において、上記動作モードオブジェクトはBD-Jオブジェクトとよばれ、このBD-Jオブジェクトによって動作が規定されるバイトコードアプリケーションをBD-Jアプリケーションとよぶ。
 インデックスファイルは、各タイトル番号のそれぞれに対応したエントリー(タイトルインデックス)を有し、個々のタイトルインデックスに、動作モードプログラムファイルと、タイトルアクセスタイプとを記述することで、各々のタイトルが、どのような動作モードで動作するのかを詳細に規定する。以下は、Blu-ray REwritableディスクバージョン3.1の制限である。
 ファーストプレイタイトルやトップメニュータイトルで再生されるプレイリスト群は、AVC1080@60P/50Pビデオストリームを含んではならない。ファーストプレイタイトルやトップメニュータイトルでAVC1080@60P/50Pビデオストリームの再生を許可したエントリーをもつストリーム選択テーブルを含むプレイリストの再生を意図している場合、マンダトリフォーマットを含むオルテネイティブプレイリストを準備しなければならない。HDMVナビゲーションコマンドやBD-Jアプリケーションは、AVC1080@60P/50Pビデオストリームケーパビリティ(必要であれば50&25Hzケーパビリティ)をチェックしてプレイリストを再生するかどうかを決めねばならない。ファーストプレイタイトル、トップメニュータイトル以外のタイトルにおいては、以下のようにオーサリングせねばならない。タイトルから再生されるプレイリストがAVC1080@60P/50Pビデオストリームを含む場合、ナビゲーションコマンドやBD-Jアプリケーションによって再生が指示される。
 後述するPSR29のAVC1080@60P/50Pビデオストリームケーパビリティのチェックなしでタイトルから再生されることを意図した、AVC1080@60P/50Pビデオストリームの再生を許可するエントリーがプレイリストのストリーム選択テーブルに存在する場合、インデックスファイルにおけるタイトルアクセスタイプは、「タイトルサーチ不可」に設定せねばならない。プレイリストのバージョン番号は、2.4(0240),2.0(0200)、1.0(0100)に設定される。プレイリスト情報ファイルに以下の要件をみたすプライマリビデオストリームエントリーが含まれる場合は、バージョン2.4に設定される。
 ・ストリーム符号化タイプがMPEG4-AVC(0x1B) 
 ・ビデオフォーマット=6、フレームレートが6又は7
 ・セカンダリビデオストリームのエントリー数は、AVC1080@60P/50Pビデオストリームが存在する場合、0に設定せねばならない。
 タイトルアクセスタイプは、AVC1080@60P/50Pビデオストリームの再生を許可したエントリーをもつストリーム選択テーブルを含むプレイリストの再生を意図していないタイトルにおいて、タイトルサーチが許される。
 以上のように本実施形態によれば、複数のタイトルのうち、再生制御の基幹となるファーストプレイタイトル、トップメニュータイトルに対応付けられた動作モードオブジェクトプログラムは、プログレッシブピクチャからなり、かつ、フレームレートがオプショナルレートである再生経路を再生対象から除外しているので、マンダトリなフレームレートを超える高フレームレートのプログレッシブ再生に対応しない再生装置に、上記記録媒体が装填されたり、ユーザによりメニューがコールされたとしても、複数のプログレッシブピクチャから構成され、かつ、フレームレートが高いビデオストリームが、旧式の再生装置のビデオデコーダに送り込まれることはない。よって記録媒体を装填した途端、画面がブラックアウトしたり、またメニューコールした途端、画面がブラックアウトするということはない。
 (第6実施形態) 
 本実施形態は、これまでの実施形態で述べた再生装置をProfile5 BD-R/BD-REプレーヤとして実施する形態である。Profile5 BD-R/BD-REプレーヤは、部分削除、分割、統合が施されたMVC1080@24p/50i/60iの3Dビデオコンテンツを含むBDMVデータベース、MVC1080@60i/50iビデオストリーム、AVC1080@60P/50Pビデオストリームの再生を行えるものであり、これらの再生が可能な点において、BD-3Dプレーヤよりも進歩している。
 一方、BDMVRecording Specificationにおいてコンテンツの再生制御は、記録媒体に記録された動作モードオブジェクトプログラムを主体としてなされる。
 かかるProfile5 BD-R/BD-REプレーヤに、バージョン3.1のBD-REがローディングされた場合、かかるProfile5 BD-R/BD-REプレーヤで起動される動作モードオブジェクトプログラムは、動作プラットフォームとなるプレーヤが、BD-3Dプレーヤーであるか、プロファイル5プレーヤーであるか区別できない。これらが不明なままストリーム再生を命じた場合、不適切な映像が出力される恐れがある。
 本実施形態の目的は、動作プラットフォームとなる再生装置が不明なまま、動作モードオブジェクトプログラムが再生を命じるという危うい再生指示の発行を避けることである。
 以下実施化障壁克服のための改良を述べる。かかる改良はプレーヤ状態レジスタ、プレーヤ設定レジスタに存在する。プレーヤ状態レジスタについて述べる。プレーヤ状態レジスタは、光ディスクが装填された際に初期値が設定され、またカレントプレイアイテムの変更等、再生装置の状態が変化した際に、その格納値の有効性が判定されるレジスタである。この格納値としては、カレントのタイトル番号、カレントのプレイリスト番号、カレントのプレイアイテム番号、カレントのストリーム番号、カレントのチャプター番号等がある。光ディスクの装填時に初期値が格納されるので、この格納値は一時的なものであり、光ディスクがイジェクトされたり、また再生装置の電源が断たれれば、この格納値は有効性を失う。
 プレーヤ設定レジスタは、電源対策が施されている点がプレーヤ状態レジスタとは異なる。電源対策が施されているので、再生装置の電源遮断時において、その格納値が不揮発性のメモリに退避され、再生装置の電源投入時において、その格納値が復帰される。再生装置の製造主体(マニファクチャ)が再生装置の出荷時に定めた再生装置の各種コンフィグレーションや、ユーザがセットアップ手順に従い設定した各種コンフィグレーション、そして、再生装置がTVシステムやステレオ、アンプ等のホームシアターシステムの機器と接続された際、接続相手となる機器とのネゴシエーションにより判明した相手側機器の60Pケーパビリティがプレーヤ設定レジスタに設定される。
 個々のプレーヤ状態レジスタ、プレーヤ設定レジスタは何れも語長が32ビットのレジスタであり、32ビット長のレジスタのそれぞれにはレジスタ番号が与えられ、このレジスタ番号を用いてアクセスすべきレジスタが特定される。所定のレジスタ番号のプレーヤ状態レジスタ、プレーヤ設定レジスタに格納されている32ビット長のビット列であって、任意のビット範囲[bx:by]のもの値は、プログラムが動作を行うにあたっての動作システムの環境変数(システムパラメータ)として扱われる。
 このプレーヤ設定レジスタの1つであるプレーヤープロファイルレジスタは、プロファイル5プレーヤーにおけるプレーヤ設定レジスタの31番目のレジスタ(PSR31)に格納される。
 図14は、PSR31のビットアサインを示す図である。本図によると、32ビット長のPSR31のうち、16ビット目から19ビット目まで(b16~b19)は、Player Profileを示す。0ビット目から15ビット目は、プレーヤープロファイルのバージョンを示す。そして、このPSR31のビットb20に、プロファイルインディケータが存在する。
 PSR31 Player Profile and Player VersionのProfile5 indicator(b20)の説明を行う。プロファイル5インディケータは、プレーヤがプロファイル5か否かを示す。プロファイル5インディケータが『1』に設定された場合、プレーヤープロファイルは0011(プロファイル2)を示す。プレーヤーバージョンが0x0240に設定された場合、BD-RE/BD-Rプレーヤーは、Blu-ray ReadOnlyFormat Part3 オーディオビジュアルベーシックスペシフィケーションバージョン2.4または2.5をコンプライしたプレーヤーとなる。
 つまりPlayer Profile = 0011b かつ Profile5 indicator =「1」ならば、再生装置はBD-RE Profile 5に対応する。BD-RE Profile 5対応再生装置ならば、MVC1080@24p/50i/60i3Dビデオビデオストリームの再生/編集が可能である。再生装置が、インターレース3Dに対応(Stereoscopic 1920x1080 interlace video Capability@PSR24)、あるいは、Progressive videoに対応(Progressive Video Capability@PSR29)ならば、b0からb17までのPlayer Versionは、0x0240(BD-ROM Ver2.4以上に対応)に設定される。バイトコードアプリケーションやムービーオブジェクトプログラムは、起動された際、動作の前提となる再生装置が、プロファイル5プレーヤーであるかどうかを確認することができる。たとえプレーヤープロファイルが、既存のプロファイルと同じ「0011」を示したとしても、プレーヤインディータを参照することで動作プラットフォームがプロファイル5プレーヤーであるかどうかを判定することができ、正しいケーパビリティが存在するプレーヤーにおいて、上述したようなBD-3Dプレーヤーにはない再生機能を実行させることができる。
 AVC1080@60P/50PビデオストリームであるProgressive videoの再生を許可したプレイリストは、Progressive videoのデコードに非対応機器との互換性を確保するため、version_numberが「2.4」に区別されている。したがって、AVC1080@60P/50Pビデオストリームのストリーム属性と組みになったエントリをプレイリストから探索する探索手順(図9のステップC0009)にversion_numberを見て判別するロジックを設けてもよい 。version_number=0x0240(バージョン2.4)の値を持つPlayListには、AVC1080@60P/50Pビデオストリームのストリーム属性と組みになったエントリが存在するため、再生装置はSTN_table内のentryをチェックする前に、version_numberが0x0240かどうかをチェックすることによりAVC1080@60P/50Pビデオストリームのストリーム属性と組みになったストリームエントリの存在が判定可能となる。
 ただし、version_numberの値は、Progressive videoの存在自体を一意に特定するものではない。すなわち、version_numberの値が0x0240以外のPlayListにProgressive videoが存在することもあるため、version_numberが0x0240以外の場合でもSTN_table内にstream_coding_type=0x1B、video_format=6、frame_rate=6 or 7の組合せが存在するならば、Progressive videoのコンテンツが存在しcondition(A)はTRUEとなる。
 以上がPSR31についての説明である。続いて、PSR29の詳細について説明する。
 図15は、PSR29のビットアサインを示す図である。PSR29のb0は、HD_Secondary_video_Capabilityであり、ピクチャインピクチャ再生においてHDTV対応の子画面映像(セカンダリビデオ)を再生する能力が再生装置に存在するか(1b:HD Secondary Video is capable)、HDTV対応のセカンダリビデオを再生する能力が再生装置に存在しないか(0b:HD Secondary Video is incapable)を示す。ここでHDTVとは、1920×1080の解像度をもつビデオ、又は、1280×720の解像度をもつビデオのことをいい、このビデオをデコードし、出力することができる能力が存在するか否かが、本ビットに示されている。
 PSR29のb1は、50&25Hz_video_Capabilityであり、50&25Hzビデオ、つまり、50フレーム/秒のPAL方式のビデオストリーム、又は、25フレーム/秒のPAL方式のビデオストリームを再生する能力が再生装置に存在するか(1b:50&25Hz Video is capable)、50&25Hzビデオを再生する能力が再生装置に存在しないか(0b:50&25Hz Video is incapable)を示す。
 BDMVRecording SpecificationにおいてPSR29 Player Status Register for Player Capability for Video に新設されたビット(b4)について説明する。Prigressive Video Capabilityは、再生装置がProgressive Videoに対応するか否かを表す。「1」ならば、再生装置はProgressive Video Capabilityに対応する。Player Versionは0x0240となる。
 図16は、PSR23のビットアサインを示す。PSR23は、再生装置に接続されている表示装置の特性値を表す。ナビゲーションコマンドやバイトコードアプリケーションは、PSR23の値を書き換えることはできない。PSR23の値は、表示装置がインターフェイスを通じてこれらを提供した際、再生を開始する前に、自動的に設定される。これらの値を自動取得できない場合、これらはユーザによって設定される。
 PSR23のb0は、表示装置の立体視表示ケーパビリティを示す。立体視表示ケーパビリティは、「0」に設定された際、接続されている表示装置が、1920×1080/23.976Hzプログレッシブビデオ、又は、1920×1080/59.94Hzプログレッシブビデオを表示する処理能力を有していない旨を示す。
 「1」に設定された際、接続されている表示装置が、1920×1080/23.976Hzプログレッシブビデオ、又は、1920×1080/59.94Hzプログレッシブビデオを表示する処理能力を有している旨を示す。
 PSR23のb1は、表示装置の立体視1280×720 50pビデオ表示ケーパビリティを示す。立体視1280×720 50pビデオ表示ケーパビリティは、「0」に設定された際、接続されている表示装置が、1280×720/50Hzプログレッシブビデオを表示する処理能力を有していない旨を示す。「1」に設定された際、接続されている表示装置が、1280×720/50Hzプログレッシブビデオを表示する処理能力を有している旨を示す。
 PSR23のb2は、裸眼立体視可否フラグを示す。裸眼立体視可否フラグ(No glasses required for stereoscopic display)は、「0」に設定されることで接続されているTVシステムが、3D出力モードを視聴するのに眼鏡を必要とする旨を示し「1」に設定されることで接続されているTVシステムが、3D出力モードを視聴するのに眼鏡を必要としない旨を示す。
 b8からb19までの画面横サイズ(Horozontal display size)は、接続されている表示装置の水平サイズをcm単位で表す。0x000である場合、未定義であり、0x001から0xFFEまでである場合、接続されている表示装置の水平サイズをcm単位で表す。ここで0xFFEは、4094cmのディスプレイである旨を示す。0xFFFは、水平長4094cmより大きいディスプレイである旨を示す。
 b3は、PSR23 Display Capabilityを示す。再生装置に接続されたデジタルテレビ表示装置がインターレース3Dを表示可能ならば、Stereoscopic 1920x1080 interlace video Display Capabilityの値は「1」に設定される。
 図17は、PSR24のビットアサインを示す。PSR24は、再生装置の3Dケーパビリティを表す。記録媒体におけるプログラムは、PSR24の値を変化させることはできない。b0は、立体視1280×720 50pビデオ表示ケーパビリティを示す。立体視1280×720 50pビデオ表示ケーパビリティは、「0」に設定された際、1280×720/50Hzプログレッシブビデオを表示する処理能力を再生装置が有していない旨を示す。「1」に設定された際、1280×720/50Hzプログレッシブビデオを再生する再生能力を再生装置が有している旨を示す。
 b1は、立体視1280×720 エントロピー符号化モードにおいてCABACデコーディングのケーパビリティが存在するか否かを示す。エントロピー符号化モードには、CAVLC(Context-based Adaptive VLC)と、CABACとがある。
 CAVLCでは、隣接マクロブロックのDCT係数の状態に依存して現在のマクロブロックの符号化に使用する符号化テーブルを切り替える。
 CABAC(Context-based Adaptive Binary Arithmetic Coding)は、CAVLCと比較して、マクロブロック毎に確率分布を変化させる点、コンテキストの利用によりシンボル間相関を考慮する点、算術符号化を採用することで非整数コードワードを利用する点が異なる。H.264ではこれらの複数の符号化方式が用いられている。これは、処理量は少ないが効果もそこそこのCAVLCと、処理量は大きいが効果も高いCABACではその用途が異なるからである。そして、PSR24のb1における立体視1280×720 CABACデコーディングケーパビリティは、「0」に設定された際、CABACによる立体視映像のデコード能力を再生装置が有していない旨を示す。「1」に設定された際、CABACによる立体視映像のデコード能力を再生装置が有している旨を示す。
 b2は、立体視PGケーパビリティを示す。立体視PGケーパビリティは、「0」に設定されることで立体視PGを再生する能力を再生装置が有していない旨を示す。「1」に設定されることで立体視PGを再生する能力を再生装置が有している旨を示す。
 b3は、立体視IGケーパビリティを示す。立体視IGケーパビリティは、「0」に設定されることで再生装置が立体視IGを再生する能力を有していない旨を示す。「1」に設定されることで再生装置が立体視IGを再生する能力を有している旨を示す。
 b4は、テキスト字幕表示領域をプレーンシフトで表示できるかどうかのケーパビリティを示す。b6が、「0」に設定された際、テキスト字幕表示領域をプレーンシフトで表示する能力を再生装置が有していない旨を示す。「1」に設定された際、テキスト字幕表示領域をプレーンシフトで表示する能力を再生装置が有している旨を示す。
 b5は、3D出力モードにおけるBD-Jモードのケーパビリティを示す。このb5が「1」に設定された場合、3D出力モードにおいて再生装置は、BD-Jモードを処理できる旨を示す。b5が「0」に設定された場合、3D出力モードにおいて再生装置は、BD-Jモードを処理できない旨を示す。
 b6は、サウンドミキシングにおける副音声(セカンダリオーディオ)の再生の可否を示す。
 b7は、3D出力モードにおける制限付きBD-Jモードのケーパビリティを示す。このb5が「1」に設定された場合、3D出力モードにおいて再生装置は、BD-Jモードを制限付き処理できる旨を示す。b5が「0」に設定された場合、3D出力モードにおいて再生装置は、BD-Jモードを制限付きでも処理できない旨を示す。
 b8は、1920×1080インターレース3Dのケーパビリティが存在するか否かを示し、b9は、1920×1080インターレース3Dの変換ケーパビリティが存在するか否かを示す。これらは、BDMVRecording SpecificationでPSR24 3D Capabilityに新設されたものである。以下、これらのビットb8、b9について詳しく説明する。
 b8のStereoscopic 1920x1080 interlace video Capabilityは、再生装置がインターレース3Dをデコードできるか否かを表す。
 「1」のとき、再生装置は1920×1080インターレース3Dのデコードが可能であることを表し、「0」のとき、再生装置は1920×1080インターレース3Dのデコードが不可能であることを表す。もし、再生装置がProfile5非対応のプレーヤならば、3D再生には対応しないため、1920×1080インターレース3Dのデコード能力もまた実装されることはない。したがって、Profile5対応/非対応を示すPSR31のProfile 5 indicatorが「0」ならば、Stereoscopic 1920x1080 interlace video Capabilityは「1」とはならない。
 b9のStereoscopic 1920x1080 interlace video output conversion Capabilityは、インターレース3DをHDMI v1.4a準拠3D ビデオ(例えばサイドバイサイド方式)に出力変換できるか否かを表す。現状のBlu-ray Rewritableバージョン3.1規格では再生装置にインターレース3Dをデコードできる機能が備わっていたとしても、接続先の3DTVがインターレース3Dに対応するとは限らない。そのため、デコードされたインターレース3DをHDMI v1.4aに準拠する3DTVで再生するための変換機能が必須とし、このビットの値は「1」に設定されねばならない。尚、将来の規格改訂において、変換機能を必須とする規定は緩和される可能性もある。一方、インターレース3Dをデコードできない再生装置は、インターレース3D ビデオをHDMI v1.4aに準拠の3Dに変換できないことは自明であるので、このビットの値は「0」である。インターレース3Dをデコードできるプレーヤーは、3D変換出力機能を義務化している。従って[b8、b9]で許容される組合せは、[0(ケーパビリティなし),0(ケーパビリティなし)]、又は、[1(ケーパビリティあり),1(ケーパビリティあり]となる。[1(ケーパビリティあり),0(ケーパビリティなし)]、又は、[0(ケーパビリティなし),1(ケーパビリティあり)]という組合せは許容されない。
 MVC1080@24p/50i/60iの3Dビデオのナビモデルについて説明する。3Dインターレースビデオストリームのアビリテイは、BD-R/BD-REプレーヤーにおいてオプション扱いである。ナビゲーションコマンドやバイトコードアプリケーションは、PSR24のビデオケーパビリティをチェックし、PSR22で使用する出力モードを規定する。3Dインターレースケーパビリティが0であれば、プレイリスト再生の開始に先立ち、出力モードは2D出力モードに規定される。
 図18(a)は、PSR22のビットアサインを示す。PSR22におけるb0は、カレントの出力モードを表す。出力モードが変化すれば、再生装置におけるビデオ出力は、対応して変化しなければならない。出力モードの値は、選択モデルによって制御されねばならない。
 PSR22の状態遷移は、モード選択プロシージャと呼ばれる規定の手順によって実現される。このモード選択プロシージャは、光ディスク装填時におけるInitializationと、プレーヤーの状態が変化した場合におけるProcedure when playback condition is changedとから構成される。
 図18(c)は、Initializationの処理手順を示す。ステップS501は、ディスクアンバウンドのバイトコードアプリケーションが動作中かどうかの判定であり、ステップS502は、PSR23におけるStereoscopic Display Capabilityが「Capability有」を示し、インデックスファイル(index.bdmv)におけるInitial_output_mode情報が「3D出力モード」を示すかどうかの判定である。
 ステップS501がYesであれば、ステップS503においてカレントの出力モードを維持する。ステップS501がNo、ステップS502がYesであれば、ステップS504においてPSR22を3D出力モードに設定する。ステップS501がNo、ステップS502がNoであればステップS505においてPSR22における出力モードを、2D出力モードに設定する。
 以上のInitializationによれば、Index.bdmvのinitial_output_mode情報がオンになっている場合、再生装置に立体視プレゼンテーションモードの再生能力が存在することを要件として、ディスク装填と同時に再生装置が3D出力モードになる。よってinitial_output_mode情報がオンであれば、記録媒体を装填してすぐ眼鏡をかけることで、立体視再生による仮想現実感に浸ることができる。
 図18(c)は、Procedure when playback condition is changedの処理手順を示す。ステップS511は、PSR22における出力モードは、2D出力モードであるか否かの判定であり、ステップS513は、PSR24におけるインターレース3Dケーパビリティが「Capability有」を示し、尚且つ、プレイリストにSTN_table_SSが存在するかどうかの判定である。
 ステップS511がYesであればステップS512において、カレント出力モードを変化させない。ステップS511がNo、ステップS513がYesであってもカレント出力モードを変化させない(ステップS512)。ステップS511がNo、ステップS513がNoであればカレント出力モードを2D出力モードに変化させる(ステップS514)。
 以上のように本実施形態によれば、上述したビット構成を有することによりビット長に応じた数の種別を表現することができるので、AVC1080@60P/50PビデオストリームやMVC1080@60i/50iビデオストリームのケーパビリティを示す情報をプレーヤ設定レジスタに格納して使用する場合、このレジスタサイズを意識して、識別子や種別数を適切な数に定めることができる。これにより、家電機器、携帯機器での利用を促進することができる
 (第7実施形態) 
 本発明は、機器への装填時における記録媒体の編集可否設定の改良であり、その具体的手順は、記録媒体におけるストリームファイルの記録の仕方に依拠するところが大きい。説明に先立ち、記録媒体の基本的構造と、その基本的構造を前提にしたストリームファイルの記録の仕方についての説明を行う。
 始めに、編集可否の設定.対象となる記録媒体の詳細について説明する。以下の説明では、編集可否の設定.対象となる記録媒体の一例に多層化された光ディスクを選ぶ。リムーバブルメディアの一例としてかかる光ディスクを選んだのは、多層化された光ディスクは、その読み出しにあたっての物理的制約が一番厳しいからであり、かかる光ディスクでの記録を想定しておけば、他の媒体での記録にも適用できるからである。全ての実施形態の実施化障壁の克服手段を具現化した構成要素は、既存の記録媒体の内部構成を前提にしている。理解を高めるため、課題解決のための必須の構成要素が前提としている光ディスクの既存の構成を説明する。
 図19は、多層化光ディスクの内部構成を示す。
 第1段目は、多層化された光ディスクの一例を示し、第2段目は、各記録層上に存在する螺旋トラックを水平方向に引き伸ばして描いた図である。これらの記録層における螺旋トラックは、1つの連続したボリューム領域として扱われる。ボリューム領域は、最内周に位置するリードイン、最外周に位置するリードアウト、この間に存在する第1記録層の記録領域、第2記録層の記録領域、第3記録層の記録領域から構成される。これらの第1記録層の記録領域、第2記録層の記録領域、第3記録層の記録領域は、1つの連続した論理アドレス空間を構成する。
 ボリューム領域は、先頭から光ディスクをアクセスする単位で通し番号が振られており、この番号のことを論理アドレスと呼ぶ。光ディスクからのデータの読み出しは論理アドレスを指定することで行う。ここで、BD-ROMのような読み込み専用ディスクの場合には、基本的に論理アドレスが連続しているセクタは、光ディスク上の物理的な配置においても連続している。すなわち、論理アドレスが連続しているセクタのデータはシークを行わずに読み出すことが可能である。ただし、記録層の境界においては、論理アドレスが連続していたとしても連続的な読み出しはできない。そのため、層境界の論理アドレスは、予め記録装置に登録されているものとする。
 ボリューム領域は、リードイン領域の直後にファイルシステム管理情報が記録されていて、これに続いて、ファイルシステム管理情報にて管理されるパーティション領域が存在する。ファイルシステムとは、UDF(Universal Disc Format)やISO9660などのことであり、本実施形態では、Extention2.3形式のファイルシステムを採用する。このファイルシステムを介すれば、論理アドレス空間に記録されているデータをディレクトリ、ファイル構造を使って読み出すことができる。このファイルシステムにおけるファイルの配置位置は、255文字以下のディレクトリ名と、255文字以下のファイル名とを組合せたファイルの経路情報(ファイルパスと呼ばれる)で特定される。日常使っているPC(パーソナルコンピュータ)の場合でも、FATまたはNTFSと呼ばれるファイルシステムを通すことにより、ディレクトリやファイルという構造でハードディスクに記録されたデータがコンピュータ上で表現され、ユーザビリティを高めている。このファイルシステムにより、通常のPCと同じように記録されている論理データをディレクトリ、ファイル構造を使って読み出すことが可能になっている。
 第4段目は、ファイルシステムで管理されるファイルシステム領域における領域割り当てを示す。ファイルシステム領域は、主としてメディアムービーデータベース領域が割り当てられる。メディアムービーデータベース領域のうち、内周側には、非ストリーム記録領域が存在する。非ストリーム記録領域の直後には、ストリーム記録領域が存在する。第5段目は、これら非ストリーム記録領域及びストリーム記録領域の記録内容を示す。ストリーム記録領域には、AVストリームファイルを構成する構成するエクステントが存在する。非ストリーム記録領域には、非AVストリームファイルを構成するエクステントが存在する。
 続いて、メディアムービーデータベース領域の内部構成について説明する。図20は、メディアムービーデータベース領域のディレクトリ階層を示す。
 メディアムービーデータベース領域のディレクトリ階層とは、ROOTディレクトリの直下にBDMVディレクトリを設けて、このBDMVディレクトリに、メディアムービーデータベースの構成要素を格納するというものである。BDMVディレクトリの配下には、「JARディレクトリ」、「BDJOディレクトリ」、「PLAYLISTディレクトリ」、「CLIPINFディレクトリ」、「STREAMディレクトリ」と呼ばれる5つのサブディレクトリが存在し、BDMVディレクトリには、「index.bdmv」,「MovieObject.bdmv」の2種類のファイルが配置されている。
 「index.bdmv(ファイル名固定)」は、インデックスファイルである。
 「MovieObject.bdmv(ファイル名固定)」は、1つ以上のムービーオブジェクトを格納している。ムービーオブジェクトは、コマンドインタプリタを制御主体とした動作モード(HDMVモード)において、再生装置が行うべき制御手順を規定するプログラムファイルであり、1つ以上のコマンドと、GUIに対するメニューコール、タイトルコールがユーザによってなされた場合、これらのコールをマスクするかどうかを規定するマスクフラグを含む。
 「BDJOディレクトリ」には、拡張子bdjoが付与されたプログラムファイル(xxxxx.bdjo[「xxxxx」は可変、拡張子「bdjo」は固定])が存在する。このプログラムファイルは、BD-Jモードにおいて、再生装置が行うべき制御手順を規定するBDーJオブジェクトを格納している。
 このJava(登録商標)アプリケーションの実体にあたるのが、BDMVディレクトリ配下のJARディレクトリに格納されたJava(登録商標)アーカイブファイル(YYYYY.jar)である。アプリケーションは例えばJava(登録商標)アプリケーションであり、仮想マシンのヒープ領域(ワークメモリとも呼ばれる)にロードされた1つ以上のxletプログラムからなる。このワークメモリにロードされたxletプログラム、及び、データから、アプリケーションは構成されることになる。
 「PLAYLISTディレクトリ」には、拡張子mplsが付与されたムービープレイリストを定義するプレイリスト情報ファイル(xxxxx.mpls[「xxxxx」は可変、拡張子「mpls」は固定])が存在する。
 「CLIPINFディレクトリ」には、拡張子clpiが付与されたクリップ情報ファイル(xxxxx.clpi [「xxxxx」は可変、拡張子「clpi」は固定])が存在する。
 以上のディレクトリに存在するファイルを構成するエクステントは、非AVデータ領域に記録される。
 「STREAMディレクトリ」は、ストリームファイルを格納しているディレクトリであり、本ディレクトリには、xxxxx.m2ts([「xxxxx」は可変、拡張子「m2ts」は固定])という形式でストリームファイルが格納される。このSTREAMディレクトリの配下には、立体視インターリーブドストリームファイルの格納用のディレクトリとして「SSIFディレクトリ」が存在する。
 以上のように、メディアムービーデータベース領域は「ROOTディレクトリ領域」、「BDMVディレクトリ領域」、「JARディレクトリ領域」、「BDJOディレクトリ領域」、「PLAYLISTディレクトリ領域」、「CLIPINFディレクトリ領域」、「STREAMディレクトリ領域」、「SSIFディレクトリ領域」から構成される。上述したような複数のディレクトリ領域は、何れも共通の内部構成を有している。それは「ディレクトリ領域」が「ディレクトリファイル」と、「下位ファイルについてのファイル記録領域」とから構成されるというものである。
 「ディレクトリファイル」は、「下位ディレクトリについてのファイル識別記述子」と、「下位ファイルのファイル識別記述子」とを含む。
 「下位ディレクトリのファイル識別記述子」は、自身の配下にある下位ディレクトリをアクセスするための参照情報であり、その下位ディレクトリを示す識別情報と、その下位ディレクトリのディレクトリ名の長さと、下位ディレクトリのファイルエントリがどの論理ブロック番号に記録されているかを示すファイルエントリアドレスと、その下位ディレクトリのディレクトリ名とから構成される。上述した例でいうと、BDMVディレクトリの「下位ディレクトリのファイル識別記述子」には、JAR、BDJO、PLAYLISTといったディレクトリ名が記述されることになる。
 「下位ファイルのファイル識別記述子」は、自身の配下にあるファイルをアクセスするための参照情報であり、その下位ファイルを示す識別情報と、その下位ファイル名の長さと、下位ファイルについてのファイルエントリがどの論理ブロック番号に記録されているかを示すファイルエントリアドレスと、下位ファイルのファイル名とから構成される。BDMVディレクトリの「下位ディレクトリのファイル識別記述子」には、Index.bdmv、MoveObject.bdmvといったファイル名が記述されることになる。
 これらのディレクトリのディレクトリファイルにおけるファイル識別記述子には、下位ディレクトリ及び下位ファイルのファイルエントリーが、どの論理ブロックに記録されているかが示されているので、このファイル識別記述子を辿ってゆけば、ROOTディレクトリのファイルエントリーからBDMVディレクトリのファイルエントリーに到達することができ、また、BDMVディレクトリのファイルエントリーからPLAYLISTディレクトリのファイルエントリーに到達することができる。同様に、JARディレクトリ、BDJOディレクトリ、CLIPINFディレクトリ、STREAMディレクトリのファイルエントリーにも到達することができる。更には、SSIFディレクトリのファイルエントリーにも到達することができる。
 「下位ファイルのファイル記録領域」とは、あるディレクトリの配下にある下位ファイルの実体が記録されている領域であり、当該下位ファイルについての「ファイルエントリ」と、1つ以上の「エクステント」とが記録されている。
 本願の主眼となるストリームファイルは、そのファイルが帰属するディレクトリのディレクトリ領域内に存在するファイル記録領域のことであり、ディレクトリファイルにおけるファイル識別記述子、及び、ファイルエントリーにおけるアローケーション識別子を辿ってゆくことで、アクセスすることができる。
 以降の説明では、部分削除、分割、統合といった編集操作の対象として、MVC1080@24p/50i/60iベースビュービデオストリーム、及び、MVC1080@24p/50i/60iディペンデントビュービデオストリームという2本のビデオストリームを多重化することで得られた1本のトランスポートストリームファイル(1TS-2VSm2tsファイルと呼ぶ)を採用する。
 ここで左目画像、右目画像の組みを構成するベースビューコンポーネント、ディペンデントビューコンポーネントは、エレメンタリストリーム生成→トランスポートストリーム生成→トランスポートストリームを構成するTS(トランスポートストリーム)パケットのソースパケット化という過程を経て生成される。 図21は、MVC1080@24p/50i/60iベースビュービデオストリームと、MVC1080@24p/50i/60iディペンデントビュービデオストリームとから1つのトランスポートストリームを得る過程を示す。本図における第1段目は、MVC1080@24p/50i/60iベースビュービデオを構成するフレーム列、第2段目は、MVC1080@24p/50i/60iベースビュービデオをPESパケット化することで得られるPESパケット列、第3段目は、MVC1080@24p/50i/60iベースビュービデオをソースパケット化することで得られるソースパケット列である。
 本図における第7段目は、MVC1080@24p/50i/60iディペンデントビュービデオを構成するフレーム列、第6段目は、MVC1080@24p/50i/60iディペンデントビュービデオをPESパケット化することで得られるPESパケット列、第5段目は、MVC1080@24p/50i/60iディペンデントビュービデオをソースパケット化することで得られるソースパケット列である。そして第4段目は、MVC1080@24p/50i/60iベースビュービデオを構成するソースパケット、及び、MVC1080@24p/50i/60iディペンデントビュービデオを構成するソースパケットをアライバルタイムスタンプの順に配置することで形成されるトランスポートストリームを示す。
 この第4段目に示すように、MVC1080@24p/50i/60iベースビュービデオストリームとMVC1080@24p/50i/60iディペンデントビュービデオストリームとを多重化する際には、まず、MVC1080@24p/50i/60iベースビュービデオストリームの先頭GOP(Closed-GOP1)の先頭パケット(B11)が配置される。パケット(B11)配置位置以降であって、Closed-GOP1の終端パケット(B16)の前方に、Closed-GOP1に対応するMVC1080@24p/50i/60iディペンデントビュービデオストリームのGOP(Open-GOP1)の各パケット(D11、D12、D13)が配置される。Closed-GOP1の終端パケット(B16)に続いて、MVC1080@24p/50i/60iベースビュービデオストリームの次のGOP(Closed-GOP2)の先頭パケット(B21)が配置され、先ほどと同様に、Closed-GOP2の終端パケット(B26)の前方に、Closed-GOP2に対応するMVC1080@24p/50i/60iディペンデントビュービデオストリームのGOP(Open-GOP2)の各パケット(D21、D22、D23)が配置される。このようにMVC1080@24p/50i/60iベースビュービデオストリーム及びMVC1080@24p/50i/60iディペンデントビュービデオストリームを多重化することにより、MVC1080@24p/50i/60iベースビュービデオストリームのGOP境界で切断する際にMVC1080@24p/50i/60iディペンデントビュービデオストリームのGOPが切断されないことを保障する1TSが生成される。
 MVC1080@24p/50i/60iベースビュービデオストリームにおけるClosed-GOP及びMVC1080@24p/50i/60iディペンデントビュービデオストリームにおけるOpen-GOPは、複数のパケットに分割された状態で多重化される。そしてMVC1080@24p/50i/60iベースビュービデオストリームにおけるClosed-GOPを分割することで得られた複数のパケットのうち、先頭のものの記録位置は、MVC1080@24p/50i/60iディペンデントビュービデオストリームにおけるOpen-GOPを分割することで得られた複数のパケットの先頭のものの記録位置よりも、デジタルストリーム上で先行することになる。符号化順序においてClosed-GOP又はOpen-GOPの最後に位置するビューコンポーネントをソースパケットに格納する場合、そのソースパケットのペイロードに余白が生じることがある。この場合、そのソースパケットの余白に対してパディングを行う。このパディングは、あるGOPの最後に位置するビデオアクセスユニットの終端部分と、次のClosed-GOPの最後に位置するビデオアクセスユニットのアクセスユニットデリミターとが同じソースパケットに格納されないようにするための配慮である。こうすることで、ビデオアクセスユニットを構成するNALユニットのうち、Closed-GOPの先頭にあたるビューコンポーネントのアクセスユニットデリミターを格納したものは、必ずソースパケットの境界でバウンドされることになり、Closed-GOP及びOpen-GOPの組みをまとめて削除することが容易になる。
 図22(a)は、PESパケット列に、ビデオストリームがどのように格納されるかを更に詳しく示している。本図における第1段目はビデオストリームのビデオフレーム列を示す。第2段目は、PESパケット列を示す。本図の矢印yy1,yy2, yy3, yy4に示すように、ビデオストリームにおける複数のVideo  Presentation  UnitであるIntraタイプのMVC1080@24p/60i/50iビデオストリームを構成するビューコンポーネント、B(Bi-predictive)タイプのビューコンポーネント、P(Predictive)タイプのビューコンポーネントは、ビューコンポーネント毎に分割され、PESパケットのペイロードに格納される。各PESパケットはPESヘッダを持ち、PESヘッダには、ピクチャの表示時刻であるPTS(Presentation Time-Stamp)やピクチャの復号時刻であるDTS(Decoding Time-Stamp)が格納される。
 AVC1080@60P/50Pビデオストリームの場合は、MVC1080@24p/60i/50iビデオストリームのビューコンポーネントに代えてピクチャが上述の通り格納される。
 図22(b)は、デジタルストリームを格納したストリームファイルに最終的に書き込まれるTSパケットの形式を示している。TSパケットは、ストリームを識別するPIDなどの情報を持つ4ByteのTSヘッダとデータを格納する184ByteのTSペイロードから構成される188Byte固定長のパケットであり、PESパケットは分割されTSペイロードに格納される。Blu-ray ReadOnlyディスクの場合、TSパケットには、4ByteのTP_Extra_Headerが付与され、192Byteのソースパケットを構成し、ストリームファイルに書き込まれる。TP_Extra_HeaderにはATS(Arrival_Time_Stamp)などの情報が記載される。ATSは当該TSパケットの後述するシステムターゲットデコーダのPIDフィルタへの転送開始時刻を示す。ストリームファイルの内部には図22(b)の下段に示すようにソースパケットが並ぶこととなり、ストリームファイルの先頭からインクリメントする番号はSPN(ソースパケットナンバー)と呼ばれる。
 また、ストリームファイルに含まれるTSパケットには、映像・音声・字幕などの各ストリーム以外にもPAT(Program  Association Table)、PMT(Program  Map Table)、PCR(Program  Clock Reference)などがある。PATはデジタルストリームを格納したストリームファイル中に利用されるPMTのPIDが何であるかを示し、PAT自身のPID配列で登録される。PMTは、デジタルストリームを格納したストリームファイル中に含まれる映像・音声・字幕などの各ストリームのPIDと各PIDに対応するストリームの属性情報を持ち、またデジタルストリームを格納したストリームファイルに関する各種ディスクリプタを持つ。ディスクリプタにはデジタルストリームを格納したストリームファイルのコピーを許可・不許可を指示するコピーコントロール情報などがある。PCRは、ATSの時間軸であるATC(Arrival  Time  Clock)とPTS・DTSの時間軸であるSTC(System Time Clock)の同期を取るために、そのPCRパケットがデコーダに転送されるATSに対応するSTC時間の情報を持つ。デジタルストリームを格納したストリームファイルのトランスポートストリームの先頭には、PATパケット、PMTパケットが格納される。
 図22(c)はPMTのデータ構造を詳しく示す。引出線cu1は、ストリーム情報の内部構成をクローズアップしている。MVC1080@24p/60i/50iビデオストリーム及びAVC1080@60P/50Pビデオストリームの符号化方式や解像度、フレームレートがこのストリーム情報内のストリームディスクリプタに記載される。以上が1TS-2VSm2tsファイル生成過程についての説明である。
 図23は、クリップ情報ファイルの内部構成を示す。同図(a)は、2Dのクリップ情報ファイル、同図(b)は、3D用のクリップ情報ファイルを示す。これらのクリップ情報ファイルは、『クリップ情報』、『シーケンス情報』、『プログラム情報』、『特徴点情報』を含む。
 以上が2D用のクリップ情報ファイルについての説明である。続いて、3D用のクリップ情報ファイルの詳細について説明する。3D用のクリップ情報ファイルは、図20(b)の内部構成になっていて、通常のクリップ情報ファイルと同一要素である「クリップ情報」「シーケンス情報」「プログラム情報」「特徴点情報」を具備すると共に、0X0004のID値1の後に、プログラム情報SS、エクステントスタートポイント情報テーブル、特徴点情報SSを並べている。
 図23(c)は、クリップ情報の内部構成を示す図である。クリップ情報には、2D用のクリップ情報の他、ファイルベースと組みになってクリップストリームファイルを構成するためのクリップベース情報と、ファイルディペンデントと組みになってクリップストリームファイルを構成するためのクリップディペンデント情報とがある。本図に示すようにクリップ情報は、対応するクリップストリームファイルがどのようなストリームの類型に属するかを示す『クリップストリームタイプ情報』と、対応するクリップストリームファイルに格納されるトランスポートストリームが、ムービーアプリケーション、タイムベーススライドショーアプリケーション、ブラウザブルスライドショーアプリケーション等、どのような類型に属するかを示す『アプリケーションタイプ』と、再生装置において、ソースパケットがソースパケットデパケッタイザを通過した後、クリップストリームファイルにおけるTSパケットがどれだけの転送レートで転送されるかを示す『TSレコーディングレート』と、対応するクリップストリームファイルを構成するソースパケット数を示す『ソースパケット数』と、『ATC差分値』と、『エクステントスタートポイント情報』とから構成される。
 上記のクリップ情報のアプリケーションタイプは、メインパス、サブパスによって参照されるメインTS、サブTSがどのようなトランスポートストリームの類型に属するかを示す。アプリケーションタイプは、1~3がムービー、タイムベーススライドショー、ブラウザブルスライドショーのトランスポートストリームであること、4~6がブラウザブルスライドショーのメインパスを構成するトランスポートストリームであること、ブラウザブルスライドショーのサブパスを構成するトランスポートストリームであること、インタラクティブグラフィクスのサブパスを構成するトランスポートストリームであることを示す。アプリケーションタイプ=7は、MVC1080@24p/60i/50iディペンデントビュービデオストリームを含み、仮想パッケージ構築のための追加コンテンツ格納領域から供給されるサブTSであることを示す。アプリケーションタイプ=8は、メインTSと共に立体視インターリーブドストリームファイルに格納され、MVC1080@24p/60i/50iディペンデントビュービデオストリームを含むサブTSを示す。
 アプリケーションタイプ=10は、AVC1080@60P/50PビデオストリームムービーについてのメインTSを示す。
 アプリケーションタイプ=1が適用される全てアプリケーションタイプは、一部の制限を除き、アプリケーションタイプ=10を適用せねばならない。クリップ情報のフォーマットIDについては、0x48、44、50、52を設定せねばならない。AVC1080@60P/50Pビデオストリームのストリーム符号化情報を含む場合、50HzのAVC1080@50Pビデオストリームケーパビリティをチェックするため、ナビゲーションコマンドやBD-Jアプリケーションは、PSR24のb1と、PSR29のb4とをチェックせねばならない。
 <エクステントスタートポイント>
 次に、エクステントスタートポイントについて説明する。上述したように立体視インターリーブドストリームファイルは、メインTS、サブTSから構成される。エクステントスタートポイント情報のペアは、立体視インターリーブドストリームファイルを2つのAVストリームに分割する途を与える。エクステントスタートポイントは、サブパスタイプ=8のサブパスを含むプレイリストのサブプレイアイテムによって参照されるクリップ情報に格納されて再生装置に供給される。
 同図(d)は、エクステントスタートポイントの内部構成を示す。本図に示すようにエクステントスタートポイント情報は、number_of_extent_start_pointsと、number_of_extent_start_points個のSPN_start_pointから構成される。
 number_of_extent_start_pointsは、関連するAVストリームファイルに帰属するエクステントの個数を示す。ファイルベースのエクステントを取り出すためのエクステントスタートポイント情報と、ファイルディペンデントのエクステントを取り出すためのエクステントスタートポイント情報とのペアは、number_of_extent_start_pointsが同じ値になる。
 SPN_extent_start(SPN_extent_start[0]~SPN_extent_start[number_of_extent_start_point])は、number_of_extent_start_point+1個のSPN_extent_startから構成される。SPN_extent_startは、エクステント識別子[extent_id]によって指示され、AVストリームファイルにおけるextent_id番目のエクステントが開始するソースパケットのソースパケット番号を示す32ビットの値である。
 図23(e)は、ストリーム属性情報にて示されるフレームレート、及び、解像度の種別を示す。本図に示すようにフレームレートには、24Hz,24Hz(23.976Hz)、25Hz、30Hz、50Hz、60Hzがある。これらのフレームレートは、4ビットのコードを用いて識別される。解像度としては、1920×1080、1280×720、960×540、720×576、720×480が存在する。720×480、720×576、1920×1080には、プログレッシブの表示方式、インターリーブの表示方式のそれぞれが存在する。
 図24は、MVC1080@24p/50i/60iベースビュービデオストリーム及びMVC1080@24p/50i/60iディペンデントビュービデオストリームを多重化することで得られたトランスポートストリームと、EP_mapと、エクステントとの対応関係を示す。第1段目はフレーム画像であり、第2段目は、第4段目のソースパケット列と、フレーム画像の時間軸との対応をとるためのEP_mapを示す。第3段目のソースパケット列は、図21の第4段目におけるTS内のソースパケット列と同じである。
 第4段目は、第3段目のソースパケット列を分割して記録するためのエクステントを示す。第5段目は、このエクステント内部に存在するOpen-GOP、Closed-GOPを示す。
 第2段目においてEP_mapにおけるエントリアドレスは、MVC1080@24p/50i/60iベースビュービデオストリームにおけるClosed-GOPを分割することで得られた複数のパケットのうち、先頭のもののパケット番号(図中のa11,a21,a31)を用いて表現される。
 時間軸における複数のエントリ時刻(t11,t21,t31)は、MVC1080@24p/50i/60iベースビュービデオストリームにおけるClosed-GOPの先頭を示すエントリアドレスが対応付けられているので、そのエントリアドレスに従い、記録媒体からパケットを読み出していけば、余分なデータを送り込むことなく、確実にMVC1080@24p/50i/60iベースビュービデオストリームにおけるClosed-GOPをビデオデコーダに送り込むことができる。よって、デジタルストリームに対するランダムアクセスにおいては、ユーザの思いのままのエントリ時刻からの部分削除を即座に実現することができる。
 第5段目において注意すべきはMVC1080@24p/50i/60iディペンデントビュービデオストリームにおけるOpen-GOPを分割することで得られた複数のパケットは何れも、MVC1080@24p/50i/60iベースビュービデオストリームにおけるClosed-GOPのエントリアドレスの直後のエントリアドレスより前に存在する点である。EP_mapにおけるエントリアドレス(i)にて指示されているパケット(m)から、エントリアドレス(i+1)にて指示されているパケット(n)の直前のパケット(n-1)までを読み出すことで、ビデオデコーダには必ず、完結したMVC1080@24p/50i/60iベースビュービデオストリームにおけるClosed-GOP及びMVC1080@24p/50i/60iディペンデントビュービデオストリームにおけるOpen-GOPのペアが送り込まれることが保証される。
 EP_mapを参照してランダムアクセスを行う場合に、立体視を実現する、完結したMVC1080@24p/50i/60iベースビュービデオストリームにおけるClosed-GOP及びMVC1080@24p/50i/60iディペンデントビュービデオストリームにおけるOpen-GOPのペアが、ビデオデコーダに送り込まれることが保証されるので、ビデオデコーダは、ユーザのスキップに即応した高速動作を実現することができ、またGOP単位の部分削除を迅速に行うことができる。以上で、クリップ情報についての説明を終える。
 続いてプレイリスト情報ファイルについて説明する。プレイリスト情報ファイルは、図25のような内部構成を有する。図25は、プレイリスト情報ファイルの内部構成を示すプレイリスト情報は、「メインパス情報」、「サブパス情報」、「プレイリストマーク情報」、「エクステンションデータ」を含む。以下、これらの構成要素について説明する。図25(b)は、メインパス情報、及び、サブパス情報の内部構成を示す図であり、本図に示すように、メインパス情報は、1つ以上の主たる再生区間情報から構成される。サブパス情報は、1つ以上の従たる再生区間情報から構成される。図25(c)は、プレイアイテム情報の内部構成を示す。本図に示すように、「ストリーム参照情報」、「インタイムアウトタイム情報」、「接続状態情報」、「基本ストリーム選択テーブル」を含む。
 ストリーム参照情報は、プレイアイテムを構成するトランスポートストリームと組みになってクリップストリームファイルを構成しているクリップ情報ファイルを示す「クリップ情報ファイルネーム情報(clip_information_file_name)」、そのTSにおける符号化方式を示す「クリップ符号化方式識別子(Clip_codec_indentifier)」、当該TSのSTCシーケンスにおいて、インタイム及びアウトタイムが設定されているSTCシーケンスがどれであるかを示す「STC識別子レファレンス(STC_ID_referrenss)」を含む。以上がプレイアイテム情報についての説明である。
 「接続状態情報」は、前方プレイアイテムとのコネクションコンディションのタイプを示している。プレイアイテムのコネクションコンディションが「1」の場合は、プレイアイテムが指し示すデジタルストリームは、そのプレイアイテムの前のプレイアイテムが指し示すデジタルストリームとのシームレス接続が保証されないことを示す。プレイアイテムのコネクションコンディションが「5」か「6」の場合は、プレイアイテムが指し示すデジタルストリームは、そのプレイアイテムの前のプレイアイテムが指し示すデジタルストリームとのシームレス接続を保証する。コネクションコンディションが「5」とは、クリーンブレークを伴うシームレス接続である。コネクションコンディションが「6」とは、「ATS、PTSに連続性が存在するシームレス接続」である。
 図25(d)は、サブプレイアイテムの内部構成を示す。本図に示すように、サブプレイアイテム情報は、STCシーケンスの時間軸にインタイムと、アウトタイムとの組みを規定することで、サブパスを構成する再生区間を定義する情報であり、「ストリーム参照情報」、「インタイムアウトタイム情報」、「シンクロプレイアイテムレファレンス」、「シンクロ開始時刻情報」を含む。 『ストリーム参照情報』は、プレイアイテム情報と同様、『クリップ情報ファイルネーム情報』『クリップ符号化方式識別子』、『STC識別子レファレンス』を含む。
 『インタイムアウトタイム情報(SubPlayItem_In_Time,SubPlayItem_Out_Time)』は、STCシーケンス時間軸における、サブプレイアイテムの始点と、STCシーケンス時間軸上における、サブプレイアイテムの終点とを示す。
 「シンクロプレイアイテムレファレンス(Sync_PlayItem_Id)」は、プレイアイテムのうち、本サブプレイアイテムが同期すべきものを一意に指定する情報である。サブプレイアイテムインタイムは、この同期プレイアイテム参照子で指定されたプレイアイテムの再生時間軸上に存在する。
 「シンクロ開始時刻情報(Sync_Start_PTS_of_PlayItem)」は、同期プレイアイテム参照子で指定されたプレイアイテムのSTCシーケンスの時間軸のうち、サブプレイアイテムインタイムで指定されたサブプレイアイテムの始点が、どの時点に写像されるかを示す。以上がプレイリスト情報のデータ構造についての説明である。
 図26は、MVC1080@24p/50i/60iベースビュービデオストリーム及びMVC1080@24p/50i/60iディペンデントビュービデオストリームを多重化することで得られたソースパケット列と、EP_mapと、エクステントと、プレイリストとの対応関係を示す。本図の第2段目から第5段目までは、図24の第1段目から第4段目におけるフレーム画像、EP_map、ソースパケット列、エクステントと同じである。第1段目のプレイリスト情報は、この第4段目のソースパケット列から形成されたトランスポートストリームに対して再生経路を規定する。第1段目は、3つのプレイアイテム情報#1からなるプレイリスト情報を示す。この第1段目において、プレイリスト情報を格納したプレイリスト情報ファイル(MPLSファイル)のバージョン番号は「バージョン2.4」に設定される。またプレイアイテム情報#1のストリーム選択テーブルには、0X1011という値のPIDが存在している。このPIDは、親画面ビデオストリームのPIDであり、これらのPIDがストリーム選択テーブルに記載されることで、MVC1080@24p/50i/60iビデオストリームの再生が許可されることになる。またIn_Time及びOut_Timeは、第2段目におけるフレーム画像列の再生開始時刻であるt11、再生終了時刻であるt39を示す。
 以上のプレイアイテム情報の設定により、ストリーム選択テーブルにPIDが記載され、再生が許可されたMVC1080@24p/50i/60iベースビュービデオストリーム、MVC1080@24p/50i/60iディペンデントビュービデオストリームは、In_TimeからOut_Timeまで再生されることになる。
 図27は、AVC1080@60P/50Pビデオストリームの再生を許可したエントリーを含むプレイリストを作成するにあたってのパラメータ設定を示す。第1段目は、3つのプレイアイテム情報#1,#2,#3からなるプレイリスト情報を示し、第2段目は、AVC1080@60iのビデオストリーム、AVC1080@60iのビデオストリーム、AVC1080@60Pのビデオストリームを示す。第3段目は、第2段目のビデオストリームを含むストリームファイルと組みになってAVクリップストリームファイルを構成する3つのクリップ情報ファイル00001~00003を示す。第4段目は、ビデオストリームを含むストリームファイルを構成するソースパケット列を示す。
 図27の第1段目において、プレイリスト情報を格納したプレイリスト情報ファイル(MPLSファイル)のバージョン番号は、「60Pプレイリスト」を識別する特定のバージョン番号である「2.4」に設定される。またプレイアイテム情報#1~#3のストリーム選択テーブルには、0X1011という値のPIDが存在していて、プレイアイテム情報#3においては、このPIDを含むストリームエントリーが、プログレッシブビデオを示すストリーム属性と組みになっている。これらのPIDは、親画面ビデオストリームのPIDであり、これらのPIDがストリーム選択テーブルに記載されることで、全てのプレイアイテムを通じて親画面ビデオストリームの再生が許可されることになる。以上のプレイアイテム情報の設定により、ストリーム選択テーブルにPIDが記載され、再生が許可されたAVC1080@60iビデオストリーム、AVC1080@60Pビデオストリームは、In_TimeからOut_Timeまで再生されることになる。
 第2段目において1つ目のAVC1080@60iビデオストリームの先頭GOPの最初のピクチャのPTSがt101、最後のGOPの先頭PTSがt189、このビデオストリームを含むストリームファイルを構成する先頭GOPの先頭ソースパケット番号がa101、最後のGOPの先頭ソースパケット番号がa189であれば、t101:a101の対応付け、t189:a189の対応付けがエントリーマップに示されることになる。またプレイアイテム情報においては、第3段目のIn_Timeがt101、Out_Timeがt199、clip_information_file_nameがクリップ情報ファイル00001.CLPIに設定される。
 2つ目のAVC1080@60iビデオストリームの先頭GOPの最初のピクチャのPTSがt201、最後のGOPの先頭PTSがt289、このビデオストリームを含むストリームファイルを構成する先頭GOPの先頭ソースパケット番号がa201、最後のGOPの先頭ソースパケット番号がa289であれば、t201:a201の対応付け、t289:a289の対応付けがエントリーマップに示されることになる。またプレイアイテム情報においては、In_Timeがt201、Out_Timeがt299、clip_information_file_nameがクリップ情報ファイル00002.CLPIに設定される。
 3つ目のAVC1080@60Pビデオストリームの先頭GOPの最初のピクチャのPTSがt301、最後のGOPの先頭PTSがt389、このビデオストリームを含むストリームファイルを構成する先頭GOPの先頭ソースパケット番号がa301、最後のGOPの先頭ソースパケット番号がa389であれば、t301:a301の対応付け、t389:a389の対応付けがエントリーマップに示されることになる。またプレイアイテム情報においては、In_Timeがt301、Out_Timeがt399、clip_information_file_nameがクリップ情報ファイル00003.CLPIに設定される。
 以上のように、3つ目のビデオストリームのみがAVC1080@60Pビデオストリームであるので、プレイリスト情報を格納したプレイリスト情報ファイル(MPLSファイル)のバージョン番号は、バージョン2.4を示す値「0x0240」に設定される。
 以上がBDMVRecording Specificationについての説明である。BDMVRecording Specification+RREFで扱うBDMVデータベースの制限としては、全てケースでのBDMVRecording Specificationでのリージョン再生制御が禁止される。BDMVRecording Specificationでは、新たなプロファイルが追加される。これはBD-R/BD-REプロファイル5であり、BD-ROMに定義される。既存のプロファイルであるプロファイル1,3,4に追加される。 以上が、BD-REバージョン3.1フォーマットでのBlu-ray ReadOnlyディスクフォーマットに対する制限である。
 続いて、RREFによって加えられた、このBlu-ray ReadOnlyディスクに対する制限の詳細について説明する。
 RREFはBDMVRecording Specificationのサブセットであり、レコーダやカメラといったマニファクチャプロダクトに実装されるリアルタイムレコーディングやエディテイングアプリケーションを意図している。RREFは、追加、編集、削除の管理にあたって、データベースのメンテナンスが容易なフレームワークを提供する。RREFは、BDデータモデルを制限している、RREFは、タイトル、ムービーオブジェクト、プレイリストの関係を制限する。ファーストプレイタイトルやトップメニュータイトルを除くタイトルは、1つのムービーオブジェクトのみを参照し、ムービーオブジェクトは1つのプレイリストのみを再生する。1つのタイトルから参照されたムービーオブジェクトは、他のタイトルから参照されない。ファーストプレイタイトルやトップメニュータイトルは、1つ以上のムービーオブジェクトをもってよく、これらのムービーオブジェクトは、1つ以上のプレイリストを再生することができ、そのタイトルにて参照されるムービーオブジェクトは、ファーストプレイタイトルやトップメニュータイトルから参照されてはならない。
 RREF特有のプレイリストとして、以下のメインプレイリスト、オルテネィティブプレイリスト、メニュープレイリストがある。
 メインプレイリストは、ユーザによってディスクに記録されたクリップストリームファイルの再生を行わせる。メインプレイリストのプレイアイテムは、他のメインプレイリストやメニュープレイリストにより参照されているクリップストリームファイルの何れをも参照していない。メインプレイリストは、1つ以上のクリップストリームファイルを参照する。2以上のプレイリストは、同じクリップストリームファイルを参照しない。
 オルテネィティブプレイリストは、RREFにおけるクリップストリームファイルの再利用を実現する。具体的にいうと、オルテネィティブプレイリストのプレイリスト情報は、プレイアイテム情報-クリップストリームファイルという階層構造を有しており、クリップストリームファイルと、プレイアイテム情報との比率については、1対多の関係にして、1つのクリップストリームファイルを複数のプレイアイテム情報から多重参照する。
 メニュープレイリストは、メニュー表示のためのIGストリームと、そのメニューの背景画となる映像を描画するビデオストリームとの再生を許可した再生経路を規定するプレイリストである。ファーストプレイタイトル、トップメニュータイトルで使用される。メニュープレイリストで参照されているクリップストリームフイルは、メニュープレイリストで参照することが禁じられる。メニュープレイリストは、dedicateされたクリップストリームファイルを参照する。このクリップストリームファイルは、ディスクのアクチュアル再生コンテンツではなく、システムによってのみ再生可能なメニュー表示に用途が制限される。ユーザにより定義されたメニューは、メニュープレイリストによる再生の対象にはならない。
 RREFは、プレイリストとクリップストリームファイルとの関係を以下のように制限する。インタラクティブデータベースレイヤでは、BD-Jオブジェクト、タイトルシーンサーチ、メタデータ、ブラウザブルスライドショー、クリックサウンド、インタラクティブグラフィクス付きタイトル(ファーストプレイタイトル、トップメニューを除く)、ランダムシャッフルのプレイアイテム再生がない。
 ストリームレイヤでは、セカンダリビデオストリーム、セカンダリオーディオストリームがない。2TS入力がなく、プリロードIGを実現する場合を除きOut-of-MUXがない。オーディオは、ドルビーデジタルコーデックと、ダウンミックスなしのLPCMが合計8本まで許容される。ファーストプレイタイトル、トップメニューは認められる。グラフィクスストリームは、IGストリームが2本まで、PGストリームが8本まで許容されテキスト字幕ストリームは認められない。マルチアングル再生のサポートもない。
 BD-Jオブジェクトの使用が認められないことからBDJOディレクトリ、JARディレクトリは空となる。
 STN_table_SSでは、ポップアップ表示期間中の固定オフセット、描画領域オフセットの有効性フラグ、立体視プレゼンテーショングラフィクス存否フラグ、上端配置字幕ストリームが存在するか否かを示す上端配置存否フラグ、下端配置字幕ストリームが存在するか否かを示す下端配置存否フラグ、立体視インタラクティブグラフィクス存否フラグが何れも0(オフ)に設定される。
 RREFについての制限は以下の通りである。エクステンションデータでは、サブパスエントリーエクステンションや、上端下端のオフセットをどれだけ設けるかというプレーン内有効化情報の記録が禁止される。TSパケットレコーディングレートは3.5Mbps未満となる。ATCデルタとしては、(188/TSパケットレコーディングレート)という計算から算出された値が設定される。RREF用のトランスポートストリームに格納されるエレメンタリストリームとしては、プライマリオーディオストリーム、プライマリビデオストリーム、グラフィクスストリーム、MVC1080@24p/60i/50iベースビュービデオストリーム、MVC1080@24p/60i/50iディペンデントビュービデオストリームが許容されるのみである。PIDアサインとしては、プライマリビデオストリーム、MVC1080@24p/60i/50iベースビュービデオストリームには0x1011のPID、MVC1080@24p/60i/50iディペンデントビュービデオストリームには0x1012のPIDがそれぞれ割り当てられる。
 以上のように本実施形態によれば、BDMVデータベースにおけるフィールドのレベルまでビットアサインを規定することにより対象となる処理やデータの種別の数を適性なものにしておくことができる。こうすることで、メモリに常駐しておく際の占有量を最低限にしておくことができるから、装置の低コスト化や消費電力の低減に寄与することができる。
 (第8実施形態) 
 本実施形態は、記録装置を実施する局面、再生装置を実施する局面から技術的障壁の克服を図る実施形態である。
 続いて、Blu-ray Rewritableディスクバージョン3.1フォーマットに対応するBD-REプレーヤーでの課題解決手段の実現について説明する。
 本実施形態で開示する装置の内部構成には、これまでの第1実施形態から、後述する第10実施形態までに述べた実施化障壁の克服手段の何れかのもの、又は、これまでの第1実施形態から、後述する第10実施形態で述べる実施化障壁の克服手段のうち2以上のものの組合せを取り入れることができる。これまでの実施形態で述べた実施化障壁の克服手段の何れか1つを取り入れた内部構成、及びこれまでの実施形態で述べた実施化障壁の克服手段のうち2以上のものの組合せを取り入れた内部構成を別々に記載すると、出願明細書に膨大な紙面を費やすることになるので望ましくない。よって、その代表として、これまでの実施形態で述べた実施化障壁の克服手段の全てを組込んだ内部構成を開示することにする
 図28は、記録装置、再生装置の内部構成を示す。同図(a)は、記録装置1001の内部構成を示すものである。
 同図(a)に示すように記録装置は、光ディスク、リムーバブルメディア、ビルドインメディアの読み書きを行い、光ディスクに対するイジェクト/ローディングを実行するドライブ2001と、光ディスク、リムーバブルメディア、ビルドインメディアに装填されたBDMVデータベースのうち、プログラムファイル、プレイリストファイル、クリップストリームファイルといった構成要素を、カレントタイトルの設定に応じて読み出して、クリップストリームファイルのデコードを行い、非圧縮ピクチャ、音声を他の機器に出力する再生部2002と、放送波や外部入力の音声、映像に対してエンコード処理を行い、プログラムファイル-プレイリストファイル-クリップストリームファイルというデータ要素の組みを生成してこれらをインデックスと組合せて、BDMVデータベースとしてドライブに装填された記録媒体に書き込む記録部2003と、再生部に対してプレイリスト情報により参照されたクリップストリームファイルの一部を再生させて、その再生動画像を組込んだ編集用のGUIを生成しこのGUIに対するユーザ操作に従い、記録媒体に対する編集操作を実行する編集部2004とを含む。 ここでドライブ2001は、読出部2005、書込部2006を含む。読出部2005は、再生部2002からの要求を元に光ディスクからデータを読み出し、また書込部2006は、記録部2003、編集部2004からの指示により光ディスクにデータを書き込む。再生部2002は、ドライブ2001によってディスクから読み出されたデータを受け取り、テレビ放送表示装置へ映像信号を出力し、及び、スピーカへ音声信号を出力する処理を行う。
 編集部2004は、ドライブ2001によってディスクから読み出されたBDMVデータベースの加工、及び、編集を実施し、編集された内容をドライブ2001に書き込む指示を行う。また、記録部2003は、放送波などから受信したAV情報を記憶し、ユーザの指示に従って加工、編集を実施し、ドライブ2001を介してディスクへの書き込みを指示する。同図(b)は、再生装置の内部構成を示す。バージョン3.1以降のBlu-ray Rewritableフォーマットに対応した再生装置は、プロファイル5プレーヤと呼ばれる。プレーヤプロファイルレジスタを参照することでプロファイル5プレーヤーかどうかの判定は可能になる。
 本図に示すようにプロファイル5プレーヤであるプロファイル5再生装置は、ドライブ2001、再生部2002、編集部2004によって構成される。編集部2004は必要に応じて追加されるものであり、編集部2004がない再生装置を構成することもできる。この場合、携帯型Blu-ray ReadOnlyディスクプレーヤ等、記録機能、編集機能をもたない純粋な再生装置として実施することができる。しかし本願では、ドライブ2001、再生部2002、編集部2004によって構成されるものを再生装置とする。
 また記録装置といった場合、ドライブ2001、再生部2002、記録部2003、編集部2004といった構成要素により、記録、再生、編集を網羅できる記録装置のことをいう。
 これは、BDレコーダやBDカムコーダといった機器は、記録だけではなく、記録・再生・編集といった機能をもった機器であると取引者に認識されており、純粋に記録機能しかもっていない機器が、レコーダ機器として取り引きされることは考えられないからである。
 次に、再生装置の内部構成について説明する。
 再生装置は、BDMVデータベースが記録された記録済み記録媒体が装填された際、そのBDMVデータベースのインデックスファイルに存在するSS_content_exist_flagに従い、編集モードの初期設定を行った上で、装置内のカレントタイトル設定に応じたストリーム再生を実行する。具体的にいうと、インデックスファイルに記載された複数タイトルのうち、カレントタイトルの動作モードを規定するものとして、カレントタイトルに対応付けられた動作モードオブジェクトプログラムを起動して動作を開始させるとともに、この動作モードオブジェクトプログラムからの指示に従い、プレイリスト情報を通じたクリップストリームファイルの再生を行う。記録媒体ローディング時のインデックスファイルの読み取りにおいては、SS_content_exist_flag、editability_flag、extended_editability_flagに従った媒体編集の可否設定を行い、ローディングされた記録媒体をエディタブルメディアと扱う場合、Blu-ray ReadOnly Recording + Realtime Recording Editing Format(RREF)の規定にしたがい、ローディングされた記録媒体の編集を実行する。
 図29は、再生部2002の内部構成を示している。本図における再生部2002は、ランダムアクセス制御部101、第1リードバッファ102a、第2リードバッファ102b、ATS復元部103、システムターゲットデコーダ104、プレーンメモリセット105a、プレーン合成部105b、機器間インターフェイス106、再生制御部107、管理情報メモリ108、ユーザイベント処理部109、レジスタセット110、プログラム実行部111、プログラムメモリ112、メモリ115、プログラム管理部116から構成されている。
 ランダムアクセス制御部101は、MVC1080@24p/60i/50iビデオストリーム、AVC1080@60P/50Pビデオストリームの時間軸における任意の時点からのランダムアクセスを実行する。具体的には、ビデオストリームの時間軸における任意の時点からの再生が命じられた場合、値が0x0002又は0x0004のID1が付与されたエクステンションデータの中からEP_map、EP_map_SSを取り出し、これらを用いて、その任意の時点に対応するアクセスユニットのソースパケット番号をサーチする。かかるアクセスユニットは、独立復号可能なピクチャデータ、又は、ビューコンポーネントの組みを含むものである。上記サーチによって、当該アクセスユニットについてのアクセスユニットデリミターを格納したソースパケットのソースパケット番号が特定される。かかるソースパケット番号からの読み出し、及び、デコードを実行する。シーンジャンプにあたって、分岐先を示す時間情報を用いて上記サーチを実行することにより、ランダムアクセスを実行する。ここでEP_mapに記載された先頭ソースパケット番号axからLBNを求めるには、((ax)*192/2048)という計算でソースパケットをLBNに変換する。ここで「192」は、ソースパケットサイズをバイト数で表したものであり、「2048」は、セクタサイズ(論理ブロックサイズ)をバイト数で表したものである。かかる変換により読出先の論理アドレスを導き出すことができる。
 第1リードバッファ102aは、ドライブ2001から読み込まれたメインTSを構成するTSパケットが格納されるバッファである。
 第2リードバッファ102bはドライブ2001から読み込まれたサブTSを構成するTSパケットが格納されるバッファである。
 ATCシーケンス復元部103は、1つの記録媒体から読み出された1TS-2VSm2tsファイル内のソースパケットから、MVC1080@24p/60i/50iベースビュービデオストリームを構成するATCシーケンスと、MVC1080@24p/60i/50iディペンデントビュービデオストリームを構成するATCシーケンスとを分離し、2つのリードバッファのそれぞれに書き込むものである。こうすることで再生装置は、MVC1080@24p/60i/50iベースビュービデオストリームを構成するATCシーケンスと、MVC1080@24p/60i/50iディペンデントビュービデオストリームを構成するATCシーケンスとがそれぞれ別々の記録媒体から読み出されたかのように処理することができる。

 システムターゲットデコーダ104は、第1リードバッファ102aに読み出されたソースパケットと、第2リードバッファ102bに読み出されたソースパケットとに対して多重分離処理を行いストリームのデコード処理を行う。システムターゲットデコーダ104はデコードしたMVC1080@24p/60i/50iベースビュービデオストリームとMVC1080@24p/60i/50iディペンデントビュービデオストリームをデコードして立体視再生を行う。
 プレーンメモリセット105aは、複数のプレーンメモリから構成される。これらのプレーンメモリは、レイヤモデルを構成しており、個々のプレーンメモリの格納内容は、レイヤ合成に供される。非圧縮の一画面分の階調ビット列が、これらプレーンメモリに書き込まれる。この書き込みは、MVC1080@24p/60i/50iビデオストリームにおける個々のアクセスユニットのプレゼンテーションタイムスタンプに示されている再生開始時刻の到来時になされる。映像編集に特化した処理として、プレーンメモリセット105aは、編集用GUIと、ビューコンポーネントの復号画像とをそれぞれ別々のプレーンメモリに格納する。

 プレーン合成部105bは、複数のプレーンメモリにおけるレイヤ合成を行う。プレーンメモリのレイヤ合成は、プレーンメモリのレイヤモデルにおいて、階層間のプレーンメモリに格納されている画素データの画素値を重畳させるという処理を、レイヤモデルにおける階層間の全ての組合せに対して実行することでなされる。プレーン合成部105bによるレイヤ合成は、プレーンメモリのレイヤモデルにおいて、2つの階層のプレーンメモリに格納されている画素データの画素値を重畳させるという処理を、レイヤモデルにおける2つの階層の全ての組合せに対して実行することでなされる。
 階層間の重畳は、ある階層に位置するプレーンメモリのライン単位の画素値に透過率αを重みとして乗じるとともに、その下位階層に位置するプレーンメモリのライン単位の画素値に(1-透過率α)という重みを乗じてこれら輝度の重み付けがなされた画素値同士を加算し、加算結果を、その階層におけるライン単位の画素の画素値とする処理である。この階層間の重畳を、レイヤモデルの隣接する2つ階層に位置するライン単位の画素同士で繰り返し実行することにより、上記レイヤ合成は実現される。映像編集に特化した処理として、プレーン合成部105bは、編集用GUIを、MVC1080@24p/60i/50iビデオストリームにおけるビューコンポーネントの復号画像に合成させる。AVC1080@60P/50Pビデオストリームにおけるピクチャについても同様である。
 機器間インターフェイス106は、ホームシアターシステムにおける他の機器とインターフェイスを介して接続された際、ネゴシエーションフェーズを経て、データ伝送フェーズに移行し、データ伝送を行う。このネゴシエーションフェーズは、相手側機器のケーパビリティ(デコード能力、再生能力、表示周波数を含む)を把握して、プレーヤ設定レジスタに設定しておき、以降の伝送のための伝送方式を定めるものであり、相互認証フェーズを含む。ネゴシエーションフェーズを経て、レイヤ合成がなされたピクチャデータにおける一ライン分の非圧縮・平文形式の画素データを、表示装置における水平同期期間に従い表示装置に高い転送レートで転送する。機器間インターフェイス106は、HDMI4.1a3D準拠であり、インターレース3Dのため、非圧縮・平文形式の奇数フィールド、偶数フィールドを出力することができる。また、インターレース立体視画像を、プログレッシブ立体視画像に変換できる変換機能を具備していて、接続相手がプログレッシブ立体視画像専用の表示装置であっても、立体視画像の表示を行わせることができる。
 一方、表示装置における水平帰線期間、及び、垂直帰線期間において、再生装置と接続された他の装置(表示装置のみならずアンプ、スピーカを含む)に、非圧縮・平文形式のオーディオデータを転送する。こうすることで、表示装置、アンプ、スピーカといった機器は、非圧縮・平文形式のピクチャデータ、非圧縮・平文形式のオーディオデータを受け取ることができ、再生出力を実現することができる。また、相手側機器にデコード能力が存在する場合、ビデオストリーム、オーディオストリームのパススルー伝送が可能になる。パススルー伝送では、ビデオストリーム、オーディオストリームを圧縮・暗号化形式のまま伝送することができる。
 再生制御部107は、ドライブ100とシステムターゲットデコーダ104とを制御して、クリップストリームファイルの再生を制御する機能を持つ。再生制御部107は、プログラム実行部111からの再生命令や、ユーザイベント処理部117より通知に基づき、プレイリスト情報を解釈してクリップストリームファイルの再生処理を制御する。かかる制御のため、プレイリスト情報の解釈のための再生制御エンジンやクリップストリームファイルの再生制御のための再生エンジンを具備している。また再生制御部107は、システムパラメータを参照して、再生動作を行う。MVC1080@24p/60i/50iベースビュービデオストリームを含むクリップストリームファイルを再生対象とするプレイリストの再生がプログラム実行部111などから命じられると、プレイリストの中で再生対象となるプレイアイテムのMVC1080@24p/60i/50iベースビュービデオストリームを含むクリップストリームファイルを特定し、MVC1080@24p/60i/50iディペンデントビュービデオストリームを含むクリップストリームファイルを特定する。その後、エクステント単位でMVC1080@24p/60i/50iベースビュービデオストリームのGOPと、MVC1080@24p/60i/50iディペンデントビュービデオストリームのGOPと読み出すようにドライブ2001に要求する。映像編集に特化した処理として、再生制御部107は、対話編集のためのメニュープレイリスト再生を開始し、GUIに合成させるべきビューコンポーネントの復号をビデオデコーダに行わせる。
 管理情報メモリ108は、記録媒体に記録されている複数のプレイリスト情報、クリップ情報のうち、再生制御部107の処理対象になっているもの(カレントプレイリスト情報、カレントクリップ情報)を格納する。
 レジスタセット110は、複数のプレーヤ状態レジスタ、複数のプレーヤ設定レジスタ、汎用目的レジスタから構成される。
 プログラム実行部111は、コマンド処理モジュール111a、バイトコード処理モジュール111bによって構成される。コマンド処理モジュール111aは、コマンドインタプリタを具備し、ムービーオブジェクトを構成するナビゲーションコマンドを解読して実行することでHDMVモードの制御を実行する。バイトコード処理モジュール111bは、いわゆるJava仮想マシンのプラットフォーム部であり、ヒープメモリに格納されているBD-Jアプリケーションを構成するバイトコード、システムアプリケーションを構成するバイトコードをネィティブコードに変換して、MPUに実行させる。
 プログラムメモリ112は、プログラム実行部111の実行対象となるプログラムが格納される。
 インデックスメモリ115は、ディスク媒体が本再生装置に装填された際、インデックスファイルが読み込まれるメモリである。
 プログラム管理部116は、再生装置状態やユーザ操作に応じてインデックスファイルに規定されている複数タイトルのうち何れか1つをカレントタイトルとして選択して、プレーヤ状態レジスタの1つである、カレントタイトル番号レジスタに格納する。そして、カレントタイトル番号に対応する動作モードオブジェクトプログラムを選択して、その動作モードオブジェクトプログラムを処理対象にするよう、ナビゲーションコマンド処理モジュール、バイトコード処理モジュールに指示する。
 ユーザイベント処理部117は、リモコンを通じたユーザ操作に応答して、プログラム実行部111や再生制御部107に処理の実行を依頼する。例えば、リモコンでボタンを押した場合は、そのボタンに含まれるコマンドを実行するようプログラム実行部111に依頼する。例えば、リモコンで早送り・巻戻しボタンが押された場合には、再生制御部107に、現在再生しているプレイリストのクリップストリームファイルに対する早送り・巻戻し処理の実行を命令する。
 次に図30を参照しながらシステムターゲットデコーダ104の内部構成について説明する。図30は、システムターゲットデコーダ104の内部構成を示す。本図において、システムターゲットデコーダ104の構成要素には120番台の参照符号を付与することで構成要素の整理を図っている。この120番号の参照符号に示すように、システムターゲットデコーダ104は、第1ソースパケットデパケッタイザ121a、第2ソースパケットデパケッタイザ121b、PIDフィルタ122a、122b、親画面ビデオデコード部123、子画面ビデオデコーダ124、PGデコーダ125、IGデコーダ126、主音声デコーダ127、副音声デコーダ128、イメージプロセッサ129から構成される。
 第1ソースデパケットタイザ121aは、第1リードバッファ102aに蓄えられたソースパケットを解釈し、TSパケットを取り出し、第1PIDフィルタ122aに送出する。
 第2ソースデパケットタイザ121bは、第1リードバッファ102aに蓄えられたソースパケットを解釈し、TSパケットを取り出し、第2PIDフィルタ122bに送出する。この送出にあたって、各ソースパケットのATSに応じてデコーダへの入力時刻を調整する。具体的には、ATCカウンタが生成するATCの値と、ソースパケットのATS値とが同一になった瞬間に、クリップストリームファイルの記録レートにしたがって、そのTSパケットだけをPIDフィルタに転送する。
 第1PIDフィルタ122aは、ソースデパケッタイザから出力されたTSパケットのうち、TSパケットのPIDが、再生に必要とされるPIDに一致するものを、PIDにしたがって、ビデオデコーダ、子画面ビデオデコーダ、IGデコーダ、PGデコーダ、音声デコーダ、副音声デコーダに転送する。例えば、BD-ROMの場合には、TSパケットに含まれるPIDが0x1011である場合は親画面ビデオデコーダに、PIDが0x1B00から0x1B1Fである場合は子画面ビデオデコーダに、PIDが0x1100から0x111Fである場合は主音声デコーダに、PIDが0x1A00から0x1A1Fである場合は副音声デコーダに、PIDが0x1200から0x121Fである場合はPGデコーダに、PIDが0x1400から0x141Fである場合はIGデコーダに転送される。
 第2PIDフィルタ122bは、第2ソースデパケッタイザ121bから出力されたTSパケットのうち、TSパケットのPIDが、再生に必要とされるPIDに一致するものを、PIDにしたがって、ビデオデコーダの第2Transport Bufferに転送する。本実施形態特有の処理として第1、第2PIDフィルタ122bは、表示モードに応じた多重分離を実行する。ここで表示モードが2D出力モードであれば、第1PIDフィルタ122aは、MVC1080@24p/60i/50iベースビュービデオストリームに帰属するTSパケットのみを多重分離してビデオデコーダに出力する。3D出力モードであれば第1PIDフィルタがMVC1080@24p/60i/50iベースビュービデオストリームに帰属するTSパケットの多重分離を行うと共に第2PIDフィルタは、MVC1080@24p/60i/50iディペンデントビュービデオストリームに帰属するTSパケットを多重分離してビデオデコーダに出力する。
 親画面ビデオデコーダ部123は、MPEG4-MVCビデオデコーダであり、3D出力モードに設定された場合、MVC1080@24p/60i/50iベースビュービデオストリーム及びMVC1080@24p/60i/50iディペンデントビュービデオストリームという2系統のストリームを入力して、立体視再生のための画面出力を行う。MPEG4-MVCは、MPEG4-AVCのサブセットであるから、MPEG4-AVC形式のビデオストリームのデコードも当然行うことができる。つまり2D出力モードにおいて親画面ビデオデコーダ部123は、ストリーム選択テーブルにおいて再生が許可されたAVC1080@60P/50Pビデオストリームのデコードを行う。
 子画面ビデオデコーダ124は、親画面ビデオデコーダと同様の構成を持ち、入力される子画面ビデオストリームのデコードを行い、表示時刻(PTS)のタイミングでピクチャを子画面ビデオプレーンに書き出す。
 PGデコーダ125は、ソースデパケッタイザから入力されるTSパケットからプレゼンテーショングラフィックスストリームを抽出してデコードし、非圧縮のグラフィックスデータを表示時刻(PTS)のタイミングでPGプレーンに書き出す。
 IGデコーダ126は、ソースパケッタイザから入力されるTSパケットからインタラクティブグラフィックスストリームを抽出してデコードし、非圧縮のグラフィックスデータを表示時刻(PTS)のタイミングでIGプレーンに書き出す。
 主音声デコーダ127は、緩衝バッファを有し、バッファにデータを蓄えながら、TSヘッダ、PESヘッダなどの情報を取り除いて、音声ストリームのデコード処理を行い、非圧縮のLPCM状態のオーディオデータを得て再生時刻(PTS)のタイミングで音声ミキサーに出力する。クリップストリームファイルに多重化されるオーディオストリームの圧縮符号化形式にはAC3、DTSなどがあるため、ストリームの属性に応じて、圧縮音声の復号化方式を切り替える。
 副音声デコーダ128は、主音声デコーダと同様の構成を持ち、入力される副音声ストリームのデコードを行い、表示時刻のタイミングで非圧縮のLPCMの状態のオーディオデータを音声ミキサーに出力する。クリップストリームファイルに多重化されるオーディオストリームの圧縮符号化形式にはDolbyDigitalPlus、DTS-HD LBRなどがあるため、ストリームの属性に応じて、圧縮音声の復号化方式を切り替える。
 音声ミキサー128aは、主音声デコーダから出力される非圧縮音声データと副音声デコーダから出力される非圧縮音声データとをミキシング(音の重ね合わせ)をしてスピーカなどに出力する。
 イメージプロセッサ129は、イメージデータ(PNG、JPEG、GIFF形式のもの)をデコードして、プログラム実行部から指定される表示時刻にしたがって、イメージプレーンに出力する。かかるイメージデータのデコードにより、映像編集のためのGUIをイメージプレーン内に構成する。
 続いて、親画面ビデオデコーダ部123の内部構成について説明する。本図において親画面ビデオデコーダ部123の構成要素には、130番台の参照符号を付与することで構成要素の整理を図っている。この130番台の参照符号で示すように、親画面ビデオデコーダ123は、TB131、MB132、EB133、TB134、MB135、EB136、圧縮映像デコーダ137、バッファスイッチ138、DPB139、ピクチャスイッチ124から構成される。
 第1TB(Transport Buffer)131は、MVC1080@24p/60i/50iベースビュービデオストリームやAVC1080@60P/50Pビデオストリームの一部分であるNALユニットを含むTSパケットが第1PIDフィルタ122aから出力された際、TSパケットのまま一旦蓄積されるバッファである。
 第1MB(Muliplexed Bufffer)132は、TB131からEB133にMVC1080@24p/60i/50iベースビュービデオストリームやAVC1080@60P/50Pビデオストリームを出力するにあたって、一旦PESパケットを蓄積しておくためのバッファである。TB131からMB132にデータが転送される際に、TSパケットのTSヘッダは取り除かれる。
 第1EB(Elementary Buffer)133は、符号化状態にあるビデオアクセスユニットが格納されるバッファである。MB132からEB133にデータが転送される際にPESヘッダが取り除かれる。
 第2TB(Transport Buffer)134は、MVC1080@24p/60i/50iディペンデントビュービデオストリームを含むTSパケットが第2PIDフィルタ122bから出力された際、TSパケットのまま一旦蓄積されるバッファである。
 第2MB(Muliplexed Bufffer)135は、TB134からEB136にMVC1080@24p/60i/50iディペンデントビュービデオストリームを出力するにあたって、一旦、MVC1080@24p/60i/50iディペンデントビュービデオストリームを構成するPESパケットを蓄積しておくためのバッファである。TB134からMB136にデータが転送される際に、TSパケットのTSヘッダは取り除かれる。
 第2EB(Elementary Buffer)136は、符号化状態にあるMVC1080@24p/60i/50iディペンデントビュービデオストリームのビデオアクセスユニットが格納されるバッファである。MB135からEB136にデータが転送される際にPESヘッダが取り除かれる。
 圧縮映像デコーダ137は、MVC1080@24p/60i/50iディペンデントビュービデオストリームを構成するビューコンポーネントをエレメンタリバッファにプリロードした上、MVC1080@24p/60i/50iベースビュービデオストリーム内のクローズGOPの先頭に位置するデコーダリフレッシュを意図したピクチャタイプ(IDRタイプ)のビューコンポーネントをデコードする。このデコードにあたって、コーデッドデータバッファ、デコーデッドデータバッファを全クリアする。こうしてIDRタイプのビューコンポーネントをデコードした後、このビューコンポーネントとの相関性に基づき圧縮符号化されているMVC1080@24p/60i/50iベースビュービデオストリームの後続のビューコンポーネント、及び、MVC1080@24p/60i/50iディペンデントビュービデオストリームのビューコンポーネントをデコードする。デコードによって当該ビューコンポーネントについての非圧縮のピクチャデータが得られれば、デコーデッドデータバッファに格納し、かかるピクチャデータを参照ピクチャとする。
 この参照ピクチャを用いて、MVC1080@24p/60i/50iベースビュービデオストリームの後続のビューコンポーネント、及び、MVC1080@24p/60i/50iディペンデントビュービデオストリームのビューコンポーネントについて、動き補償を行う。動き補償によって、MVC1080@24p/60i/50iベースビュービデオストリームの後続のビューコンポーネント、及び、MVC1080@24p/60i/50iディペンデントビュービデオストリームのビューコンポーネントについて、非圧縮のピクチャデータが得られれば、これらをデコーデッドデータバッファに格納し参照ピクチャとする。以上のデコードは、個々のアクセスユニットのデコードタイムスタンプに示されているデコード開始時刻が到来時になされる。AVC1080@60P/50Pビデオストリームの場合は、ビューコンポーネントに代えて、アクセスユニット内の圧縮ピクチャについて同様の処理を行う。
 バッファスイッチ138は、第1EBと第2EBに蓄えらたピクチャをビデオアクセスユニットに割り当てられた復号時刻(DTS)のタイミングで圧縮映像デコーダ137に転送する。また、圧縮映像デコーダ137がビデオアクセスユニットをデコードする際に取得したデコードスイッチ情報を使って、次のアクセスユニットを第1EB、第2EBのどちらから引き抜くかを決定しても良い。
 DPB(Decoded Picture Buffer)139は、復号されたフレーム/フィールド画像を一時的に保持しておくバッファである。圧縮映像デコーダ137が、ピクチャ間予測符号化されたPピクチャやBピクチャなどのビデオアクセスユニットをデコードする際に、既にデコードされたピクチャを参照するために利用する。
 続いて、プレーンメモリセットの内部構成について説明する。プレーンメモリセットの構成要素には、140番台の参照符号を付与することで構成要素の整理を図っている。この140番台の参照符号で示すように、プレーンメモリセットは、親画面ビデオプレーン140、子画面ビデオプレーン141、PGプレーン142、IGプレーン143、イメージプレーン144から構成される。
 親画面ビデオプレーン140は、左目用ビデオプレーン140a、右目用ビデオプレーン140bを含み、ビデオデコーダ23のデコードにより得られた非圧縮のピクチャデータを構成する一画面分の画素データを格納する。ビデオプレーン140の構成には、2プレーン構成、1プレーン構成があり、2プレーン構成においてビデオプレーン140は左目ビデオプレーン及び左目ビデオプレーンの組みから構成される。2プレーン構成を構成する左目ビデオプレーン、左目ビデオプレーンのそれぞれには、マルチビュービデオストリームをデコードすることによりえられる左目映像、右目映像が格納される。1プレーン構成である場合、ビデオプレーン140には、通常のビデオストリームをデコードすることにより得られた非圧縮のピクチャデータを構成する画素データが、格納されることになる。
 左目ビデオプレーン、右目ビデオプレーンのうち、どちらにデコード後のピクチャデータを書き込むかは、プレイリスト情報におけるベースビューインディケータに従う。ベースビューインディケータが、MVC1080@24p/60i/50iベースビュービデオストリームを"左目用"として指定していれば、MVC1080@24p/60i/50iベースビュービデオストリームのビューコンポーネントとなるピクチャデータが左目用プレーンメモリに書き込まれ、MVC1080@24p/60i/50iディペンデントビュービデオストリームのビューコンポーネントとなるピクチャデータが右目用のプレーンメモリに書き込まれる。
 ベースビューインディケータが、MVC1080@24p/60i/50iベースビュービデオストリームを"右目用"として指定していれば、MVC1080@24p/60i/50iベースビュービデオストリームのビューコンポーネントであるピクチャデータが右目用のプレーンメモリに書き込まれ、MVC1080@24p/60i/50iディペンデントビュービデオストリームのビューコンポーネントであるピクチャデータが左目用のプレーンメモリに書き込まれる。そして、これらのビューコンポーネントは、順次表示装置に出力される。具体的にいうと、一個のフレーム期間において、左目用プレーンメモリのピクチャデータと、右目用プレーンメモリのピクチャデータとを同時に出力する。
 子画面ビデオプレーン141にはシステムターゲットデコーダ104から出力された子画面ビデオ用のピクチャデータが出力される。
 PGプレーン142にはシステムターゲットデコーダ104からプレゼンテーショングラフィックスストリームがデコードされたグラフィックスデータが格納される。本プレーンの構成にも、2プレーン構成、1プレーン構成があり、2プレーン構成において左目プレーン及び左目プレーンの組みから構成される。2プレーン構成を構成する左目プレーン、左目プレーンのそれぞれに、左目用・右目用のPGストリームをデコードすることによりえられる左目プレゼンテーショングラフィクス、右目プレゼンテーショングラフィクスが格納される。1プレーン構成である場合、本プレーンには、PGストリームをデコードすることにより得られた非圧縮グラフィクスを構成する画素データが、格納されることになる。
 IGプレーン143にはシステムターゲットデコーダ104からインタラクティブグラフィックスストリームがデコードされたグラフィックスデータが格納される。2プレーン構成において左目プレーン及び左目プレーンの組みから構成される。2プレーン構成を構成する左目プレーン、左目プレーンのそれぞれに、左目用・右目用のIGストリームをデコードすることによりえられる左目インタラクティブグラフィクス、右目インタラクティブグラフィクスが格納される。1プレーン構成である場合、本プレーンには、IGストリームをデコードすることにより得られた非圧縮グラフィクスを構成する画素データが、格納されることになる。
 イメージプレーン144にはシステムターゲットデコーダ104か出力されたイメージデータが格納される。
 以上のビデオプレーン140、PGプレーン、IGプレーン、イメージプレーンは、プレーンシフトによる1plane+Offset再生を実現する。ビデオプレーンに格納されるピクチャに基づき表示される出力映像を表示画面の水平方向(横軸)に対して基準位置からどの程度シフトするかというオフセットが、ビデオデコーダから出力されれば、かかるオフセットだけシフトを行うよう、ビデオプレーンに格納された各画素データのシフト処理がなされる。かかる1plane+Offsetを実現することで、本来、立体視での再生を意図していなかった編集メニューであっても、立体視再生の対象にすることができる。
 これまでに述べた、再生装置の構成要素は、その処理内容をオブジェクト指向プログラミング言語等を用いて記述してプロセッサに実行させることで、ソフトウェア的に再生装置内に実装することができる。ここで構成要素の処理内容は、入力されてくるデータの内容や様々な外部事象、装置の内部パラメータに応じた処理手続きとして一般化することができる。そのような一般化された処理手続きを示すのが、図31、図40のフローチャートである。
 図31は、プレイリスト情報に基づくソースパケットの読み出し手順を示す。本フローチャートにおいて変数iは、i番目の読出範囲を特定する変数である。従って、以降のフローチャートにおいて、i番目の読出範囲に関連する情報要素を、[i]という添え字を付して表記することにする。
 ステップS1においてプレイリスト情報ファイルを読み出す。ステップS2は、カレント出力モードが3D出力モードであるか否かの判定であり、カレント出力モードが2D出力モードであれば、ステップS3~ステップS6を実行する。
 ステップS3において、カレントプレイアイテムのClip_Information_file_nameに記述されている「XXXXX」と、拡張子「m2ts」とで指定されているストリームファイルをオープンし、ステップS4において、MVC1080@24p/60i/50iビデオストリームのパケットIDに対応するEP_mapのエントリーポイントを用いて、カレントPlayItem.In_Time[i]及びカレントPlayItem.Out_Time[j]をStart_SPN[i]及びEnd_SPN[i]に変換する。
 ステップS5では、パケットID[i]のTSパケット[i]をStart_SPN[i]からEnd_SPN[i]まで読み出すための読出範囲[i]に属するエクステントを特定し、ステップS6において、読出範囲[i]に属するエクステントを連続的に読み出すよう、記録媒体のドライブに指示する。
 カレント出力モードが3D出力モードであれば、ステップS11において、カレントプレイアイテム情報のベースビューインディケータに従い、MVC1080@24p/60i/50iベースビュービデオストリームを左目用ビデオプレーン及び右目用ビデオプレーンのどちらか一方に割り当て、MVC1080@24p/60i/50iディペンデントビュービデオストリームを、左目用ビデオプレーン及び右目用ビデオプレーンの他方に割り当てた後にステップS3を実行する。ステップS21では、多重分離で得られたTSパケットをデコーダに出力させることで、デコード・再生を命じる。これらの説明は、MVC1080@24p/50i/60iビデオストリームについてのものである。
 ここで、MVC1080@24p/50i/60iベースビュービデオストリームにおけるClosed-GOPを分割することで得られた複数のパケットのうち、先頭のものの記録位置は、MVC1080@24p/50i/60iディペンデントビュービデオストリームにおけるOpen-GOPを分割することで得られた複数のパケットの先頭のものの記録位置よりも、デジタルストリーム上で先行していて、MVC1080@24p/50i/60iディペンデントビュービデオストリームにおけるOpen-GOPを分割することで得られた複数のパケットは何れも、MVC1080@24p/50i/60iベースビュービデオストリームにおけるClosed-GOPのエントリアドレスの直後のエントリアドレスより前に存在するから、EP_mapにおけるエントリアドレス(i)にて指示されているパケット(m)から、エントリアドレス(i+1)にて指示されているパケット(n)の直前のパケット(n-1)までを読み出すことで、ビデオデコーダには必ず、完結したMVC1080@24p/50i/60iベースビュービデオストリームにおけるClosed-GOP及びMVC1080@24p/50i/60iディペンデントビュービデオストリームにおけるOpen-GOPのペアが送り込まれる。AVC1080@60P/50Pビデオストリームについてはもっと単純な処理でよい。具体的には、図31のステップS2がNoであった際の処理(ステップS3~S21)を順次実行すればよい。以上が再生部についての説明である。続いて記録装置の中核となる記録部の内部構成について説明する。
 記録装置は、再生部、編集部を包含したものである。記録処理としては、撮像素子からの撮像入力やアンテナからの放送入力に対してエンコード処理を行い、MVC1080@24p/60i/50iベースビュービデオストリーム、MVC1080@24p/60i/50iディペンデントビュービデオストリームの組みを得るか、AVC1080@60P/50Pビデオストリームを得て、これらに対応するクリップ情報ファイル、プレイリストファイル、動作モードオブジェクトプログラム、インデックスファイルを作成した上で、これらを含むBDMVデータベースを記録媒体に書き込む。
 図32は、記録部の内部構成を示す図である。図32に示すように記録部は、左目用カメラに対する入射光を受光して、1秒間に24枚の左目用プログレッシブ画像を出力する左目用撮影回路201a、右目用カメラに対する入射光を受光して、1秒間に24枚の右目用プログレッシブ画像を出力する右目用撮影回路201b、撮影回路201a,bから出力された1秒当り24枚の左目画像、右目画像をエンコードして、圧縮ピクチャデータの集合体であるグループオブピクチャを生成する左目用ビデオエンコーダ202a,右目用ビデオデコーダ202bと、外部音声をキャプチャして非圧縮オーディオデータを出力する撮音回路203と、非圧縮のオーディオデータをエンコードするオーディオエンコーダ204と、トップメニューでボタン図形に付して表示すべき文字列の入力を受け付ける文字入力部205、入力された文字列を冠したボタンを含むような機能セグメントの集合体を生成するグラフィクスストリーム生成部206と、機器についての設定操作を受け付ける設定受付部207と、受け付け内容に従った録画モードを記憶する録画モード記憶部208と、圧縮符号化されたビデオであるグループオブピクチャと、圧縮符号化されたオーディオデータと、機能セグメントの集合体とを多重化してTSパケット列を得るマルチプレクサ209と、マルチプレク209が得たTSパケットのそれぞれをソースパケットに変換するソースパケッタイザ210と、記録媒体への書き込みのためにソースパケットをバッファリングするライトバッファ211とを含む。
 この他に、再生制御に関連する情報を作成するため記録装置は、ビデオエンコーダ、オーディオエンコーダによるエンコードパラメータと、ソースデパケッタイザ210から出力されるグループオブピクチャ先頭GOPの先頭ソースパケット番号とに基づき、エントリーマップやシーケンス情報、ストリーム属性情報を含むクリップ情報を生成するクリップ情報生成部213と、再生時刻を規定するPTSを用いて、再生経路を示すプレイリスト情報を生成するプレイリスト情報生成部214と、動作モードオブジェクトプログラムを生成するプログラム生成部215と、インデックスファイルをクリエイトすると共に、プログラムが生成される度に、そのプログラムと、タイトル番号とを規定したインデックスをインデックスファイルに追記してゆくインデックスファイル生成部216と、ビデオストリームが生成される度に、これらクリップ情報、プレイリスト情報、プログラム、インデックスファイルの生成及び更新を行わせ、生成及び更新がなされたクリップ情報、プレイリスト情報、プログラム、インデックスファイルを記録媒体に書き込ませる制御部217とを含む。
 設定受付部207による録画モードの設定項目には、2D録画/3D録画の設定、インターレース/プログレッシブといった表示方式の設定、記録媒体をエディタブルメディアとするか、ノンエディタブルメディアとするかという編集可否設定といった項目があり、設定受付部は、セットアップメニューを表示して、これらの項目の設定について、ユーザからの入力を受け付ける。この設定入力に従い、入力映像をAVC1080@60P/50Pビデオストリームとするか、MVC1080@24p/60i/50iビデオストリームとするか、エンコードでえられるBDMVデータベースが記録された記録媒体をエディタブルメディアとするか、ノンエディタブルメディアとするかを定める。そうして設定された設定項目が、録画モード記憶部208に記憶されることになる。
 マルチプレクサ209は、MVC1080@24p/50i/60iベースビュービデオストリームにおけるClosed-GOPを分割することで得られた複数のパケットのうち、先頭のものの記録位置は、MVC1080@24p/50i/60iディペンデントビュービデオストリームにおけるOpen-GOPを分割することで得られた複数のパケットの先頭のものの記録位置よりも、デジタルストリーム上で先行させる。MVC1080@24p/50i/60iディペンデントビュービデオストリームにおけるOpen-GOPを分割することで得られた複数のパケットは何れも、MVC1080@24p/50i/60iベースビュービデオストリームにおけるClosed-GOPのエントリアドレスの直後のエントリアドレスより前に存在することになる。
 RREFでは、先の実施形態でのべたように単純な構造のタイトルしか管理しえないから、録画操作から停止操作までに生成されたクリップストリームファイル(MVC1080@24p/60i/50iビデオストリーム、AVC1080@60P/50Pビデオストリームを含む)と、これを参照したプレイリストファイルと、これを参照した1つの動作モードオブジェクトとが1つのタイトルとしてインデックスファイルにおいて管理されるものとする。
 テレビ放送局からの放送入力を対象にした場合、自装置における選局設定を格納している選局レジスタと、放送波を受信してトランスポートストリームを得る受信部と、トランスポートストリームから選局レジスタに格納された局設定に対応するPMTテーブルに従いTSパケットの抽出を行い、ビデオストリーム、オーディオストリーム、字幕ストリームを得る多重分離部とを備え、多重分離で得られたビデオストリーム、オーディオストリーム、字幕ストリームに対してトランスコードやエンコードを行う。この場合も、録画操作から停止操作までのエンコード処理で得られた1つのクリップストリームファイル(MVC1080@24p/60i/50iビデオストリーム、AVC1080@60P/50Pビデオストリームを含む)を、動作モードオブジェクトプログラムを通じて1つのタイトルとして管理することになる。
 記録装置の構成要素は、その処理内容をオブジェクト指向プログラミング言語等を用いて記述してプロセッサに実行させることで、ソフトウェア的に実装することができる。ここで構成要素の処理内容は、様々な外部事象や装置の内部パラメータに応じた処理手続きとして一般化することができる。そのような一般化された処理手続きを示すのが、図33~図35のフローチャートである。以下、記録装置の構成要素の実装のための処理手順について説明する。
 記録装置の手順としては、エンコーダによるエンコード処理に連動したストリーム生成処理が中心であり、これによりAVC1080@60P/50Pビデオストリーム、インターレースMVC1080@24p/60i/50iベースビュービデオストリーム、MVC1080@24p/60i/50iディペンデントビュービデオストリームが生成される。録画操作から停止操作までの一連の処理で、クリップストリームファイルが生成され、対応すプレイアイテム情報が生成される。この一連の処理をストリーム生成処理という。AVC1080@60P/50Pビデオストリーム、MVC1080@24p/60i/50iビデオストリームの共通的な処理を記載したのが図33である。図33は、ストリーム生成手順を示すフローチャートである。
 ステップS300においてストリームファイル、クリップ情報ファイル、プレイリスト情報ファイルをクリエイトする。
 ステップS305は、映像入力の入力待ちであり、もし映像入力があれば、ステップS306~ステップS308に移行する。このステップS306~ステップS308では、入力映像をエンコードしてピクチャ列に変換し(ステップS306)、当該ピクチャ列を、PESパケット化、TSパケット化、ソースパケット化して(ステップS307)、オーディオストリーム・グラフィクスストリームと多重化する(ステップS308)。
 その後、ステップS309~ステップS311のループに移行する。
 ステップS309はGOPの蓄積が完了したかどうかの状態監視であり、ステップS310は、ATCシーケンスが完結したかどうかの判定である。ステップS311は、STCシーケンスが完結したかどうかの判定であり、ステップS312は、録画停止操作がなされたか否かの判定である。GOPの蓄積が完了すれば、ステップS313においてGOP先頭GOPの先頭ソースパケット番号と、プレゼンテーションタイムスタンプとの対応付けを示すエントリーをEP_mapに追加する。ATCシーケンスが完結すれば、ステップS314において、次のATCシーケンスの先頭ソースパケット番号であるSPN_ATC_Startと、ATCシーケンス数とをクリップ情報ファイルのシーケンス情報に設定する。STCシーケンスが完結すれば、ステップS315においてSTCシーケンスの先頭ソースパケット番号(SPN_STC_start)と、STCシーケンスの再生開始時刻であるSTC_start_timeと、STCシーケンスの再生終了時刻であるSTC_End_timeとをクリップ情報ファイルのシーケンス情報に設定する。
 録画停止操作がなされたなら、ストリームファイル、クリップ情報ファイルを完結させ(ステップS316)、プレイアイテム情報のIn_Time、Out_Timeを設定して(ステップS317)、クリップ情報ファイル、プレイリスト情報ファイルを記録してクローズする(ステップS318)。以上の処理を行うことで、AVC1080@60P/50Pビデオストリーム、プログレッシブ又はインターレースのMVC1080@24p/60i/50iベースビュービデオストリーム、プログレッシブ又はインターレースのMVC1080@24p/60i/50iディペンデントビュービデオストリームを生成することができる。
 クリップストリームファイルのそれぞれが、1つのプレイリスト情報により参照され、1つのタイトルとして管理されるとする。そうすると、ストリーム生成によりクリップストリームファイルが1つ生成される度に、このタイトルに対応するインデックスをインデックスファイルに追加してゆく必要がでてくる。このインデックスファイルの生成過程の処理は、BDMVデータベースとして、MVC1080@24p/50i/60iビデオストリームを記録するか、AVC1080@60P/50Pビデオストリームを記録するかによって処理内容が変わってくる。以下、AVC1080@60P/50Pビデオストリームを記録する場合と、MVC1080@24p/50i/60iビデオストリームを記録する場合とに分けて、BDMVデータベース記録に伴う、インデックスファイルの生成手順を説明する。
 図34は、MVC1080@24p/50i/60iストリームによる3Dコンテンツを含むBDMVデータベースの記録手順を示すフローチャートである。本フローチャートにおける変数xは、処理対象となるタイトルを特定するための制御変数である。従って、以降のフローチャートにおいて、ループのx巡目の処理で処理対象となるタイトルやIndex.bdmv内のインデックスを、[x]という添え字を付して表記することにする。
 ステップS51において、録画指示がなされたかどうかの判定待ちを行い、指示がなされれば、ステップS52において、AppInfoBDMVデータにおけるSS_content_exist_flagをオフ、extended_editability_flagをオフ、editability_flagをオフに初期化して、Index.bdmvの雛形をクリエイトし、ステップS55においてxを0に初期化する。
 ステップS56は、変数xが0かどうかの判定であり、もし0であるなら、ステップS57において、CallTitle(x)を含むボタンオブジェクト(x)を有するIGストリームを具備したクリップストリームファイルと、これを参照するプレイリスト情報ファイルと、これの再生を命じる動作モードオブジェクトプログラムとをクリエイトして、トップメニュータイトルのインデックスであるindex(0)に、当該動作モードオブジェクトプログラムのIDを設定する。
 ステップS56がNoなら、ステップS59に移行する。ステップS59は、録画モードが3D録画モードかどうかの判定であり、ステップS60は、機器設定は、編集可かどうかの判定である。ステップS59がYes、ステップS60がYesであれば、ステップS61において、AppInfoBDMVデータにおけるSS_content_exist_flagをオン、extended_editability_flagをオン、editability_flagをオフに設定しなおす。ステップS59がYes、ステップS60がNoであれば、ステップS62において、AppInfoBDMVデータにおけるSS_content_exist_flagをオン、extended_editability_flagをオフ、editability_flagをオフに設定しなおす。その後、ステップS63に移行して、m2tsファイルと、これと組みになるクリップ情報ファイルと、これを参照するプレイリスト情報ファイルと、これの再生を命じる動作モードオブジェクトプログラムとをクリエイトして記録する。
 ステップS59がNoであれば、ステップS64に移行する。ステップS64は、これまで記録したBDMVデータベースに、MVC1080@24p/50i/60iの3Dビデオコンテンツがふくまれていないかどうかの判定であり、ステップS65は、機器設定は編集可かどうかの判定である。ステップS64、ステップS65の双方結果がYesであれば、ステップS66においてeditability_flagをオンに設定する。その後、ステップS67において、クリップストリームファイルと、それを参照するプレイリスト情報ファイルと、これの再生を命じる動作モードプログラムとをクリエイトして記録する。以降、ステップS68において、Index.bdmvのインデックスに、この動作モードオブジェクトプログラムのIDを設定する。
 その後、ステップS69に移行する。ステップS69は、録画指示がなされたかどうかの判定であり、なされれば、ステップS70で変数xをインクリメントして、ステップS56に戻る。このループが一巡する度に、制御変数xがインクリメントされるので、この制御変数で指示されるデータ要素であるタイトルは、本ループの処理に供されてゆく。
 図35は、AVC1080@60P/50PビデオストリームであるProgressive Videoを含むBDMVデータベースの記録を示すフローチャートである。本フローチャートにおける変数xは、処理対象となるタイトルを特定するための制御変数である。従って、以降のフローチャートにおいて、ループのx巡目の処理で処理対象となる情報要素を、(x)という添え字を付して表記することにする。
 ステップS401において、録画指示がなされたかどうかの判定待ちを行い、指示がなされれば、ステップS402において、AppInfoBDMVデータにおけるextended_editability_flagをオフ、editability_flagをオフに初期化して、Index.bdmvの雛形をクリエイトする。
 ステップS404は、録画モードが60Pモード又は50Pモードかどうかの判定であり、ステップS405は、機器設定は、編集可かどうかの判定である。ステップS404がYes、ステップS405がYesであれば、ステップS406において、extended_editability_flagをオン、editability_flagをオフに設定しなおす。ステップS404がYes、ステップS405がNoであれば、ステップS407において、extended_editability_flagをオフ、editability_flagをオフに設定しなおす。その後、ステップS408に移行して、AVC1080@60P/50Pビデオストリームであるプログレッシブビデオを含むクリップストリームファイルと、AVC1080@60P/50Pビデオストリームの再生を許可したプログレッシブビデオエントリーを含むプレイリスト情報ファイルと、これの再生を命じる動作モードオブジェクトプログラムとをクリエイトして記録する。
 ステップS404がNoであれば、ステップS409に移行する。ステップS409は、これまで記録したBDMVデータベースがプログレッシブビデオの再生を許可したプログレッシブビデオエントリーをもつプレイリストを含まないかどうかの判定であり、ステップS410は、機器設定は編集可かどうかの判定である。ステップS409、ステップS410の双方の判定結果がYesであれば、ステップS411において、editability_flagをオンに設定し、ステップS412においてプログレッシブビデオを含まないクリップストリームファイルと、プログレッシブビデオの再生を許可したエントリーを含むプレイリスト情報ファイルと、これの再生を命じる動作モードプログラムとをクリエイトして記録する。以降、ステップS413において、Index.bdmvのインデックスに、この動作モードオブジェクトプログラムの動作モードオブジェクトプログラムのIDを設定して記録する。その後、ステップS414に移行する。ステップS414は、録画指示がなされたかどうかの判定であり、なされれば、ステップS415で変数xをインクリメントして、ステップS404に戻る。
 以上で記録装置についての説明を終える。
 続いて、編集部2004について説明する。図36は、編集部2004の詳細な構成を示している。編集部2004は、GUI処理部301、管理情報メモリ302、編集ケーパビリティレジスタ303、2D/3D編集可否判定部304、ワークメモリ305、編集制御部306、ユーザイベント処理部307から構成されている。
 GUI処理部301は、スケーラブルウィンドゥ、スライドバー、プルダウンメニュー、ボタン、ソフトウェアキーボードといったGUI部品を用いてGUI画面を構成して、これを再生部2002に引き渡すことで、立体視映像が合成された編集用GUIを表示装置に表示させる。またGUI処理部は、ユーザ操作に応じて、GUI画面の状態を変化させる。部分削除にあたっては、削除範囲のIn点、Out点となるタイムコードを編集制御部に出力する。分割にあたっては、分割点となるタイムコードを出力する。またタイトルの一覧表示時において、統合対象となる2以上のタイトルの選択を受け付ければ、そのタイトル選択時に再生されることになるプレイリストの組みを編集制御部に出力する。RREFに特化した処理としてGUI処理部は、スライドバーを通じてIn_Time、Out_Timeの指定を受け付けることで、オルテネィティブプレイリストのPlayItemにおけるIn_Time、Out_Timeを定義する。編集用GUIは、メニュープレイリストにおけるIGストリームのオブジェクト定義セグメントやインタラクティブグ制御セグメントによって描画可能であるが、JPEG、GiFFのようなイメージデータ、OSD(On Screen Display)グラフィクスやBML(Broadcast Markup Languege)を用いても記述することができる。
 管理情報メモリ302は、BDドライブ2001からインデックスファイル、プレイリストファイル、クリップ情報ファイルの管理情報をそれぞれ格納するメモリ等で構成されたバッファである。
 編集ケーパビリティレジスタ303は、本装置に編集能力が存在するか否かの設定を示す。このレジスタの設定値と、editability_flagの値と、extended_editability_flagの値とに基づきBDMVデータベースの編集を実行するかどうかは決定される。
 2D/3D編集可否判定部304は、BDドライブからのアクセスが可能となるBDMVデータベースを記録装置が編集できるかどうか、あるいは編集を禁止すべきかどうかの判定を行う。もし、編集可否判定部304がBDMVデータベースを『編集不可』と判定したとき、ユーザイベント処理部307から編集制御部306に対して編集処理命令がなされても、編集制御部706は編集処理を実施しないように制御される。
 ワークメモリ305は、BDMVデータベースに対する編集の過程で得られた中間成果物、最終成果物を一時的に格納する。
 編集制御部306は、トップメニューがコールされ、タイトルの一覧表示がなされた際、そのトップメニューにおいてフォーカス状態になっているタイトルに対する編集操作を受け付ける。編集操作がなされた際、そのタイトルに対する動作モードオブジェクトプログラムをロードしてかかる動作モードオブジェクトプログラムによりプレイリストによるストリーム再生を開始させる。これによりタイトルの再生映像をウィンドゥに組込んだGUIを再生部に表示させる。その際、プレイリスト情報ファイル、クリップ情報ファイルを光ディスク1000から読み出し、また、BDMVディレクトリのディレクトリファイル及びその配下のファイルエントリー、STREAMディレクトリのディレクトリファイル及びその配下のファイルエントリーを記録媒体から読み取る。
 そしてこれらのプレイリスト情報ファイル、クリップ情報ファイル、1TS-2VSm2tsファイルのファイルエントリーやSTEAMディレクトリのディレクトリファイルを用いて編集を実行する。1TS-2VSm2tsファイルのストリームエントリーを編集対象とし、1TS-2VSm2tsファイル自体を編集対象にしないのは、RREFは、ストリームの再エンコードやトランスコードを伴うような実体的な編集を許容していないからである。一方、部分削除、分割、統合といった編集は、再エンコードを必要としないからである。プレイリスト情報ファイル、クリップ情報ファイル、1TS-2VSm2tsファイル、BDMVディレクトリ配下のディレクトリファイル、ファイルエントリーに対してのみ編集を行い、編集が完了すれば、これらをドライブに出力して記録媒体に書き戻す。
 編集にあたって編集制御部306は、ディスクのファイルシステムにおけるディレクトリファイル、ファイル識別記述子、ファイルエントリーといったファイルシステム管理情報を読み出すと共に、インデックスファイルを読み出す。そしてファイルエントリーにおけるアロケーション記述子を書き換えたり、またファイル識別記述子を編集することでクリップストリームファイルの編集を実行する。
 編集にあたって、編集対象を特定する操作は、タイトル選択時の動作に準じる。つまりインデックスファイルにおける複数タイトルの何れかをユーザに選択させ、このタイトルに対応する動作モードオブジェクトプログラム、プレイリスト情報ファイル、クリップ情報ファイルをメモリに読み出させる。その上でファイルエントリーを更新したり、またファイル識別記述子を更新し、メモリに読み出されたプレイリスト情報ファイル、クリップ情報ファイルを更新することで部分削除や分割を実行する。
 ユーザイベント処理部307は、リモコンを通じたユーザ操作に応答して、編集制御部306に処理の実行を依頼する。例えば、リモコンでボタンを押した場合は、そのボタンに含まれるコマンドを実行するプログラム実行を行い、例えば、リモコンで記録データの分割や削除などといった指示を編集制御部306に対して命令する。
 以上が、編集部3004の構成要素についての説明である。上記構成要素により、様々な過程を経て、最終的な編集成果物が得られる。この構成要素による具体的な処理内容を交えて編集部3004による理解を深める。ここで取り上げる具体的な処理内容は、立体視ファッションカタログ映像に対して部分削除を実行するというものである。かかる部分削除には、立体視映像の先端を削除するケース、終端を削除するケース、途中部分を削除するケースがある。これら3通りのケースに場合訳けして説明を進める。
 図37は、先端部分を削除するケースを示す。具体的にいうと、同図(a)のように先端部分を削除範囲として指定して削除する。これらの削除範囲に属するベースビューコンポーネント、ディペンデントビューコンポーネントが、(b)のエクステントEXT[1]のハッチング部分のハッチング部分に存在する。削除後においてエクステントEXT[1]の先頭位置はn11となり、データ長がlen11になったものとする。この場合、m2tsファイルにおけるエクステントEXT[1]のアロケーション記述子は、(c)のようになる。つまりエクステントEXT[1]の先頭LBN及びデータ長をn11,len11となる。
 ベースビューコンポーネント及びディペンデントビューコンポーネントを含むエクステントを削除することにより、右目画像、左目画像の一方が削除で残ることはない。よって左目画像-右目画像の不整合が発生する恐れはなくなる。図38は、先端部分の削除により立体視動画像がどのように変化するかを示す。左側は元の立体視動画像、右側は先端部分削除後の立体視動画像を示す。先端部分のDELETEDの範囲が、機器によって認識されなくなったため、削除範囲直後に存在していた女性モデルのフレーム画像の順位が先頭に繰り上げられ、先頭になっている。図39は、眼鏡を着用することで視聴されることになる立体視動画像を示す。視線vw3は、アクティブシャッター式眼鏡1008によって右目が遮光された場合の映像の入射を示す。視線vw4は、アクティブシャッター式眼鏡1008によって左目が遮光された場合の映像の入射を示す。このvw3により左目画像が視聴されることになる。またvw4により右目画像が視聴されることになる。アクティブシャッター式眼鏡1008を着用することによりユーザは、右目画像、左目画像を交互に視聴することになり、立体視画像が再生される。
 図38及び図39が立体視ファッションカタログ映像を構成するものとすると、商品にあわないモデルの画像を削除したり、またシーズンを終えた商品の映像を削除したりすることが容易にできる。
 図40は、終端部分を削除するケースを示す。具体的にいうと、図(a)のように終端部分を削除範囲として指定して削除する。これらの削除範囲に属するMVC1080@24p/60i/50iベースビュービデオストリームのベースビューコンポーネント、MVC1080@24p/60i/50iディペンデントビュービデオストリームのディペンデントビューコンポーネントが、(b)のエクステントEXT[7]のハッチング部分に存在する。削除後においてエクステントEXT[7]はデータ長がlen17になったものとする。この場合、m2tsファイルにおけるエクステントEXT[7]のアロケーション記述子は、(c)のようになる。つまりエクステントEXT[7]のデータ長はlen17に書き換えられる。以上のように、ベースビューコンポーネントと、ディペンデントビューコンポーネントとを格納したエクステントEXT[7]とを併せて部分的に削除する。
 図41は、途中部分を削除するケースを示す。具体的にいうと、同図(a)のように途中部分を削除範囲として指定して削除する。これらの削除範囲に属するMVC1080@24p/60i/50iベースビュービデオストリームのベースビューコンポーネント、MVC1080@24p/60i/50iディペンデントビュービデオストリームのディペンデントビューコンポーネントが、(b)のエクステントEXT[5]のハッチング部分に存在する。削除後においてエクステントEXT[5]は先頭アドレスがn15,データ長がlen15になったものとする。
 この場合、削除範囲よりも前に位置するエクステントと、削除範囲より後に位置するエクステントとが別々のファイルになる。図41(c)は、削除範囲よりも前に位置するm2tsファイルのアロケーション記述子列を示し、図41(d)は、削除範囲よりも後に位置するm2tsファイルのアロケーション記述子列を示す。(c)によると、削除範囲より前のm2tsファイルのアロケーション記述子には、元のm2tsファイルのアロケーション記述子のうちエクステントID=1から=4までのアロケーション記述子が存在する。
 また削除範囲より後のm2tsファイルのアロケーション記述子には、元のm2tsファイルのアロケーション記述子のうち、エクステントID=5から=7までのアロケーション記述子が存在する。これらのうちエクステントEXT[5]のアロケーション記述子は、(d)のようになる。つまりエクステントEXT[5]の先頭LBN及びデータ長はn15,len15に書き換えられる。
 分割は、途中部分の削除と同じ動作になる。つまり部分削除時の削除範囲の代わりに、分割点時間軸上に設定してこの前後でm2tsファイルを2つのm2tsファイルに分断する処理を行えばよい。
 以上が編集部の処理についての説明である。
 上記図37から図41までの部分削除の過程は限られた局面の例示に過ぎない。一方、部分削除やその他編集の手順を装置に行わせ、製品化するには、エクステントの様々な配置パターンを網羅する必要がある。そのような多様なパターンを想定して部分削除の手順を一般化したのが図42~図48のフローチャートである。
 図42は、メインTSの部分削除の手順を示すフローチャートである。本フローチャートは、最上位のメインルーチンであり、Index.bdmvのAppInfoBDMVデータにおけるextended_editability_flagの設定値Xを用いた図9の編集可否判定において、エディタブルメディアとして扱うと判定された場合にのみ実行される。
 ステップS91においてカレントPTMを初期化し、ステップS92では、MVC1080@24p/60i/50iベースビュービデオストリームにおけるカレントPTMのピクチャを、GUIに縮小表示する。ステップS93では、カレントPTMに応じた時点に、スライドバーを移動して、ステップS94~ステップS96のループに移行する。ステップS94は、In点/Out点の指定がなされたかどうかの判定であり、ステップS95は、In点、Out点の確定がなされたかの判定である。ステップS96はカレントPTMの更新である。ステップS94がYesであれば、ステップS97に移行する。ステップS97は、Out点であり、組みとなるIn点が存在するかどうかの判定である。組みとなるIn点が存在しないというとは、初めてのIn点の指定であり、この場合、ステップS97がNoになる。ステップS97がNoであれば、ステップS98においてスライドバーの時点を削除範囲のIn点としてループに戻る。ステップS97がYesであれば、ステップS99において、スライドバーの時点を削除範囲のOut点としてループに戻る。
 削除範囲が確定されれば、ステップS95がYesになってステップS100に移行する。ステップS100は、削除範囲が時間軸のどこに存在するかの判定である。削除範囲が先端に存在しているならステップS101でストリーム先端の削除を実行し、その後、ステッ102でATCシーケンス・STCシーケンスの先端削除を実行する。削除範囲がストリーム終端に存在するならステップS103でストリーム終端の削除を実行し、ステップS104でATCシーケンス・STCシーケンスの終端削除を実行する。途中部分に存在するならステップS105でストリーム途中部分の削除を実行し、ステップS106でATCシーケンス・STCシーケンスの途中部分削除を実行する。

 図43は、途中部分の削除の手順を示すフローチャートである。本フローチャートは、上位のルーチンである図42のフローチャートのステップS106の手順を詳細に展開するものである。本フローチャートにおいて、メインTSの途中の削除で新たに得られる2つのトランスポートストリームを、メインTS1、メインTS2と呼ぶ。またメインTS1,TS2に対応するPlayItemを、PlayItem#x,#x+1と呼ぶ。
 ステップS130では、3Dプレイリストのメインパス情報で参照されるメインTSをメモリ上で複製して、メインTS1、メインTS2を得る。ステップS131では、メインTS1の指定された途中部分、及び、その途中部分より後ろの部分の組みを新たな「削除範囲」として指定して部分削除を実行する。ステップS133では、メインTS2において、指定された途中部分、及び、その途中部分よりも前の部分の組みを新たな「削除範囲」として部分削除を実行し、残った部分をサブTS2として記録する。
 ステップS134では、メインTS1上の再生区間を規定するプレイアイテム情報#x、メインTS2上の再生区間を規定するプレイアイテム情報#x+1をプレイリスト情報内のメインパス情報内に生成する。
 上記各図のフローチャートにおけるストリーム部分削除において、削除範囲が1つのエクステントに相当する場合、アロケーション記述子における先頭アドレス及びデータ長のうち、この削除範囲に相当するものをアロケーション記述子から消し去り、次順位以降のエクステントを繰り上げて空きのエクステントIDを埋める。そかし実際は、削除範囲がエクステントと同じ大きさで重なることは希であり、一般的には部分的に重複するケースが多数を占める。部分的な重複については、図44、図45で処理がなされる。
 図44は、エクステント部分削除の処理を示すフローチャートである。本フローチャートは、上位のルーチンである図43のステップS131、133の手順を詳細に展開するものである。本フローチャートにおける変数In,Outは、処理対象となる削除範囲の開始点、終了点を特定するための制御変数である。
 ステップS141は、時間軸における削除範囲のIn点、Out点をEP_mapを用いてSPN(In)、SPN(Out)に変換する。ステップS142では、SPN(In)、SPN(Out)を媒体上の論理アドレスに変換して、対象エクステントにおける削除範囲の所在を示すLBN(SPN(In))、LBN(SPN(Out))を得る。ステップS143は、削除範囲LBN(SPN(In))、LBN(SPN(Out))によって規定される削除範囲は、複数エクステントにわたって存在するか否かの判定である。削除範囲が1つのエクステント内に存在する場合、ステップS145においてEXTのアロケーション記述子を書き換える。
 削除範囲が複数エクステントにわたって存在する場合、ステップS148において削除範囲をエクステント境界に沿って分割し、分割で得られた個々の削除範囲について、ステップS151におけるエクステントのアロケーション記述子の書き換えを繰り返す(ステップS149)。このループの終了条件は、ステップの判定結果がYesになることであり、この終了条件が満たされるまで、制御部は同じ状態を維持することになる。このループが一巡する度に、制御変数In,Outが次のものに切り替えられるので、この制御変数で指示されるデータ要素は、本ループの処理に供されてゆく。ループが一巡する度に、複数のデータ要素のそれぞれを処理に供してゆくのが処理構造である。
 図45は、アロケーション記述子の書き換えを示すフローチャートである。本フローチャートは、上位のルーチンである図44のフローチャートのステップS145、S151の手順を詳細に展開するものである。本フローチャートにおける変数E[x]は、処理対象となるエクステント及びアロケーション記述子を特定するための制御変数である。従って、以降のフローチャートにおいて、ループのx巡目の処理で処理対象となるエクステント、アロケーション記述子をエクステントE[x]、アロケーション記述子E[x]と表記することにする。
 本フローチャートでは、最初に、ステップS161-ステップS162-ステップS163からなるループに移行する。ステップS161は、削除範囲がエクステントE[x]の終端に存在するかどうかの判定、ステップS162は、削除範囲がエクステントE[x]の先端に存在するかの判定、ステップS163は、削除範囲がエクステントE[x]の途中部分に存在するかの判定である。判定ステップの判定内容は、エクステント上で削除範囲がとりえる複数の配置パターンのそれぞれに対応しているから、削除範囲が取りうる値によって、対応する処理が実行されることになる。処理対象であるエクステントの配置が、予め定められた複数の類型のうち、何れのものに該当するかによって、処理手順を適切な内容のものに分岐させるのがこの判定ステップの役割である。
 ステップS161がYesであれば、ステップS164においてm2tsファイルのファイルエントリーにおけるアロケーション記述子E[x]のデータ長から、削除範囲のデータ長を減じることで、エクステントE[x]の終端カットを図る。ステップS162がYesであれば、ステップS165において、m2tsファイルのファイルエントリーのアロケーション記述子E[x]におけるエクステントE[x]の先頭アドレスに、削除範囲のデータ長を加算することで先端カットを図り、ステップS166において、アロケーション記述子E[x]のデータ長から削除範囲のデータ長を減じる。
 削除範囲がエクステントE[x]の途中に存在する場合、m2tsファイルのファイルエントリーの該当するアロケーション記述子E[x]のデータ長を削除範囲直前までのデータ長とし(ステップS167)、削除範囲直後のLBNと、削除範囲直後からエクステントE[x]の末尾までのデータ長とからなるアロケーション記述子E(x+1)をm2tsファイルのファイルエントリーに追加する(ステップS168)。
 図46(a)は、ATCシーケンス、STCシーケンスの先端削除の手順を示す。本フローチャートは、上位のルーチンである図42(a)のフローチャートのステップS102の手順を詳細に展開するものである。
 ステップS171においてメインTSのATCシーケンスについてのSPN_ATC_startを削除範囲(TS)に属するパケット数だけ増加させる。ステップS172では、メインTSのSTCシーケンスについてのSPN_STC_startを削除範囲のパケット数だけ増加させる。ステップS173では、メインTSのSTCシーケンスについてのSTC_Start_timeを削除範囲(TS)のSTC数だけ増加させ、ステップS174では、メインTSに対応するPlayItem.In_Timeを削除範囲(TS)だけ増加させる。ステップS175では、EP_mapにおけるSPN-PTSの組みのうち、削除範囲(TS)に属するものをEP_mapから取り除く。
 図46(b)は、ATCシーケンス、STCシーケンスの終端削除の手順を示す。本フローチャートは、上位のルーチンである図54(b)のフローチャートのステップS126の手順を詳細に展開するものである。
 ステップS176においてメインTSのATCシーケンスのATCシーケンスについてSPN_ATC_endを削除範囲に属するパケット数だけ減少させる。ステップS177では、メインTSのSTCシーケンスについてのSPN_STC_Endを削除範囲のパケット数だけ減少させる。ステップS178では、メインTSのSTCシーケンスについてのSTC_end_timeを削除範囲のSTC数だけ減少させ、ステップS179では、メインTSに対応するPlayItem.Out_Timeを削除範囲だけ減少させる。ステップS180では、EP_mapにおけるSPN-PTSの組みのうち、削除範囲に属するものをEP_mapから取り除く。
 図47は、ATCシーケンス、STCシーケンスの途中部分削除の手順を示す。本フローチャートは、上位のルーチンである図43のフローチャートのステップS139の手順を詳細に展開するものである。
 ステップS181において、指定された途中部分と、それより以前の部分とを削除範囲(TS1)とし、ステップS182においてメインTS2のATCシーケンスについてSPN_ATC_startを削除範囲(TS1)に属するパケット数だけ増加させる。ステップS183では、メインTS2のSTCシーケンスについてのSPN_STC_startを削除範囲(TS1)のパケット数だけ増加させる。ステップS184では、メインTS2のSTCシーケンスについてのSTC_Start_timeを削除範囲(TS1)のSTC数だけ増加させ、ステップS185では、メインTS2に対応するPlayItem.In_Timeを削除範囲(TS1)だけ増加させる。ステップS186では、EP_mapにおけるSPN-PTSの組みのうち、削除範囲(TS1)に属するものをEP_mapから取り除く。
 図48は、ATCシーケンス、STCシーケンスの途中部分削除の手順の続きを示す。ステップS187において、指定された途中部分と、それより以降の部分とを削除範囲(TS2)とし、ステップS188においてメインTS1のATCシーケンス、サブTS1のATCシーケンスについてSPN_ATC_endを削除範囲(TS2)に属するパケット数だけ減少させる。ステップS189では、メインTS1のSTCシーケンスについてのSPN_STC_Endを削除範囲(TS2)のパケット数だけ減少させる。ステップS190では、メインTS1のSTCシーケンスについてのSTC_end_timeを削除範囲(TS2)のSTC数だけ減少させ、ステップS191では、メインTS1に対応するPlayItem.Out_Timeを削除範囲(TS2)だけ減少させる。ステップS192では、EP_mapにおけるSPN-PTSの組みのうち、削除範囲(TS2)に属するものをEP_mapから取り除く。ステップS193では、メインTS2に対応するATCシーケンス、STCシーケンスに「1」だけ大きいatc_id、stc_idを付与し、メインTS2に対応するPlayItem、SubPlayItemのref_to_STC_idに「1」を加算する。
 図49は、プレイリスト統合の手順を示すフローチャートであり、このフローチャートも、Index.bdmvのAppInfoBDMVデータにおけるextended_editability_flagの設定値Xを用いた編集可否判定において、エディタブルメディアとして扱うと判定された場合にのみ実行される。本フローチャートにおいて、統合の対象になる2つのプレイリストを、プレイリスト1、2という。ステップS201では、統合すべき2つのタイトルの選択を受け付ける。選択がなされると、ステップS202において2つのタイトルを構成する3Dプレイリストをプレイリスト1、2にする。ステップS203では、プレイリスト1を構成するプレイアイテム情報#1~#mの後ろに、プレイリスト2を構成するプレイアイテム情報#1~#nを、プレイアイテム#m+1~m+nとして追加する。
 ステップS205において2つのタイトルを構成するmplsプレイリストをプレイリスト3、4にする。ステップS206では、プレイリスト3を構成するプレイアイテム情報#1~#mの後ろに、プレイリスト4を構成するプレイアイテム情報#1~#nを、プレイアイテム#m+1~m+nとして追加する。ステップS208では、追加がなされたプレイリスト1、3を規定するプレイリストファイルを書き込み、プレイリスト2、4を規定するプレイリストファイルを削除する。
 以上の処理は、サブルーチン化されていて、上位のフローチャートからコールがあって初めて実行されることになる。そしてこれらの処理が終了すれば、上位のフローチャートの処理へとリターンすることになる。これにより、ハードウェア資源の状態復帰後、上位のフローチャートの処理が再開されることになる。
 以上のように本実施形態によれば、立体視映像の編集という機能拡張に、装置の基盤となるBlu-ray Recordingディスクプレーヤー、Blu-ray Rewritableディスクプレーヤーのハードウェア構成、ソフトウェア構成に大きな改変を施す必要はないので、製品メーカーは、これまでの商品開発で培われた設計ノウハウを活かしつつも新たな商品を産み出すことができ、製品メーカーにおける応用製品の設計期間を短期間にすることができる。
 (第9実施形態) 
 本実施形態では、BD-Jオブジェクトにより動作が規定されるBD-Jアプリケーションで、AVC1080@60P/50Pビデオストリームの再生を許可したエントリーをもつストリーム選択テーブルを含むプレイリスト再生、インターレース3Dを実現する改良に関する。
 BD-Jプラットフォーム上で動作するシステムアプリケーションとして、RREFのための編集アプリケーションを実装する場合、利用できるAPIには、Java2Micro_Edition(J2ME) Personal Basis Profile(PBP 1.0)と、Globally Executable MHP specification(GEM1.0.2)for package media targetsがある。これらのAPIを利用すれば、ネットワーク処理のためのjava.net、GUI処理のためのjava.awt、言語処理のためのjava.lang、記録媒体に対するI/O処理のためのjava.io、ユーティリティであるjava.util、BD-JプラットフォームのためのエクステンションAPI(BD-Jエクステンションと呼ばれる)を用いることで、これまでの実施形態で述べたデータ構造、再生単位を用いた制御を実現する。このBD-Jエクステンションはjava.net、java.awt、java.lang、java.io、java.util、javax.mediaクラスのメソッドからのインへリッドメソッドを含み、これらのクラスのインターフェイスをエンベデッドインターフェイス、スーパーインターフェイスとしているので、java.net、java.awt、java.lang、java.io、java.util、javax.mediaクラスを用いたプログラミング技法の延長線上で、AVC1080@60P/50Pビデオストリームのプレイリスト再生に適合したアプリケーションを作成することができる。
 例えばBD-JプラットフォームにおけるエクステンションAPIは、PSR31,PSR29のb4、PSR231のb3、PSR24のb8,b9の保持値の取得を命じる取得メソッドを含む。
 設定取得クラスのメソッドは、java.lang.objectクラスのメソッドのインヘリッドメソッドを含む。また、メソッドコールの際の引数が不正であれば、java.langクラスのイベントであるjava.lang.IlleghalArgumentExceptionイベントをスロウする。本クラスは、java.lang.objectのメソッドやイベントを継承しているので、プログラマは、java.lang.objectの延長線で、PSRの保持値を利用したプログラムを作成することができる。
 本実施形態では、オブジェクト指向プログラミング言語によるAVC1080@60P/50Pビデオストリームの再生を許可したエントリーをもつストリーム選択テーブルを含むプレイリストの再生手順、インターレース3Dを含むプレイリストの再生手順は、以下のように記述する。
 i)上記プレイリストファイルのファイルパス(bd://1.PLAYLIST:00001)を引数としたBDLocatorクラスのインスタンスを生成する。このBDLocatorクラスのインスタンス変数を"loc"とした場合、BDLocator loc = newBDlocator(bd://1.PLAYLIST:00001)と記述する。
 ii)BDLocatorクラスのインスタンス変数の変数名を引数としたMediaLocatorクラスのインスタンスを生成する。BDLocatorクラスのインスタンス変数の変数名が"loc"であり、MediaLocatorクラスのインスタンス変数の変数名をm1とすれば、
 MediaLocator m1 = new MediaLocator(loc)と記述する。
 iii)MediaLocatorクラスのインスタンス変数の変数名を引数としたjavax.media.Manager.creat再生装置クラスのインスタンス、つまりプレーヤインスタンスを生成する。MediaLocatorクラスのインスタンス変数の変数名がm1であり、プレーヤインスタンスのインスタンス変数の変数名が再生装置であれば、再生装置=Manager.creat再生装置(m1);と記述する。
 iv)最後に、JMFプレーヤインスタンスのメンバー関数であるstart()をコールすることでプレイリスト再生を開始する。プレーヤインスタンスのインスタンス変数の変数名が再生装置であれば、Player.start()と記述する。このような記述によるプレイリスト再生を、状態取得メソッドで取得したケーパビリティ値を用いて条件付けすれば、第6実施形態に示したケーパビリティが存在する場合にのみプレイリスト再生を行わせるコードをオブジェクト指向プログラミング言語で記述することができる。
 HAViデバイスコンフィグレーションについて説明する。BD-J端末のHAViデバイスコンフィグレーションでは、JPEGイメージの復号化画像を背景画像として格納するためのバッググラウンドプレーンデバイス、表示すべき字幕を格納するための字幕プレーンデバイス、ビット長がメニューやガジェットを描画するためのBD-Jプレーンデバイスが重ね合わされることで画面合成を行うというレイヤモデルを採用している。3D出力モードにおいて、これらのバックグラウンドプレーンデバイス、字幕プレーンデバイス、BD-Jプレーンデバイスは何れも、右目プレーンメモリ、左目プレーンメモリから構成されることになる。AVC1080@60P/50Pビデオストリーム、MVC1080@60i/50iビデオストリームの再生時の制限としては、ビデオプレーンデバイスのスケーリングを認めず、またバックグラウンドプレーンを非表示にするというものである。
 以下、BDMVRecording Specificationにおける制約を述べる。PSR29のb4が1に設定された場合、PSRb24のb8、b9が1に設定された場合、プレーヤーでは、AVC1080@60P/50Pビデオストリーム及びMVC1080@60i/50iビデオストリームの再生やビデオスケーリングのサポートを行わない。AVC1080@60P/50Pビデオストリーム及び3Dインターレースビデオストリームの再生がなされている間、バックグラウンドプレーンは、不可視状態に設定されたまま維持されるか、格納内容の更新のみがなされる。AVC1080@60P/50Pビデオストリーム及び3Dインターレースビデオストリームの再生がなされている間、スケーリングAPIのコールはfalseする。これはJavaTVのバックグラウンドプレーン再生制御のセットトランスフォームAPIがfalseになることを意味する。またAWTvideosizeコントロールのサイズ設定APIのコールもfalseする。
 MVC1080@50i/60iの再生、AVC1080@60P/50Pの再生がなされている間、BD-JアプリケーションによるスケーリングAPIのコールはfailする。これは、org.dvb.media.BackgroundVideoPresentationcontrol.setVideoTransformationがfalseすることを意味する。
 古いプレーヤーバージョンについてのJMFプレーヤの挙動は以下の通りである。PSR31のバージョンが0250よりも低い場合、この実装は、バージョンXのプレーヤーがバージョンY(Y>X)のプレイリストを使った場合のJMFプレーヤがプレフェッチされるか又はスタートされたときのシュチエーションに依存する。このシュチエーションにおいて、プレフェッチされ、スタート状態にあるJMFプレーヤの何れかのメソッド使用と同じものをホールドする。BD-Jアプリケーションがバージョン2.5以上のプレイリストを再生する際、互換関連性をさけるコードを使用する。このコードは以下のようにプログラムされたものである
 ・PSR31のバージョンをチェックする。
 ・プレイリストのバージョンと、PSR31のバージョントを比較する。
 ・プレイリストのバージョンよりもPSR31のバージョンが高い場合、再生する。低い場合、オルテネィティブプレイリストや低いバージョンのプレイリストを再生する。
 ・プレイリストのバージョンYがY>Xの場合、リソースアンアベイブルイベントを発行することでfailする。
 プレーヤー機器のBD-Jパッケージでは、プレイリスト情報のプレフェッチを規定したシステムAPI(blulay.prefetched.playlistloagding)が存在している。プレイリストのバージョンYがY>Xになる状況では、このblulay.prefetched.playlistloagdingによるJMFプレーヤの挙動も変わる。blulay.prefetched.playlistloagdingがNoであるか不定値に設定されていればJMFプレーヤを再生すべきではない。プレーヤー機器よりもバージョンが高いプレイリストを再生することは正常な再生を保証しえないからである。もし、JMFプレーヤのメソッド関数であるStartメソッドやSyncStartメソッドがBD-Jアプリケーションからコールされた場合、プレーヤー機器は、BD-Jアプリケーションに対してResourceUnavailableイベントを返す必要がある。
 blulay.prefetched.playlistloagdingがYesに設定されていてもJMFプレーヤを再生すべきではない。プレーヤー機器よりもバージョンが高いプレイリストを再生することは正常な再生を保証しえないからである。もし、JMFプレーヤのメソッド関数であるStartメソッドやSyncStartメソッドがBD-Jアプリケーションからコールされた場合、プレーヤー機器は、BD-Jアプリケーションに対してResourceUnavailableイベントを返す必要がある。
 JavaTVで規定されているように、ResorceAvailableEventを発生した後は、JMFプレーヤをクローズせねばならない。JMFプレーヤがクローズされれば、JMFプレーヤの振る舞いは不定になる。
  (第10実施形態) 
 Blu-ray Rewritableディスクバージョン2.5におけるPGストリーム、IGストリームの制限と、RREFにおけるIGストリームの制限とを述べる。
 PGストリームにおけるプレゼンテーション制御セグメントのアクティブ期間には、オーバラップが存在しているが、IGストリームにおけるインタラクティブ制御セグメントのアクティブ期間には、オーバラップが存在してはならない。これは、PGストリームは、パイプラインでデコードを行うデコーダモデルを意図しているからである。
 n番目のディスプレイセットDSnに属し、PGストリームの対話制御を規定するプレゼンテーション制御セグメントPCSを格納したパケットのプレゼンテーションタイムスタンプの値PTS(DSn[PCS])は、プレゼンテーション制御セグメントのアクティブ期間の終了点を示し、直後のディスプレイセットDSn+1に属するプレゼンテーション制御セグメントPCSを格納したパケットのデコードタイムスタンプの値DTS(DSn+1[PCS])は、プレゼンテーション制御セグメントのアクティブ期間の開始点を示す。
 n番目のディスプレイセットDSnに属し、IGストリームの対話制御を規定するインタラクティブ制御セグメントICSを格納したパケットのプレゼンテーションタイムスタンプの値PTS(DSn[ICS])は、インタラクティブ制御セグメントのアクティブ期間の終了点を示し、直後のディスプレイセットDSn+1に属するインタラクティブ制御セグメントICSを格納したパケットのデコードタイムスタンプの値DTS(DSn+1[ICS])は、インタラクティブ制御セグメントのアクティブ期間の開始点を示す。この場合、異なるディスプレイセットの連続するプレゼンテーション制御セグメント、インタラクティブ制御セグメントの再生時刻は、1フレーム、2フレームの差異をもつ。これはフレームレートに依存する。もし関連するビデオストリームがAVC1080@60P/50Pビデオストリームであれば、
 PTS(DSn[PCS|ICS]) + (90000/frame_rate)×2≦ PTS(DSn+1[PCS|ICS])
 AVC1080@60P/50Pビデオストリームでなければ、
 PTS(DSn[PCS|ICS]) + (90000/frame_rate)  ≦ PTS(DSn+1[PCS|ICS])となる。
 (第11実施形態) 
 これまでの実施形態は、ベースビュービデオストリームと、ディペンデントビュービデオストリームとが多重化された1つのトランスポートストリームを編集するとの前提を採用したが、本実施形態では、ベースビュービデオストリームを含むトランスポートストリームと、ディペンデントビュービデオストリームを含むトランスポートストリームとがインターリーブ配置されている立体視インターリーブドストリームファイルに対して部分削除、分割、統合といった編集操作を実現するものである。
 図50は、立体視インターリーブドストリームファイル(ssifファイル)の記録領域の一例を示す図である。(a)は、ssifファイルを構成する複数のエクステントを示し、(b)は、この記録領域についてのファイルシステム情報を示す。(b)のファイルシステム情報は、SSIFディレクトリのディレクトリファイルと、ssifファイルのファイルエントリーとから構成される。SSIFディレクトリファイルは、SSIFディレクトリのファイル識別記述子と、ssifファイルのファイル識別記述子とから構成される。ssifファイルのファイルエントリーは、記述子タグ、ICBタグ、アロケーション記述子長、アロケーション記述子列から構成される。「記述子タグ」は、自身がファイルエントリである旨を示すタグである「ICBタグ」は、ファイルエントリ自身に関する属性情報を示す。引き出し線は、アロケーション記述子列の構成をクローズアップしている。この引出線に示すように、エクステントの先頭アドレスと、データ長との組みを(n1:len1,n2:len2,n3:len3・・・・)を、エクステントを識別するエクステントIDに対応付けて示している。つまり本図(a)においてssifファイルは、エクステントEXT2[1]、EXT1[2]、EXT2[3]、EXT1[4]、EXT2[5]、EXTss[6]、EXT2[7]、EXTss[8]、EXT2D[9]、EXT2D[10]という10個のエクステントからなる。これらのエクステントの先頭アドレス(LBN=n1,n2,n3・・・・・)、及び、エクステントのデータ長(len1、len2、len3・・・・・)は、ssifファイルに対応するファイルエントリーのアロケーション記述子に記載される。記録装置、再生装置は、アロケーション記述子に記載された先頭アドレス以降を、エクステント実体であると認識するから、かかるアロケーション記述子に記載されているLBNをより大きなものに書き換え、データ長を短くすれば、エクステントの先端部分は削除されることになる。また、かかるアロケーション記述子に記載されている先頭アドレスをそのままにして、データ長をより短いものにすれば、エクステントの終端部を削除することができる。
 ファイルシステムに対応する機器は、このアロケーション記述子に沿ってファイルアクセスを行うから、アロケーション記述子の記述から除外されると、このアロケーション記述子による記述から除外された部分は、もはやファイルの一部として認識されることはない。図50において、括弧書き[x]内の数値は、エクステントIDである。このエクステントIDが取りうる任意の値を「x」とすると、ssifファイルは、(1)2D出力モード、3D出力モードの双方でアクセスされるエクステントEXT1[x]、(2)3D出力モードにおいてのみアクセスされるエクステントEXT2[x]、(3)2D出力モードにおいてのみアクセスされるエクステントEXT2D[x]、(4)EXT1[x]のエクステントの複製であって、3D出力モードにおいてのみアクセスされるエクステントEXTss[x]という4種類のエクステントによって構成されるファイルである。
 ssifファイルは、利用される局面に応じて3つの形態でオープンされる。1つはm2tsファイル、2つは、ファイルベース、3つはファイルディペンデントである。
 図51は、ssifファイルのエクステントが、どのファイルの構成要素になるかという帰属関係を示す。
 ssifファイルのエクステントは、1つが一個のデータブロックを構成するか、又は、複数のエクステントが集まって一個のデータブロックを構成する。データブロックには、ベースビューコンポーネントのClosed-GOP、Open-GOPを包含したベースビューデータブロック、ディペンデントビューコンポーネントのOpen-GOPを包含したディペンデントビューデータブロックがあり、ディペンデントビューデータブロック、ベースビューデータブロックが交互に並ぶというのがssifファイルにおけるインターリーブ形式である。説明の単純化を期するため、データブロックは一個のエクステントにより構成されるという前提を導入する。
 図51におけるディペンデントビューストリームのデータブロック、ベースビューのデータブロックには、1,2,3,4といったデータブロック番号が付与されている。この番号は、ssifファイルにおけるデータブロックの順位を示していて、同じ番号のデータブロックが共にssifファイルから読み出される。このようにエクステントEXT2[x]、エクステントEXTss[x]、エクステントEXT2D[x]という3つのエクステントの組合せを変えることで、ssifファイルの様々なバリエーションを形成する。
 図51の第1段目は、ssifファイルのエクステントを示す。第2段目は、ベースビューのデータブロックと、2D用のベースビューデータブロックとから構成されるファイル(m2tsファイル)を示す。m2tsファイルは、EXT1[2]、EXT1[4]、EXT2D[9]、EXT2D[10]といった4つのエクステントから構成される。これらのエクステントは、MVC1080@24p/60i/50iベースビュービデオストリームを含むメインTSを構成するベースビューデータブロックB[1],B[2],B2D[3],B2D[4]を含むので、ファイルをオープンすることにより、ベースビューデータブロックと、2D用のベースビューデータブロックとは、メモリに読み出されることになる。
 第3段目は、ベースビューのデータブロックのみから構成されるファイル(ファイルベース)を示す。ファイルベースは、EXT1[2]、EXT1[4]、EXTss[6]、EXTss[6]といった4つのエクステントから構成される。これらのエクステントは、ベースビューデータブロックB[1],B[2],Bss[3],Bss[4]を含むので、ファイルベースをオープンすることにより、ベースビューデータブロックは、メモリに読み出されることになる。
 第4段目は、ディペンデントビューデータブロックのみから構成されるファイル(ファイルディペンデント)を示す。ファイルディペンデントは、EXT2[1]、EXT2[3]、EXT2[5]、EXT2[7]といった4つのエクステントから構成される。これらのエクステントは、ディペンデントビューデータブロックD[1],D[2],D[3],D[4]を含むので、ファイルディペンデントをオープンすることにより、MVC1080@24p/60i/50iディペンデントビュービデオストリームを含むサブTSを構成するディペンデントデータブロックを構成するソースパケット列は、メモリに読み出されることになる。
 ssifファイルを構成するエクステント値のうち、必要なものを読み出すことで、ssifファイルは、m2tsファイル、ファイルベース、ファイルディペンデントの何れかとしてオープンされることになる。
 ssifファイルのエクステントがアロケーション記述子が上述したように規定されることにより、ssifファイルは出力モードに応じた態様で記録装置によって読み取られることになる。上記のEXT1[x]、EXT2[x]、EXT2D[x]、EXTss[x]は、ファイルベース、ファイルディペンデント、m2tsファイルといった別々のストリームファイルを構成するものであるから、これらのエクステントは、リードバッファのアンダーフロー招かない充分な長さが必要である。以下、ファイルベース、ファイルディペンデント、m2tsファイルを構成するエクステントの下限値について説明する。ファイルベースのEXT1[x]の下限値は、3D出力モードの再生時における各ベースビューデータブロックの最後のエクステントから次のディペンデントビューデータブロックの最初のエクステントまでのジャンプ期間と、当該ディペンデントビューデータブロックの最後のエクステントから次のベースビューデータブロックの最初のエクステントまでのジャンプ期間とを通じて、ダブルバッファのアンダーフローを生じさせないように決定される。ここでのダブルバッファは、第1リードバッファ、第2リードバッファから構成される。第1リードバッファは、Blu-ray ReadOnlyディスクの2D出力モード再生装置のリードバッファと同一物である。
 3D出力モードの再生において、n番目のベースビューデータブロックを構成する最後のエクステントからp番目のディペンデントビューデータブロックを構成する最初のエクステントまでのジャンプが時間TFjump3D(n)であり、p番目のディペンデントビューデータブロックを構成する最後のエクステントから(n+1)番目のベースビューデータブロックを構成する最初のエクステントまでのジャンプが時間TBjump3D(n)を要するものとする。ここでTFjump3D(n),TBjump3D(n)は、BDー3Dプレーヤモデルにおける3D出力モードでのジャンプ時間である。
 そして各ベースビューデータブロックが第1リードバッファへ速度Rud3Dで読み出され、各ディペンデントビューデータブロックが第2リードバッファへ速度Rud3Dで読み出され、かつ、リードバッファ1からビデオデコーダへ前記ベースビューデータブロックが平均速度Rbext3Dで転送されるとき、EXT1[n]の下限値は、以下の条件Aの式で表される。
 <条件A> EXT1[n]の下限値 ≧(Rud3D×Rbext3D)/(Rud3D-Rbext3D) ×(TFjump3D(n)+EXT2[n]/(Rud3D+TBjump3D(n))) 

 EXT2[n]の下限値は、3D出力モードの再生時において、あるディペンデントビューデータブロックのエクステントから次のベースビューデータブロックのエクステントまでのジャンプ期間と、当該ベースビューデータブロックのエクステントから次のディペンデントビューデータブロックのエクステントまでのジャンプ期間とを通して再生装置におけるダブルバッファにアンダーフローを生じさせないように決定される。(n+1)番目のベースビューデータブロックを構成する最後のエクステントから(p+1)番目のディペンデントビューデータブロックを構成する最初のエクステントまでのジャンプが時間TFjump3D(n+1)であり、かつ、リードバッファ2からデコーダへ前記ディペンデントビューストリームファイルが平均速度Rdext3Dで転送されるとき、EXT2[n]の下限値は以下の条件Bの式で表される。速度Rud3D、平均速度Rbext3Dは、BDー3Dプレーヤモデルにおける3D出力モードでの転送時間である。
 <条件B>
 EXT2[n]の下限値 ≧(Rud3D×Rbext3D)/(Rud3D-Rdext3D) ×(TBjump3D(n)+EXT1[n+1]/(Rud3D+TFjump3D(n+1))) 

 EXT2Dの下限値は、非3D出力モードの再生時において、各ベースビューデータブロックの最後のエクステントから次のベースビューデータブロックの最初のエクステントまでのジャンプ期間中において、再生装置におけるリードバッファのバッファアンダーフローを生じないように決定される。
 n番目のベースビューデータブロックから(n+1)番目のベースビューデータブロックまでのジャンプが時間Tjump2D(n)を要し、各ベースビューデータブロックが,リードバッファに速度Rud2Dで読み出され、かつ、リードバッファからビデオデコーダへ前記ベースビューデータブロックが平均速度Rbext2Dで転送されるとき、EXT2Dの下限値は以下の条件Cの式で表される。
  <条件C> EXT2Dの下限値 ≧(Rud2D×Rbext2D)/(Rud2D-Rbext2D)×Tjump2D(n)
 EXTssは、以下のように算出される。ここであるエクステントの読み出しから、次のエクステントへのジャンプにあたって、そのジャンプの直前のバッファ占有量は、充分なものでなければならない。そうすると、立体視インターリーブドストリームファイルの読み出し時にあたってリードバッファは、1つのエクステントによって充填される必要があり、バッファアンダーフローの発生を避けねばならない。よって最小エクステントサイズであるSextssは、以下の条件Dを満たす値として算出される。
 <条件D>
 EXTss[Byte]≧ceil[(Tjump+Tdiff×Rud72)/(1000×8))×(Rextss×192)/(Rud72×188-Rextss×192)] 
 ここで、Rud72は、3D出力モードにおけるBD-ROMドライブからの72mbpsというデータレートであり、Tdiffは、ディペンデントビューデータブロックを構成するエクステントEXT2[n]を読み出すにあたっての遅延時間である。
 以上が、BD-ROM part3-1 2.4フォーマットに従ったエクステントのアロケーションである。Blu-ray Rewritableバージョン3.1フォーマットにおいて立体視インターリーブドストリームファイルのアロケーションは、これと同様のアロケーションがされなければならない。このアロケーションがなければ、シームレス再生を保障しえない。
 以上でssifファイルを構成するエクステントについての説明を終える。ssifファイル構成の説明を終えたところで、ssifファイルにおけるストリーム構成に焦点をあてて説明を進める。ssifファイルのストリーム構成とは、ベースビューコンポーネントに、ベースビデオストリームを含むメインのトランスポートストリーム(メインTS)が格納され、ディペンデントビューコンポーネントに、ディペンデントビュービデオストリームを含むサブのトランスポートストリーム(サブTS)が格納されるというものである。よって、ベースビューコンポーネント、ディペンデントビューコンポーネントは、エレメンタリストリーム生成→トランスポートストリーム生成→トランスポートストリームを構成するTS(トランスポートストリーム)パケットのソースパケット化という過程を経て生成される。
 図52は、ディペンデントビューのデータブロック、及び、ベースビューのデータブロックの生成の過程を示す図である。
 図52の右側は、エクステントEXT1[x]に格納されるベースビューデータブロック(B[x],B2D[x],Bss[x])がどのように多重化されるかを模式的に示す。まず、ベースビューコンポーネントから構成されるClosed-GOP501、及び、オーディオストリームのアクセスユニットである複数のオーディオフレーム507を、それぞれPESパケット列502、及び、508に変換し、TSパケット503、及び、509に変換する。
 同じく、PGストリーム504、及び、インタラクティブグラフィクス510のデータをそれぞれPESパケット列505、及び、511に変換し、更にTSパケット506、及び、512に変換する。これらのTSパケットを1本のストリームに多重化することで、ベースビューデータブロックは構成される。かかるベースビューデータブロックを格納したのが、前の図のEXT1[x]、EXT2D[x]、EXTss[x]である。また、かかる過程で得られた、ベースビュービデオストリームを含むトランスポートストリームを「メインTS」という。
 以上のようにベースビューデータブロックのClosed-GOPは、親画面ビデオストリーム、オーディオストリーム、PGストリーム、IGストリームが多重化される。
 図52の左側は、エクステントEXT2[x]に格納されるディペンデントビューデータブロック(D[x])がどのように多重化されるかを模式的に示す。まず、ディペンデントビューコンポーネントから構成されるOpen-GOP601、オーディオストリームを構成する複数のオーディオフレーム604を、それぞれPESパケット列602、及び、605に変換し、TSパケット603、及び、606に変換する。同じく、PGストリーム607、及び、インタラクティブグラフィクス610のデータをそれぞれPESパケット列608、及び、611に変換し、更にTSパケット609、及び、612に変換する。これらのTSパケットを1本のストリームに多重化することで、ディペンデントビューデータブロックは構成される。かかるディペンデントビューデータブロックを格納したのが、本図のEXT2[x]である。また、かかるトランスポートストリーム化(多重化)の過程で得られた、ディペンデントビュービデオストリームを含むトランスポートストリームを「サブTS」という。
 図53は、クリップ情報ファイルと、プレイリストと、立体視インターリーブドストリームファイルとの関係を示す。右側は、立体視インターリーブドストリームファイルを示し、左側はクリップ情報ファイルを示す。
 矢印split1,2は、右側における立体視インターリーブドストリームファイルを分割することで、m2tsファイル、ファイルディペンデントが得られることを示す。真ん中は第1段目にm2tsファイルを構成するエクステントEXT1[x]、EXT2D[x]を示し、第2段目にm2tsファイル用のクリップ情報である00001.clpi内の基本エントリーマップ(EP_map)、第3段目に3Dプレイリスト、第4段目に、エントリーマップ立体視版であるEP_map_SS、第5段目にファイルディペンデントのエクステントEXT2[x]を示す。
 左側におけるファイルベース及びファイルディペンデント用のクリップ情報ファイルは、特徴点情報におけるEP_map_SS、ファイルベース用のエクステントスタートポイント情報、ファイルディペンデントのエクステントを取り出すためのエクステントスタートポイント情報を含む。矢印split3,4は、ファイルベース用のエクステントスタートポイント情報、ファイルディペンデントのエクステントを取り出すためのエクステントスタートポイント情報が、立体視インターリーブドストリームファイルを分割する途を与えることを模式的に示す。
 次に、特徴点情報について説明する。特徴点情報SSはEP_map_SSを含み、EP_map_SSは、基本エントリーマップと同様、複数のエントリーポイントから構成されている。しかしエントリーマップの立体視版には、以下の制限が加えられている点が異なる。つまり、アプリケーションタイプ「=1」のクリップ情報(プライマリビデオストリームというアプリケーションタイプのクリップ情報である)のエクステントID値によって指示されるエクステントが、ベースビュービデオストリームのPTS_EP_Startによって参照されるソースパケットをもつ場合、アプリケーションタイプ=8(立体視再生)のクリップ情報の同じエクステントID値によって指示されるエクステントは、ディペンデントビューストリームの同じ値のPTS_EP_Startによって参照されるソースパケットを含んでいなければならない。
 図54は、基本エントリーマップ(EP_map)と、エントリーマップの立体視版(EP_map_SS)とを示す図である。本図において、第5段目は、ディペンデントビューデータブロックと、ベースビューデータブロックとの複数の組みを示す。第4段目は、ディペンデントビューデータブロック及びベースビューデータブロックを構成するソースパケット列を示す。第1段目は、MVC1080@24p/60i/50iディペンデントビュービデオストリームのディペンデントビューコンポーネントによって構成されるOpen-GOP、MVC1080@24p/60i/50iベースビュービデオストリームのベースビューコンポーネントによって構成されるClosed-GOPの組みを示す。そして第2段目は、基本エントリーマップであるEP_mapを示し、第3段目は、エントリーマップの立体視版であるEP_map_SSを示す。
 本図のEP_mapで表記されているプレゼンテーションタイムスタンプt1,t11,t31のうち、任意のものをPTS(i)という。ソースパケット番号a11,a31,a51のうち、PTS(i)に対応するものをSPN(i)という。よってEP_mapのSPN(i)にて指示されているパケット(m)から、EP_mapのSPN(i+1)にて指示されているパケット(n)の直前のパケット(n-1)までの範囲にはPTS(i)にて再生されるべきベースビューコンポーネントを先頭に配置したClosed-GOPが存在する。
 また、本図EP_map_SSで表記されているプレゼンテーションタイムスタンプt1,t11,t31のうち、任意のものをPTS(i)という。また、本図EP_map_SSで表記されているソースパケット番号a1,a21,a41のうち、PTS(i)に対応するものをSPN(j)という。EP_map_SSのSPN(j)にて指示されているパケット(u)から、EP_map_SSのSPN(j+1)にて指示されているパケット(v)の直前のパケット(v-1)までの範囲には、PTS(i)にて再生されるべきディペンデントビューを先頭に配置したOpen-GOPが存在することになる。
 これらベースビューのビューコンポーネントによって構成されるClosed-GOPと、ベースビューのビューコンポーネントによって構成されるOpen-GOPとの組みは、単独デコードが可能であり、これらのClosed-GOP、Open-GOPを構成する複数のソースパケットを記録媒体から読み出し、ビデオデコーダに投入することにより1秒当りの立体視映像を構成することができる。よってEP_map_SSに基づき、MVC1080@24p/60i/50iビデオストリームにおけるベースビューのビューコンポーネントによって構成されるClosed-GOPと、MVC1080@24p/60i/50iビデオストリームにおけるディペンデントビューのビューコンポーネントによって構成されるOpen-GOPとが占めている論理ブロックを空き領域に解放することにより、視点間の不整合を発生させることなく、ベースビュービデオストリーム及びディペンデントビュービデオストリームを部分的に削除することができる。
 このようなMVC1080@24p/60i/50iディペンデントビュービデオストリームのディペンデントビューデータブロック、MVC1080@24p/60i/50iベースビュービデオストリームにおけるベースビューデータブロックを連動した削除を実行することにより、m2tsファイル、ファイルベース、ファイルディペンデントにおける削除箇所の整合をとることができる。
 ベースビュービデオストリームのGOP(i)の先頭に位置するソースパケットと、ディペンデントビュービデオストリームのGOP(i)の先頭に位置するソースパケットとが、連続するエクステントの組み(インターリーブエクステントユニット)に属する場合、MVC1080@24p/60i/50iのベースビュービデオストリームのGOP(i)先頭のソースパケット、及び、MVC1080@24p/60i/50iのディペンデントビュービデオストリームのGOP(i)の先頭ソースパケットをポインティングするエントリーが、基本となるEP_map及び拡張であるEP_map_SSの双方に追加されるので、基本となるEP_map及び拡張であるEP_map_SSの双方を用いれば、MVC1080@24p/60i/50iベースビュービデオストリームのGOP(i)、及び、MVC1080@24p/60i/50iディペンデントビュービデオストリームのGOP(i)の連続読み出しを保障することができる。
 MVC1080@24p/60i/50iベースビュービデオストリームにおけるClosed-GOPの先頭に位置するIDRピクチャのアドレスが再生開始時刻に対応付けられていることにより、MVC1080@24p/60i/50iベースビュービデオストリーム、MVC1080@24p/60i/50iディペンデントビューストリームビデオストリームのうち、Closed-GOPを構成するソースパケットがどこからどこまで存在するかを把握することができる。そのような把握を容易とし、ビデオストリームの記録領域の一部を空き領域に解放するという処理を効率的に行うえるというのが、値が0x0002又は0x0004のID1が付与されたエクステンションデータにEP_map、EP_map_SSを設けた意図である。
 図55は、EP_map、EP_map_SS、アロケーション記述子及びエクステントスタートポイント情報を用いたエクステントの所在特定の一例を示す。
 図55の第1段目から第3段目の左側は図50の第1段目から第3段目と同じである。右側に、アロケーション記述子、エクステントスタートポイントの具体的な値が記載されている点が図50と異なる。第1段目の右側は、m2tsファイルのアロケーション記述子を示す。m2tsファイルにおけるエクステントは、ssifファイルのEXT1[x]、EXT2[x]、EXT2D[x]を抜き出したものだから、m2tsファイルのアロケーション記述子では、独立体系のエクステントIDが、各エクステントに付与される。m2tsファイルのアロケーション記述子は、EXT1[2],EXT1[4]のアドレス(n2、n4)と、データ長(len1、len4)とを示すと共に、EXT2Dのアドレス(n9、n10)と、データ長(len9、len10)を示す。かかるアロケーション記述子がSTREAMディレクトリのm2tsファイルのファイルエントリーに記載されると、立体視インターリーブドストリームファイルのEXT1[x]、EXT2D[x]は、m2tsファイルのエクステントとして認識されることになる。
 図55の第2段目の右側は、ファイルベースのエクステントの先頭アドレスと、ファイルベースのエクステントを取り出すためのエクステントスタートポイント情報とを対応付けて示す。左側によると、ファイルベースのエクステントの先頭は、論理ブロック番号(LBN)=n2,n4,n6,n8の論理ブロックに存在する。右側のエクステントは、これらのLBNをソースパケット番号に変換することで得られたソースパケット番号SPN(n2),SPN(n4),SPN(n6),SPN(n8)が記載されている。
 図55の第3段目の右側は、ファイルディペンデントのエクステントの先頭アドレスと、ファイルディペンデントについてのエクステントスタートポイント情報とを対応付けて示す。左側によると、ファイルディペンデントのエクステントの先頭は、論理ブロック番号(LBN)=n1,n3,n5,n7の論理ブロックに存在する。右側のエクステントは、これらのLBNをソースパケット番号に変換することで得られたソースパケット番号SPN(n1),SPN(n3),SPN(n5),SPN(n9)が記載されている。
 以上のようなm2tsファイルのアロケーション記述子、及び、ファイルベースのエクステントスタートポイント情報、ファイルディペンデントのエクステントスタートポイント情報を用いることで、m2tsファイルのエクステント、ファイルベースのエクステント、ファイルディペンデントのエクステントは個別に読み出される。
 図56は、BDMVディレクトリに記録されたプレイリストファイル(mplsファイル)によって定義されるプレイリスト、立体視プレイリストを示す。第1段目は、BDMVディレクトリのプレイリスト情報であり、第2段目は、ベースビューデータブロック、第3段目は、立体視プレイリスト、第4段目は、ディペンデントビューデータブロックを示す。
 矢印rf0,rf1,rf2,rf3は、BDMVディレクトリのプレイリスト情報のプレイアイテム情報におけるclip_information_file_nameに記述されているファイル名00001と、拡張子m2tsとを組合せることによる再生経路の参照を示す。この場合、エクステントEXT1[2],EXT1[4],EXT2D[9],EXT2D[10]によってBaseビデオ側の再生経路が構成される。
 矢印rf4,rf5,rf6,rf7は、立体視プレイリスト情報のプレイアイテム情報により指定される再生経路の参照を示す。この場合、EXT1[2],EXT1[4],EXTss[6],EXTss[8]を用いてBaseビデオ側の再生経路が構成される。
 矢印rf8,rf9,rf10,rf11は、立体視プレイリスト情報のサブプレイアイテム情報により指定される再生経路を示す。この場合、EXT2[1],EXT2[3],EXT2[5],EXT2[7]を用いて、ディペンデントビュービデオ側の再生経路が構成される。これらのプレイアイテム情報、サブプレイアイテム情報により指定される再生経路を構成するデータブロックは、プレイアイテム情報におけるclip_information_file_nameに記述されているファイル名と、拡張子ssifとを組合せてファイルオープンを行うことで読み出すことができる。
 インターリーブドストリームファイルにメインTS、サブTSを格納する場合、BDMVディレクトリのプレイリストのプレイアイテム情報におけるclip_information_file_nameは、m2tsファイルのファイル名を記述する。立体視プレイリストのプレイアイテム情報におけるclip_information_file_nameは、ファイルベースのファイル名を記述する。ファイルベースは、仮想的なファイルであり、そのファイル名は、インターリーブドストリームファイルと同じものなので、インターリーブドストリームファイルのファイル名をプレイアイテム情報におけるclip_information_file_nameに記述しておけばよい。STN_table_SSのストリーム登録情報におけるref_to_subclip_entry_idは、ファイルディペンデントのファイル名を記述する。ファイルディペンデントのファイル名は、インターリーブドストリームファイルの識別番号に、1を加算したものとする。
 以上のように、MVC1080@24p/60i/50iビデオストリームのベースビューデータブロックと、MVC1080@24p/60i/50iディペンデントビュービデオストリームのディペンデントビューデータブロックとを1つのssifファイルに格納しつつも、ssifファイルを、m2tsファイル、ファイルベース、及び、ファイルディペンデントのうち、何れかのファイルとしてオープンすることができるので、デコーダ側では、ssifファイルを通常のストリームファイルと同様に取り扱うことができる。よって、MVC1080@24p/60i/50iベースビュービデオストリーム、MVC1080@24p/60i/50iディペンデントビュービデオストリームの格納方式に、積極的にssifファイルを取り入れることができる。
 STN_table_SSをもたない通常のプレイリスト情報は、clip_information_file_nameにm2tsファイルが記述されているから、m2tsファイルのエクステントのみを参照することがわかる。STN_table_SSをもつプレイリスト情報は、メインパス情報のプレイアイテム情報のclip_information_file_nameにファイルベースのファイル名が記載され、サブパス情報のSubPlayItemにファイルディペンデントのファイル名が記載されていることから、プレイリスト情報のプレイアイテム情報のclip_information_file_name、SubPlayItemのclip_information_file_nameに従い、ファイルをオープンすることで3D出力モードにおいてデコーダに供給されるべきデータブロックを順次アクセスしてゆくことができる。
 プレイリストの選択に応じて、対応するMVC1080@24p/60i/50iベースビュービデオストリーム、MVC1080@24p/60i/50iディペンデントビュービデオストリームの組みが必ず選択されるようにするという連動選択の意図が、上記データ構造から明確に把握される。
 光ディスクでは、この3Dプレイリストが再生の対象になる。プレイリストの類型には、部分削除、分割、統合がある。図57は、プレイリストに対する編集の3つの類型を示す。同図(a)は、削除がなされたムービープレイリスト、3Dプレイリストを示す。ssifファイルのうち、EXT2[1]、EXT1[2]が削除されたケースを示す。(b)は、ssifファイルのうち、EXT2[3]、EXT1[4]の直後で分割されたケースを示す。(c)は、2つのmplsプレイリスト、2つの3Dプレイリストが1つに統合されたケースを示す。
 以上が3Dプレイリストについての説明である。続いて、AVC1080@60P/50Pビデオストリームについて説明する。
 図58は、先端部分を削除するケースを示す。具体的にいうと、同図(a)のように先端部分を削除範囲として指定して削除する。これらの削除範囲に属するベースビューコンポーネント、ディペンデントビューコンポーネントが、(b)のエクステントEXT2[1]のハッチング部分、及び、エクステントEXT1[2]のハッチング部分に存在する。削除後においてエクステントEXT2[1]、エクステントEXT1[2]の先頭位置は、n11、n12となり、データ長がlen11、len12になったものとする。この場合、ssifファイルにおけるエクステントEXT2[1]のアロケーション記述子、エクステントEXT1[2]のアロケーション記述子は、(c)のようになる。つまりエクステントEXT2[1]の先頭LBN及びデータ長をn11,len11とし、エクステントEXT1[2]の先頭アドレスLBNをn12、データ長をlen12とする。以上のように、ベースビューコンポーネントを格納したエクステントEXT1[2]と、ディペンデントビューコンポーネントを格納したエクステントEXT2[1]とを併せて部分的に削除する。m2tsファイルにおけるID1のエクステントのアロケーション記述子は(d)のようになる。つまりID1のエクステントの先頭LBNはn1からn11に書き換えられ、データ長はlen1からlen11に書き換えられる。残りのエクステントには書き換えがなされない。
 図58(e)は、ファイルベースのエクステントスタートポイント情報を示す。このファイルベースのエクステントスタートポイント情報には、元のファイルベースのアロケーション記述子のうちエクステントEXT1[2]のソースパケット番号SPN(n2)、エクステントEXT1[4]のソースパケット番号SPN(n4)、エクステントEXTss[6]のソースパケット番号SPN(n16)が存在する。最初のものは、先端削除に伴う書き換え(n2→n12)が施されている。
 図58(f)は、ファイルディペンデントのエクステントスタートポイント情報を示す。(e)によると、ファイルディペンデントのエクステントスタートポイント情報には、元のファイルベースのアロケーション記述子のうちエクステントEXT2[1]のソースパケット番号SPN(n1)、エクステントEXT2[3]のソースパケット番号SPN(n3)、エクステントEXT2[5]のソースパケット番号SPN(n5)、エクステントEXT2[7]のソースパケット番号SPN(n7)が存在する。最後のものは、途中削除に伴う書き換え(n1→n11)が施されている。
 図59は、終端部分を削除するケースを示す。具体的にいうと、図(a)のように終端部分を削除範囲として指定して削除する。これらの削除範囲に属するMVC1080@24p/60i/50iベースビュービデオストリームのベースビューコンポーネント、MVC1080@24p/60i/50iディペンデントビュービデオストリームのディペンデントビューコンポーネントが、(b)のエクステントEXT2[7]のハッチング部分、及び、エクステントEXTss[8],EXT2D[10]のハッチング部分に存在する。削除後においてエクステントEXT2[7]はデータ長がlen17、エクステントEXTss[8],EXT2D[10]のデータ長がlen18,len20になったものとする。この場合、ssifファイルにおけるエクステントEXT2[7]のアロケーション記述子、エクステントEXTss[8],EXT2D[10]のアロケーション記述子は、(c)のようになる。つまりエクステントEXT2[7]のデータ長はlen17に書き換えられ、エクステントEXTss[8],EXT2D[10]のデータ長はlen18,len20に書き換えられる。以上のように、ベースビューコンポーネントを格納したエクステントEXTss[8],EXT2D[10]と、ディペンデントビューコンポーネントを格納したエクステントEXT2[7]とを併せて部分的に削除する。
 また、m2tsファイルにおけるエクステントID=10のエクステントのアロケーション記述子は(d)のようになる。つまりエクステントID=10のエクステントのデータ長はlen10からlen20に書き換えられる。残りのエクステントには書き換えがなされない。(e)はファイルベースについてのエクステントスタートポイントであり、(f)は、ファイルディペンデントについてのエクステントスタートポイントである。これらに記載されたソースパケットにも書き換えは発生しない。
 図60は、途中部分を削除するケースを示す。具体的にいうと、同図(a)のように途中部分を削除範囲として指定して削除する。これらの削除範囲に属するMVC1080@24p/60i/50iベースビュービデオストリームのベースビューコンポーネント、MVC1080@24p/60i/50iディペンデントビュービデオストリームのディペンデントビューコンポーネントが、(b)のエクステントEXT2[5]のハッチング部分、及び、エクステントEXTss[6],EXT2D[9]のハッチング部分に存在する。削除後においてエクステントEXT2[5]は先頭アドレスがn15,データ長がlen15、エクステントEXTss[6],EXT2D[9]の先頭アドレスがn16,n19、データ長がlen16,len19になったものとする。
 この場合、削除範囲よりも前に位置するエクステントと、削除範囲より後に位置するエクステントとが別々のファイルになる。図60(c)は、削除範囲よりも前に位置するssifファイルのアロケーション記述子列を示し、図60(d)は、削除範囲よりも後に位置するssifファイルのアロケーション記述子列を示す。(c)によると、削除範囲より前のssifファイルのアロケーション記述子には、元のssifファイルのアロケーション記述子のうちエクステントID=1から=4までのアロケーション記述子が存在する。
 また削除範囲より後のssifファイルのアロケーション記述子には、元のssifファイルのアロケーション記述子のうち、エクステントID=5から=10までのアロケーション記述子が存在する。これらのうちエクステントEXT2[5]のアロケーション記述子、エクステントEXTss[6],EXT2D[9]のアロケーション記述子は、(d)のようになる。つまりエクステントEXT2[5]の先頭LBN及びデータ長はn15,len15に書き換えられ、エクステントEXTss[6],EXT2D[9]の先頭アドレスはn16,n19、データ長はlen16,len19に書き換えられる。
 図61(a)は、途中部分よりも前に位置するm2tsファイルのアロケーション記述子列を示し、図61(b)は、途中部分よりも後に位置するm2tsファイルのアロケーション記述子列を示す。(a)によると、削除範囲より前のm2tsファイルのアロケーション記述子には、元のm2tsファイルのアロケーション記述子のうちエクステントID=2,=4のアロケーション記述子が存在する。
 また途中部分より後のm2tsファイルのアロケーション記述子には、(b)のように元のm2tsファイルのアロケーション記述子のうち、エクステントID=9,=10のアロケーション記述子が存在する。エクステントID=9のエクステントについては、データ長がlen9からlen19に書き換えられている。
 図61(c)は、途中部分よりも前に位置するファイルベースのエクステントスタートポイント情報を示し、図61(d)は、途中部分よりも前に位置するファイルベースのエクステントスタートポイント情報を示す。図61(c)によると、削除範囲より前のファイルベースのエクステントスタートポイント情報には、元のファイルベースのアロケーション記述子のうちエクステントEXT1[2]のソースパケット番号SPN(n2)、エクステントEXT1[4]のソースパケット番号SPN(n4)、エクステントEXTss[6]のソースパケット番号SPN(n6)が存在する。最後のものは、途中削除に伴う書き換え(n6→n16)が施されている。
 (d)によると、途中部分より前のファイルベースのエクステントスタートポイント情報には、元のファイルベースのアロケーション記述子のうちエクステントEXT2[1]のソースパケット番号SPN(n1)、エクステントEXT2[3]のソースパケット番号SPN(n3)、エクステントEXT2[5]のソースパケット番号SPN(n15)が存在する。最後のものは、途中削除に伴う書き換え(n5→n15)が施されている。
 図61(e)は、途中部分よりも後に位置するファイルベースのエクステントスタートポイント情報を示し、図61(f)は、削除範囲よりも後に位置するファイルディペンデントのエクステントスタートポイント情報を示す。(e)によると、削除範囲より後のファイルベースのエクステントスタートポイント情報には、元のファイルベースのアロケーション記述子のうちエクステントEXTss[8]のソースパケット番号SPN(n8)が存在する。
 (f)によると、途中部分より後のファイルディペンデントのエクステントスタートポイント情報には、元のファイルベースのアロケーション記述子のうちエクステントEXT2[7]のソースパケット番号SPN(n7)が存在する。
 以上のようなssifファイルに対して部分削除、分割、統合といった操作を実行するには、図40から図49までに述べたメインTSに対する処理を、サブTSについても実行すればよい。一方、ssifファイルにおけるエクステントにはEXT1[1],EXT2[x],EXT2D[x],EXTss[x]という4つの類型が存在するので、エクステント部分削除は、図41に示したものに代え、図62に示すものを実行する。
 図62は、エクステント部分削除の処理を示すフローチャートである。本フローチャートにおける変数In,Outは、処理対象となる削除範囲の開始点、終了点を特定するための制御変数である。
 ステップS141は、時間軸における削除範囲のIn点、Out点をEP_mapを用いてSPN(In)、SPN(Out)に変換する。ステップS142では、SPN(In)、SPN(Out)を媒体上の論理アドレスに変換して、対象エクステントにおける削除範囲の所在を示すLBN(SPN(In))、LBN(SPN(Out))を得る。ステップS143は、削除範囲LBN(SPN(In))、LBN(SPN(Out))によって規定される削除範囲は、複数エクステントにわたって存在するか否かの判定である。削除範囲が1つのエクステント内に存在する場合、ステップS144に移行する。ステップS144は、削除範囲が存在するエクステントは、EXT1であるかの判定である。もしYesであれば、ステップS145においてEXT1のアロケーション記述子を書き換える。EXT1でなければ、ステップS146において、EXT2Dのアロケーション記述子を書き換えると共に、ステップS147において、EXTssのアロケーション記述子を書き換える。
 削除範囲が複数エクステントにわたって存在する場合、ステップS148において削除範囲をエクステント境界に沿って分割し、分割で得られた個々の削除範囲について、ステップS151~ステップS153の処理を繰り返す(ステップS149)。ステップS151~ステップS153は、削除範囲が存在するエクステントが、EXT1であるか否かを判定し(ステップS150)、もしYesであれば、EXT1のアロケーション記述子を書き換え(ステップS151)、EXT1でなければ、EXT2Dのアロケーション記述子を書き換えると共に(ステップS152)、EXTssのアロケーション記述子を書き換える(ステップS153)というものである。このループの終了条件は、ステップの判定結果がYesになることであり、この終了条件が満たされるまで、制御部は同じ状態を維持することになる。
 ステップS154は、時間軸における削除範囲のIn点、Out点をEP_map_SSを用いてSPN(In)、SPN(Out)に変換する。ステップS155では、SPN(In)、SPN(Out)を媒体上の論理アドレスに変換して、対象エクステントにおける削除範囲の所在を示すLBN(SPN(In))、LBN(SPN(Out))を得る。ステップS156は、削除範囲LBN(SPN(In))、LBN(SPN(Out))によって規定される削除範囲は、複数エクステントにわたって存在するか否かの判定である。削除範囲が1つのエクステント内に存在する場合、ステップS157に移行する。ステップS157においてEXT2のアロケーション記述子を書き換える。
 削除範囲が複数エクステントにわたって存在する場合、ステップS158において削除範囲をエクステント境界に沿って分割し、分割で得られた個々の削除範囲について、ステップS161の処理を繰り返す(ステップS160)。ステップS161は、EXT2Dのアロケーション記述子を書き換えるというものである。このループが一巡する度に、制御変数In,Outが次のものに切り替えられるので、この制御変数で指示されるデータ要素は、本ループの処理に供されてゆく。ループが一巡する度に、複数のデータ要素のそれぞれを処理に供してゆくのが処理構造である。
  <備考>
 以上、本願の出願時点において、出願人が知り得る最良の実施形態について説明したが、以下に示す技術的トピックについては、更なる改良や変更実施を加えることができる。各実施形態に示した通り実施するか、これらの改良・変更を施すか否かは、何れも任意的であり、実施する者の主観によることは留意されたい。
 (extended_editability_flagの配置場所)
 これまでの実施形態において、編集可否情報であるeditability_flag、extended_editability_flagはインデックスファイル内に配置して、編集可否はBDMV全体を範疇とすることを示したが、編集可否情報は、インデックスファイルではなく、プレイリストファイルあるいは、クリップ情報ファイルの中に設けられてもよい。
 プレイリストファイルに編集可否情報(editability_flag、extended_editability_flag)を設けた場合には、プレイリスト単位で編集可否情報を管理することができ、また、クリップ情報ファイルに編集可否情報(editability_flag、extended_editability_flag)を設けた場合には、クリップストリームファイル単位で編集可否情報を管理することができる。その他、本実施例で示したのと同様の効果をもたらすことができる方法である限りにおいて、BDMVディレクトリ配下に置かれるどのファイル内に2DコンテンツとMVC1080@24p/50i/60iの3Dビデオコンテンツのそれぞれの編集可否情報を管理するための情報が設けられてもよい。
 (対象となるムービ記録フォーマット)
 対象となるムービ記録フォーマットは、立体視再生可能なビデオストリーム、オプショナルなフレームレートでの再生が可能なビデオストリームに対処できるバージョンであるとしたが、画像の高解像度化、画素の高階調化を可能とするムービ記録フォーマットのバージョンであってもよい。また、リアルタイム記録フォーマットのバージョンであってもよい。
 (集積回路の実施形態)
 各実施形態に示した再生部、記録部、編集部の構成のうち、記録媒体のドライブ部や、外部とのコネクタ等、機構的な部分を排除して、論理回路や記憶素子に該当する部分、つまり、論理回路の中核部分をシステムLSI化してもよい。システムLSIとは、高密度基板上にベアチップを実装し、パッケージングしたものをいう。複数個のベアチップを高密度基板上に実装し、パッケージングすることにより、あたかも1つのLSIのような外形構造を複数個のベアチップに持たせたものはマルチチップモジュールと呼ばれるが、このようなものも、システムLSIに含まれる。
 ここでパッケージの種別に着目するとシステムLSIには、QFP(クッド フラッド アレイ)、PGA(ピン グリッド アレイ)という種別がある。QFPは、パッケージの四側面にピンが取り付けられたシステムLSIである。PGAは、底面全体に、多くのピンが取り付けられたシステムLSIである。
 これらのピンは、電源供給やグランド、他の回路とのインターフェイスとしての役割を担っている。システムLSIにおけるピンには、こうしたインターフェイスの役割が存在するので、システムLSIにおけるこれらのピンに、他の回路を接続することにより、システムLSIは、再生装置の中核としての役割を果たす。
 この集積回路のアーキテクチャは、フロントエンド部と、信号処理部と、バックエンド部と、メディアI/Oと、メモリコントローラと、ホストマイコンとから構成され、メディアI/O、メモリコントローラを通じて、再生装置におけるドライブやメモリ、送受信部と接続されている。再生装置におけるドライブには、リードオンリーメディアのドライブ、ローカルストレージのドライブ、リムーバブルメディアのドライブ等がある。
 フロントエンド処理部は、プリプログラムされたDMAマスタ回路やI/Oプロセッサ等から構成され、パケット処理全般を実行する。このパケット処理には、デマルチプレクサによる処理が該当する。再生装置のメモリに確保された、リードバッファ、各種プレーンメモリ、各種バッファ間でDMA転送を実現することにより、上述したようなパケット処理を実現する。
 信号処理部は、信号処理プロセッサやSIMDプロセッサ等から構成され、信号処理全般を実行する。信号処理には、ビデオデコーダによるデコードやオーディオデコーダによるデコードがある。
 バックエンド部は、加算器、フィルタから構成され、AV出力処理全般を行う。AV出力処理には画素処理があり、かかる画素処理によってレイヤ合成のための画像重畳、リサイズ、画像フォーマット変換がなされる。また、デジタル/アナログ変換等を併せて実行する。
 メディアI/Oは、ドライブ、ネットワークとのインターフェイスである。
 メモリコントローラは、メモリアクセスのためのスレーブ回路であり、フロントエンド部、信号処理部、バックエンド部の要求に応じて、パケットやピクチャデータのメモリの読み書きを実現する。 このメモリコントローラ75を通じたメモリの読み書きによって、メモリは、リードバッファやビデオプレーン、グラフィクスプレーン、ビデオデコーダにおける各種バッファとして機能することになる。
 ホストマイコンは、MPU,ROM,RAMから構成される。このホストマイコンにおけるCPUは、命令フェッチ部、デコーダ、実行ユニット、レジスタファイル、プログラムカウンタを有している。そして、これまでの実施形態で述べた各種処理を実行するプログラムは、組込プログラムとして、基本入出力システム(BIOS)、様々なミドルウェア(オペレーションシステム)と共に、このホストマイコンにおけるマイコン内のROMに記憶されている。よって再生装置の主たる機能は、このシステムLSI内に組込んでおくことができる。
 (プログラムの実施形態)
 各実施形態に示したプログラムをコンピュータコードにて構成して、コンピュータ読み取り可能な非一時的な記録媒体に記録することで記録装置、再生装置に供給してもよい。
 (AVC1080@60P/50Pビデオストリームの符号化条件)
 PIDフィルタからトランスポートバッファまでのビットレートは、28Mbpsとなる。このRts1は、TS_レコーディング_レートに記載される。エレメンタリバッファ1、エレメンタリストリームバッファは、3.75Mバイト、エレメンタリピクチャバッファ1は、デコーデッドピクチャバッファであり、12.382912Mバイトとなる。
 AVC1080@60P/50PビデオストリームのフォーマットID、HDMVTSがAVC1080@60P/50Pビデオストリームを含むと48、44、50、53に設定される。AVC1080@60P/50Pビデオストリームにおけるレベル4.2では、SPSのレベルidcは42に設定される。PSR29 b4が1に設定され、AVC1080@60P/50Pビデオストリームのケーパビリティが存在するとした場合、デコーダは、ハイプロファイルのレベル4.2をサポートする。
 (AVC1080@60P/50Pビデオストリームにおける最大フレーム数)
 AVC1080@60P/50Pビデオストリームにおける最大フレーム数について述べる。ここでトランスポートバッファからマルチプレクスドバッファへの転送レートをRx1といい、マルチプレクスドバッファからエレメンタリバッファへの転送レートをRbx1というものとする。そしてframe_mbs_only_flagは、そのピクチャに1つの画像サンプルで構成されるフレームマクロブロックのみがふくまれていることを示すフラグである。この場合、AVC1080@60P/50PビデオストリームにおいてGOPにおける表示可能なフレーム数の最大数は、1920×1080、50/60Hzの場合、frame_mbs_only_flagは1、frame_mbs_only_flagは1、Rbxは2.8Mbps、Rxは1.2×2.8Mbps、最大フレーム数は50/60となる。Rxは1.2×frame_mbs_only_flagは1、Rbxは2.8Mbps、Rxは1.2×2.8Mbps、最大フレーム数は50/60、最大フレーム数は50/60となる。frame_mbs_only_flagは1、Rbxは1.5Mbps、Rxは1.2×1.5Mbps、最大フレーム数は100/120となる。
 (マクロブロックについての制限)
 1つ当りのスライスの最大サイズは、1マクロブロック行(マクロブロックロウ又はマクロブロックのペアロウ)である。スライスは、1つ以上のマクロブロックロウから構成される。デコーデッドピクチャバッファにおける完全なフィールドペアやフレームの最大数は、ISO/IEC14496の最大DPBサイズと比較して、レベル4.1、4.2、1920×1080で4フレームに設定される。
 メインプロファイル最小圧縮比(MinCR)と、Minprofileの同じプロファイルは、以下のように制限される。ムービーストリームにおいてメインプロファイルが4.1、4.2であれば、MinCRは4となる。
 SPSのlevel_idcが4.1、4.2を指示する場合ピクチャは、1つのピクチャあたり4以上のスライスからなるマルチスライスによって構成される。何れのスライスのマクロブロック数も、マクロブロック総数の1/2を越えてはならない。各スライスにおけるマクロブロックの行数は、カレントピクチャの高さに合致した行数にするか、インターレース符号化モードに等価な行数になるべきである。frame_mbs_only_flag=「1」の1920×1080フォーマットのスライスは、17マクロブロックロウをもつ。1920×1080においてmbs_
 mb_adaptive_frame_field_type=「1」である場合、偶数スライスは16マクロブロック、奇数スライスは18マクロブロックロウとなる(16/18/16/18コンフィメーション)。 mb_adaptive_frame_field_typeは、0に設定された場合、シーケンスにおける符号化ピクチャがコード化されたフレーム、コード化されたフィールドを含むことを示す。1に設定された場合、シーケンスにおける符号化ピクチャがフレームマクロブロックのみを含むコードフレームであることを示す。
 (AVC1080@60P/50Pビデオストリームにおいてシーケンスパラメータセットで認められるパラメータの組合せ)
 AVC1080@60P/50PビデオストリームのSPSパラメータについて説明する。1920×1080フォーマットにおいて、AVC1080@60P/50PビデオストリームのSPSパラメータで許容される組合せは、垂直サイズは1080、pic_width_in_mbs_minus1が119、Pic_height_in_map_unit_minus1が67、フレームレートは59.94/50、方式はプログレッシブとなる。
 ここでpic_width_in_mbs_minus1は、マクロブロックユニットにおけるデコーデッドピクチャの幅を示す。Pic_height_in_map_unit_minus1は、デコードされたフレーム/フィールドのスライスグループユニットにおける高さを示す。
 フォーマット=4やフレームレート=3or4は、STN_table_SSのストリーム属性SSに設定される。立体視1920×1080インターレースビデオケーパビリティ(PSR24のb8)が『1』に設定された場合、MVCフォーマットで許可されるパラメータの組合せは、以下の通りである。垂直サイズは1080、pic_width_in_mbs_minus1が119、Pic_height_in_map_unit_minus1が33、フレームレートは29.57/25、方式はインターレースというパラメータの組合せが許容される。
 pic_width_in_mbs_minus1は、マクロブロックユニットにおけるデコーデッドピクチャの幅を示す。Pic_height_in_map_unit_minus1は、デコードされたフレーム/フィールドのスライスグループユニットにおける高さを示す。
 (MVC1080@60i/50iベースビュービデオストリーム及びMVC1080@60i/50iディペンデントビュービデオストリームの最大フレーム数)
 Rx1はトランスポートバッファからマルチプレクスドバッファへの転送レートを示し、Rbx1はマルチプレクスドバッファからエレメンタリバッファへの転送レートを示す。
 mbs_only_flagが『0』であるとベースビデオストリームのRbx1、Rbx2の値は以下の通りである。
 1920×1080/29.97Hzにおいて最大フィールドが60フィールドとすると、レベル4.1でRx1は1.2×40Mbps、Rbx1は40Mbps、60フィールドとなる。レベル4でRx1は1.2×24Mbps、Rbx1は24Mbpsとなる。
 1920×1080/25Hzにおいて最大フィールドが60フィールドとするうと、レベル4.1でRx1は1.2×40Mbps、Rbx1は40Mbpsとなる。レベル4でRx1は1.2×24Mbps、Rbx1は24Mbpsとなる。
 1920×1080/29。97Hzにおいて最大フィールドが120フィールドとすると、Rx1は1.2×15Mbps、Rbx1は15Mbpsとなる。
 1920×1080/25Hzにおいて最大フィールドが100フィールドとすると、Rx1は1.2×15Mbps、Rbx1は15Mbpsとなる。
 本発明に係る情報記録媒体は放送波あるいはネットワーク配信により供給される3D映像、あるいは3D対応ビデオカメラなどによりユーザが撮影した3D映像を格納することができる。したがって、本発明は、ユーザの3D映像コンテンツを保護し、多様な機器でより安全に視聴を可能にする技術として、民生機器産業において大いに利用される可能性を有する。
 1000 光ディスク
 1001 2D/3D記録装置
 1002 記録装置
 1003 リモコン
 1004 テレビ放送表示装置

Claims (25)

  1. 記録媒体であって、
     ストリームファイルと、インデックスファイルとが記録され、
     前記インデックスファイルは、エディタビリティフラグと、エクステンディッドエディタビリティフラグとを含み、
     エディタビリティフラグは、機器に本記録媒体が装填された際、当該機器によって、本記録媒体がエディタブルメディアとして取り扱われるか否かを規定する情報であり、 オンに設定されることで、本記録媒体がエディタブルメディアとして取り扱われストリームファイルに対する編集が可能になる旨を示し、オフに設定されることで、立体視映像の記録及び編集に対応していないレガシー機器では、本記録媒体がエディタブルメディアとして取り扱われずストリームファイルに対する編集が不可になる旨を示し、
     エクステンディッドエディタビリティフラグは、立体視映像の記録及び編集に対応した非レガシー機器に本記録媒体が装填された際、オンに設定されることで、エディタビリティフラグがオフを示していたとしても、本記録媒体が、当該非レガシー機器によってエディタブルメディアとして取り扱われストリームファイルに対する編集が可能になる旨を規定する
     ことを特徴とする記録媒体。
  2. 記録媒体にはメディアムービーデータベース領域が存在しており、
     前記メディアムービーデータベース領域は、ファイルシステムにおける特定ディレクトリ配下に存在する複数のサブディレクトリの階層と、サブディレクトリの各階層に存在するファイルとによって構成され、前記インデックスファイルは、特定ディレクトリに記録され、前記ストリームファイルは、ストリーム用サブディレクトリに記録され、
     前記インデックスファイルは、メディアムービーデータベース領域内に立体視コンテンツが存在するか否かを示す存否フラグを含み、
     存否フラグが立体視コンテンツ存在を示すことを条件にして、エクステンディッドエディタビリティフラグはインデックスファイルに生成されることを特徴とする請求項1記載の記録媒体。
  3. 存否フラグがオンに設定された場合、エディタビリティフラグはオフに設定され、
     非レガシー機器が前記記録媒体をエディタブルメディアとして扱うのは、エクステンディッドエディタビリティフラグがオンに設定された場合であり、エクステンディッドエディタビリティフラグがオフに設定された場合、記録媒体は、非レガシー機器によってエディタブルメディアとして扱われない
     ことを特徴とする請求項2記載の記録媒体。
  4.  前記ストリームファイルには、立体視映像を示す複数のビデオストリームを含むものと、含まないものとがあり、
     前記メディアムービーデータベース領域にはプレイリスト情報が記録され、
     前記プレイリスト情報には、立体視映像を示す複数のビデオストリームに対しての再生経路を定義する 立体視プレイリスト情報と、1つのビデオストリームに対して再生経路を定義する通常のプレイリスト情報とがあり、
     プレイリスト情報が立体視プレイリスト情報である場合、存否フラグはオンに設定される
     ことを特徴とする請求項3記載の記録媒体。
  5.  記録媒体からストリームファイルを読み出して再生する再生装置であって、
     記録媒体からインデックスファイル、及び、ストリームファイルを読み出す読出手段と、
     読み出されたストリームファイル内のビデオストリームを再生する再生手段とを含み、
     前記インデックスファイルは、エディタビリティフラグを含み、
     エディタビリティフラグは、機器に本記録媒体が装填された際、当該機器によって、本記録媒体がエディタブルメディアとして取り扱われるか否かを規定する情報であり、オンに設定されることで、本記録媒体がエディタブルメディアとして取り扱われストリームファイルに対する編集が可能になる旨を示し、オフに設定されることで、立体視映像の記録及び編集に対応していないレガシー機器では、本記録媒体がエディタブルメディアとして取り扱われずストリームファイルに対する編集が不可になる旨を示し、
     前記再生手段は、エディタビリティフラグの他にエクステンディッドエディタビリティフラグがインデックスファイルに存在する場合、エクステンディッドエディタビリティフラグがオンに設定されることで、エディタビリティフラグがオフに設定されたとしても、記録媒体をエディタブルメディアとして扱ってビデオストリームの再生を行う
     ことを特徴とする再生装置。
  6. 記録媒体にはメディアムービーデータベース領域が存在しており、
     前記メディアムービーデータベース領域は、ファイルシステムにおける特定ディレクトリ配下に存在する複数のサブディレクトリの階層と、サブディレクトリの各階層に存在するファイルとによって構成され、前記インデックスファイルは、特定ディレクトリに記録され、前記ストリームファイルは、ストリーム用サブディレクトリに記録され、
     前記インデックスファイルは、メディアムービーデータベース領域内に立体視コンテンツが存在するか否かを示す存否フラグを含み、
     存否フラグが存在する旨を示している場合、再生装置の接続された表示装置に立体視表示ケーパビリティが存在することを要件にして、記録媒体のローディング時において、再生装置の出力モードを立体視モードに設定し、存否フラグが存在する旨を示していない場合、又は、再生装置の接続された表示装置に立体視表示ケーパビリティが存在しない場合、再生装置の出力モードを平面視モードに設定する
     ことを特徴とする請求項5記載の再生装置。
  7.  存否フラグがオンに設定された場合、エディタビリティフラグはオフに設定され、
     エクステンディッドエディタビリティフラグがオンを示している場合、記録媒体をエディタブルメディアとして再生し、オフを示している場合、記録媒体を非エディタブルメディアとして再生する
     ことを特徴とする請求項6記載の再生装置。
  8.  前記ストリームファイルには、立体視映像を示す複数のビデオストリームを含むものと、含まないものとがあり、
     前記メディアムービーデータベース領域にはプレイリスト情報が記録され、

     前記プレイリスト情報には、立体視映像を示す複数のビデオストリームに対しての再生経路を定義する 立体視プレイリスト情報と、1つのビデオストリームに対して再生経路を定義する通常のプレイリスト情報とがあり、
     前記読出手段は、プレイリスト情報で指定されたビデオストリームを読み出し、
     前記再生手段は、読み出されたビデオストリームにおけるビューコンポーネントのデコードを行うビデオデコーダを備える
      ことを特徴とする請求項7記載の再生装置。
  9.  記録装置であって、
     エンコード処理を行うことでビデオストリームを得るエンコーダと、
     ビデオストリームと、インデックスファイルとを記録媒体に書き込む書込手段とを備え、
     前記インデックスファイルはエディタビリティフラグを含み、インデックスファイルを記録媒体に書き込むにあたって、エディタビリティフラグにオン、オフの何れかの値を設定すると共にエディタビリティフラグにエクステンディッドエディタビリティフラグを対応付け、
     エディタビリティフラグは、機器に本記録媒体が装填された際、当該機器によって、本記録媒体がエディタブルメディアとして取り扱われるか否かを規定する情報であり、オンに設定されることで、本記録媒体がエディタブルメディアとして取り扱われストリームファイルに対する編集が可能になる旨を示し、オフに設定されることで、立体視映像の記録及び編集に対応していないレガシー機器では、本記録媒体がエディタブルメディアとして取り扱われずストリームファイルに対する編集が不可になる旨を示し、
     エクステンディッドエディタビリティフラグは、立体視映像の記録及び編集に対応した非レガシー機器に本記録媒体が装填された際、オンに設定されることで、エディタビリティフラグがオフを示していたとしても、本記録媒体が、当該非レガシー機器によってエディタブルメディアとして取り扱われストリームファイルに対する編集が可能になる旨を規定する
     ことを特徴とする記録装置。
  10.  前記記録媒体にはメディアムービーデータベース領域が存在しており、
     前記メディアムービーデータベース領域は、ファイルシステムにおける特定ディレクトリ配下に存在する複数のサブディレクトリの階層と、サブディレクトリの各階層に存在するファイルとによって構成され、
     前記書込手段は、前記インデックスファイルを特定ディレクトリに書き込み、前記ストリームファイルを、ストリーム用サブディレクトリに書き込み、
     メディアムービーデータベース領域への書き込みにあたって、存否フラグをインデックスファイル内に生成し、メディアムービーデータベース領域内に立体視コンテンツが存在するか否かに従い、存否フラグの値を設定する
     ことを特徴とする請求項9記載の記録装置。
  11.  記録媒体へのインデックスファイルの書き込みにあたって、機器のモード設定に応じてエクステンディッドエディタビリティフラグにオン、オフの何れかの値を設定し、非レガシー機器が前記記録媒体をエディタブルメディアとして扱うのは、エクステンディッドエディタビリティフラグがオンに設定された場合であり、エクステンディッドエディタビリティフラグがオフに設定された場合、非レガシー機器は、記録媒体をエディタブルメディアとして扱わない
     ことを特徴とする請求項10記載の記録装置。
  12.  前記ストリームファイルには、立体視映像を示す複数のビデオストリームを含むものと、含まないものとがあり、
     前記書込手段はメディアムービーデータベース領域に、プレイリスト情報を書き込み、
     前記プレイリスト情報には、立体視映像を示す複数のビデオストリームに対しての再生経路を定義する 立体視プレイリスト情報と、1つのビデオストリームに対して再生経路を定義する通常のプレイリスト情報とがあり、
     メディアムービーデータセット領域に書き込まれるべきプレイリスト情報が立体視プレイリスト情報である場合、存否フラグはオンに設定される
     ことを特徴とする請求項11記載の記録装置。
  13.  記録媒体であって、ストリームファイルと、インデックスファイルとを含み、
     ストリームファイルはビデオストリームを含み、前記ビデオストリームには、フレームレートがマンダトリなフレームレートであり、プログレッシブピクチャから構成されるものと、フレームレートがオプショナルなフレームレートであり、プログレッシブピクチャから構成されるものとがあり、
     エディタビリティフラグは、機器に本記録媒体が装填された際、当該機器によって、本記録媒体がエディタブルメディアとして取り扱われるか否かを規定する情報であり、オンに設定されることで本記録媒体がエディタブルメディアとして取り扱われストリームファイルに対する編集が可能になる旨を示し、オフに設定されることで、オプショナルなフレームレートによるプログレッシブピクチャの記録及び編集に対応していないレガシー機器では、本記録媒体がエディタブルメディアとして取り扱われずストリームファイルに対する編集が不可能になる旨を示し、
     エクステンディッドエディタビリティフラグは、オプショナルなフレームレートによるプログレッシブピクチャの記録及び編集に対応した非レガシー機器に本記録媒体が装填された際、オンに設定されることで、エディタビリティフラグがオフを示していたとしても、本記録媒体が、当該非レガシー機器によってエディタブルメディアとして取り扱われストリームファイルに対する編集が可能になる旨を規定する
     ことを特徴とする記録媒体。
  14.  記録媒体にはプレイリスト情報が記録され、
     プレイリスト情報は、複数の再生区間情報から構成され、再生区間情報は、時間軸における再生区間の開始点及び終了点を示す情報と、当該再生区間において再生が許可されるエレメンタリストリームを示すストリーム選択テーブルとを含み、
     フレームレートがオプショナルなフレームレートであり、ピクチャがプログレッシブピクチャであるビデオストリームのエントリーが、何れか1つのプレイリスト情報における再生区間情報のストリーム選択テーブルに存在する場合、かかるエントリーの存在を条件にして、エクステンディッドエディタビリティフラグはインデックスファイルに生成される
     ことを特徴とする請求項13記載の記録媒体。
  15.  非レガシー機器は前記記録媒体をエディタブルメディアとして扱うのは、エクステンディッドエディタビリティフラグがオンに設定された場合であり、エクステンディッドエディタビリティフラグがオフに設定された場合、非レガシー機器は、記録媒体をエディタブルメディアとして扱わない
     ことを特徴とする請求項14記載の記録媒体。
  16.  再生装置であって、
     記録媒体からインデックスファイル、及び、ストリームファイルを読み出す読出手段と、
     読み出されたストリームファイル内のビデオストリームを再生する再生手段とを含み、
     前記インデックスファイルは、エディタビリティフラグを含み、
     エディタビリティフラグは、機器に本記録媒体が装填された際、当該機器によって、本記録媒体がエディタブルメディアとして取り扱われるか否かを規定する情報であり、オンに設定されることで、本記録媒体がエディタブルメディアとして取り扱われストリームファイルに対する編集が可能になる旨を示し、オフに設定されることで、オプショナルなフレームレートによるプログレッシブピクチャの記録及び編集に対応していないレガシー機器では、本記録媒体がエディタブルメディアとして取り扱われずストリームファイルに対する編集が不可になる旨を示し、
     前記再生手段は、エディタビリティフラグの他にエクステンディッドエディタビリティフラグがインデックスファイルに存在する場合、エクステンディッドエディタビリティフラグがオンに設定されることで、エディタビリティフラグがオフに設定されたとしても、記録媒体をエディタブルメディアとして扱ってビデオストリームの再生を行う
     ことを特徴とする再生装置。
  17.  前記記録媒体にはプレイリスト情報が記録され、
     プレイリスト情報は、複数の再生区間情報から構成され、再生区間情報は、時間軸における再生区間の開始点及び終了点を示す情報と、当該再生区間において再生が許可されるエレメンタリストリームを示すストリーム選択テーブルとを含み、
     フレームレートがオプショナルなフレームレートであり、ピクチャがプログレッシブピクチャであるビデオストリームのエントリーが、プレイリスト情報における何れかの再生区間情報のストリーム選択テーブルに存在する場合、かかるエントリーの存在を条件にして、エクステンディッドエディタビリティフラグはインデックスファイルに生成され、
     再生装置は、
     カレントストリーム番号を格納するストリーム番号レジスタと、
     プレイリスト情報におけるカレント再生区間情報の番号を格納する再生区間情報番号レジスタと、
     プレイリスト情報におけるカレント再生区間情報のストリーム選択テーブルに記載された複数のエレメンタリストリームのうち、カレントストリーム番号に対応するものを分離する多重分離手段とを備え、
     前記再生手段は、
     分離で得られたエレメンタリストリームのうち、フレームレートがオプショナルレートであり、プログレッシブピクチャから構成されるビデオストリームをデコードするビデオデコーダを含む
     ことを特徴とする請求項16記載の再生装置。
  18.  フレームレートがオプショナルなフレームレートであり、ピクチャがプログレッシブピクチャであるビデオストリームのエントリーが、プレイリスト情報における何れかの再生区間情報のストリーム選択テーブルに存在する場合、エディタビリティフラグはオフに設定され、
     エクステンディッドエディタビリティフラグがオンを示している場合、記録媒体をエディタブルメディアとして再生し、オフを示している場合、記録媒体を非エディタブルメディアとして再生する
     ことを特徴とする請求項17記載の再生装置。
  19.  記録装置であって、
     エンコード処理を行うことでビデオストリームを得るエンコーダと、
     ビデオストリームと、インデックスファイルとを記録媒体に書き込む書込手段とを備え、
     前記インデックスファイルはエディタビリティフラグを含み、インデックスファイルを記録媒体に書き込むにあたって、エディタビリティフラグにオン、オフの何れかの値を設定すると共にエディタビリティフラグにエクステンディッドエディタビリティフラグを対応付け、
     エディタビリティフラグは、機器に本記録媒体が装填された際、当該機器によって、本記録媒体がエディタブルメディアとして取り扱われるか否かを規定する情報であり、オンに設定されることで、本記録媒体がエディタブルメディアとして取り扱われストリームファイルに対する編集が可能になる旨を示し、オフに設定されることで、オプショナルなフレームレートによるプログレッシブピクチャの記録及び編集に対応していないレガシー機器では、本記録媒体がエディタブルメディアとして取り扱われずストリームファイルに対する編集が不可になる旨を示し、
     エクステンディッドエディタビリティフラグは、オプショナルなフレームレートによるプログレッシブピクチャの記録及び編集に対応した非レガシー機器に本記録媒体が装填された際、オンに設定されることで、エディタビリティフラグがオフを示していたとしても、本記録媒体が、当該非レガシー機器によってエディタブルメディアとして取り扱われストリームファイルに対する編集が可能になる旨を規定する
     ことを特徴とする記録装置。
  20.  前記書込手段は、記録媒体にプレイリスト情報を書き込み、
     プレイリスト情報は、複数の再生区間情報から構成され、再生区間情報は、時間軸における再生区間の開始点及び終了点を示す情報と、当該再生区間において再生が許可されるエレメンタリストリームを示すストリーム選択テーブルとを含み、
     フレームレートがオプショナルなフレームレートであり、ピクチャがプログレッシブピクチャであるビデオストリームのエントリーが、プレイリスト情報における何れかの再生区間情報のストリーム選択テーブルに存在する場合、かかるエントリーの存在を条件にして、エクステンディッドエディタビリティフラグをインデックスファイルに生成する
     ことを特徴とする請求項19記載の記録装置。
  21.  記録媒体へのインデックスファイルの書き込みにあたって、機器のモード設定に応じてエクステンディッドエディタビリティフラグにオン、オフの何れかの値を設定し、
     非レガシー機器が前記記録媒体をエディタブルメディアとして扱うのは、エクステンディッドエディタビリティフラグがオンに設定された場合であり、エクステンディッドエディタビリティフラグがオフに設定された場合、非レガシー機器は、記録媒体をエディタブルメディアとして扱わない
     ことを特徴とする請求項20記載の記録装置。
  22.  記録媒体からストリームファイルを読み出して再生する処理をコンピュータ上で実行する再生方法であって、
     記録媒体からインデックスファイル、及び、ストリームファイルを読み出す読出ステップと、
     読み出されたストリームファイル内のビデオストリームを再生する再生ステップとを含み、
     前記インデックスファイルは、エディタビリティフラグを含み、
     エディタビリティフラグは、機器に本記録媒体が装填された際、当該機器によって、本記録媒体がエディタブルメディアとして取り扱われるか否かを規定する情報であり、オンに設定されることで、本記録媒体がエディタブルメディアとして取り扱われストリームファイルに対する編集が可能になる旨を示し、オフに設定されることで、立体視映像の記録及び編集に対応していないレガシー機器では、本記録媒体がエディタブルメディアとして取り扱われずストリームファイルに対する編集が不可になる旨を示し、
     前記再生ステップは、エディタビリティフラグの他にエクステンディッドエディタビリティフラグがインデックスファイルに存在する場合、エクステンディッドエディタビリティフラグがオンに設定されることで、エディタビリティフラグがオフに設定されたとしても、記録媒体をエディタブルメディアとして扱ってビデオストリームの再生を行う
     ことを特徴とする再生方法。
  23.  コンピュータ上で実行される記録方法であって、
     エンコード処理を行うことでビデオストリームを得るエンコードステップと、
     ビデオストリームと、インデックスファイルとを記録媒体に書き込む書込ステップとを含み、

     前記インデックスファイルはエディタビリティフラグを含み、インデックスファイルを記録媒体に書き込むにあたって、エディタビリティフラグにオン、オフの何れかの値を設定すると共にエディタビリティフラグにエクステンディッドエディタビリティフラグを対応付け、
     エディタビリティフラグは、機器に本記録媒体が装填された際、当該機器によって、本記録媒体がエディタブルメディアとして取り扱われるか否かを規定する情報であり、オンに設定されることで、本記録媒体がエディタブルメディアとして取り扱われストリームファイルに対する編集が可能になる旨を示し、オフに設定されることで、立体視映像の記録及び編集に対応していないレガシー機器では、本記録媒体がエディタブルメディアとして取り扱われずストリームファイルに対する編集が不可になる旨を示し、
     エクステンディッドエディタビリティフラグは、立体視映像の記録及び編集に対応した非レガシー機器に本記録媒体が装填された際、オンに設定されることで、エディタビリティフラグがオフを示していたとしても、本記録媒体が、当該非レガシー機器によってエディタブルメディアとして取り扱われストリームファイルに対する編集が可能になる旨を規定する
     ことを特徴とする記録方法。
  24.  記録媒体であって、プレイリスト情報と、ストリームファイルとが記録され、
     プレイリスト情報のうち、インターレース画像による立体視再生に対応していないバージョンのもののエクステントデータには、第1の値が設定された識別情報が付与されていて、
     プレイリスト情報であって、インターレース画像による立体視再生に対応するバージョンのプレイリスト情報のエクステントデータには、第2の値が設定された識別情報が付与されており、
     第2の値の識別情報が付与されたエクステントデータは立体視用のストリーム選択テーブルを含み、当該立体視用のストリーム選択テーブルは、インターレースタイプのビューコンポーネントからなるディペンデントビュービデオストリームのパケット識別子を含むエントリーを、インターレースビデオのストリーム属性と対応付けて示す
     ことを特徴とする記録媒体。
  25.  再生装置であって、
     当該装置のバージョンを格納しているバージョンレジスタと、
     記録媒体からトランスポートストリームを読み出す読出手段と、
     読み出されたトランスポートストリームに対して多重分離を行う多重分離部とを備え、
     インターレース映像による立体視に対応した特定のバージョンでなければ、プレイリスト情報におけるエクステントのうち、第1の値の識別子に対応付けられたものからストリーム選択テーブルを取得し、
     装置のバージョンが、インターレース映像による立体視に対応した特定のバージョンであれば、プレイリスト情報におけるエクステンションデータのうち、第2の値の識別子に対応付けられたものからストリーム選択テーブルを取得して、
     取得したストリーム選択テーブルにおいて、ストリーム属性に対応付けられたストリームエントリー内のパケット識別子を用いて、インターレースビデオの属性をもつディペンデントビュービデオストリームの多重分離を多重分離部に行わせ、
     前記第1の値はプログレッシブビデオによる立体視の再生のみが可能な機器によって認識される値であり、第2の値はプログレッシブビデオによる立体視再生及びインターレースビデオによる立体視再生が可能な機器によって認識される値である
     ことを特徴とする再生装置。
PCT/JP2012/006444 2011-10-28 2012-10-05 旧来のフォーマットとの互換を維持しつつも、記録内容を編集することができる記録媒体、再生装置、記録装置、再生方法、記録方法 Ceased WO2013061523A1 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
CA2816434A CA2816434C (en) 2011-10-28 2012-10-05 Recording medium, playback device, recording device, playback method and recording method for editing recorded content while maintaining compatibility with old format
MX2013005604A MX2013005604A (es) 2011-10-28 2012-10-05 Medio de grabacion, dispositivos de reproduccion, dispositivo de grabacion, metodo de reproduccion y metodo de grabacion para editar contenido grabado mientras se mantiene la compatibilidad con formatos viejos.
PH1/2013/501011A PH12013501011A1 (en) 2011-10-28 2012-10-05 Recording medium, playback device, recording device, playback method and recording method that enable editing of recorded content while maintaining compatibility with old format
SG2013035076A SG190189A1 (en) 2011-10-28 2012-10-05 Recording medium, playback device, recording device, playback method and recording method for editing recorded content while maintaining compatibility with old format
EP12843430.5A EP2772918A4 (en) 2011-10-28 2012-10-05 RECORDING MEDIUM, PLAYING DEVICE, RECORDING DEVICE, PLAYING METHOD AND RECORDING METHOD FOR PROCESSING A RECORDED CONTENT, INCLUDING COMPATIBILITY WITH AN OLD FORMAT
JP2013520311A JP5363685B2 (ja) 2011-10-28 2012-10-05 旧来のフォーマットとの互換を維持しつつも、記録内容を編集することができる記録媒体、再生装置、記録装置
RU2013122634/28A RU2013122634A (ru) 2011-10-28 2012-10-05 Носитель записи, устройство воспроизведения, устройство записи, способ воспроизведения и способ записи для редактирования записанного контента при поддержании совместимости со старым форматом
US13/882,328 US9218109B2 (en) 2011-10-28 2012-10-05 Recording medium, playback device, recording device, playback method and recording method for editing recorded content while maintaining compatibility with old format
CN201280003781.9A CN103314409B (zh) 2011-10-28 2012-10-05 能够维持与旧格式的兼容且能对记录内容进行编辑的记录介质、再现装置、记录装置、再现方法、记录方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161552929P 2011-10-28 2011-10-28
US61/552,929 2011-10-28

Publications (1)

Publication Number Publication Date
WO2013061523A1 true WO2013061523A1 (ja) 2013-05-02

Family

ID=48167380

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/006444 Ceased WO2013061523A1 (ja) 2011-10-28 2012-10-05 旧来のフォーマットとの互換を維持しつつも、記録内容を編集することができる記録媒体、再生装置、記録装置、再生方法、記録方法

Country Status (10)

Country Link
US (1) US9218109B2 (ja)
EP (1) EP2772918A4 (ja)
JP (2) JP5363685B2 (ja)
CN (1) CN103314409B (ja)
CA (1) CA2816434C (ja)
MX (1) MX2013005604A (ja)
PH (1) PH12013501011A1 (ja)
RU (1) RU2013122634A (ja)
SG (1) SG190189A1 (ja)
WO (1) WO2013061523A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016039171A1 (ja) * 2014-09-12 2016-03-17 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム、並びに記録媒体
WO2016039169A1 (ja) * 2014-09-12 2016-03-17 ソニー株式会社 再生装置、再生方法、情報処理装置、情報処理方法、プログラム、および記録媒体

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8935719B2 (en) 2011-08-25 2015-01-13 Comcast Cable Communications, Llc Application triggering
KR102142735B1 (ko) 2012-09-07 2020-08-07 소니 주식회사 송신 장치, 송신 방법, 수신 장치 및 수신 방법
US9414114B2 (en) 2013-03-13 2016-08-09 Comcast Cable Holdings, Llc Selective interactivity
US20140327737A1 (en) 2013-05-01 2014-11-06 Raymond John Westwater Method and Apparatus to Perform Optimal Visually-Weighed Quantization of Time-Varying Visual Sequences in Transform Space
US20150221286A1 (en) * 2014-02-05 2015-08-06 Sony Corporation Content controlled display mode switching
US11076205B2 (en) 2014-03-07 2021-07-27 Comcast Cable Communications, Llc Retrieving supplemental content
BR102014007666B1 (pt) * 2014-03-28 2023-01-10 Samsung Eletrônica Da Amazônia Ltda Método para autenticação de transações móveis usando criptografia de vídeo e método para criptografia de vídeo
PT3179729T (pt) * 2014-08-07 2021-09-21 Sony Group Corp Dispositivo de transmissão, método de transmissão e dispositivo de receção
JP2016062637A (ja) * 2014-09-12 2016-04-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体、再生装置、および再生方法
CN111899769B (zh) * 2014-09-12 2022-07-05 松下电器(美国)知识产权公司 非暂时性计算机可读介质、再现装置以及再现方法
JP6346880B2 (ja) * 2014-10-17 2018-06-20 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体
WO2016059759A1 (ja) * 2014-10-17 2016-04-21 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 記録媒体、再生装置および再生方法
JP2016092837A (ja) * 2014-10-30 2016-05-23 株式会社東芝 映像圧縮装置、映像再生装置および映像配信システム
US10129566B2 (en) 2015-03-16 2018-11-13 Microsoft Technology Licensing, Llc Standard-guided video decoding performance enhancements
US9979983B2 (en) * 2015-03-16 2018-05-22 Microsoft Technology Licensing, Llc Application- or context-guided video decoding performance enhancements
CN106257445A (zh) * 2015-06-17 2016-12-28 中兴通讯股份有限公司 字段的显示方法及装置
US9930427B2 (en) 2015-12-21 2018-03-27 Comcast Cable Communications Management, Llc Providing advanced playback and control functionality to video client
US10566027B2 (en) * 2016-02-19 2020-02-18 Sony Corporation Information processing apparatus and information processing method
WO2017164595A1 (ko) * 2016-03-21 2017-09-28 엘지전자(주) 방송 신호 송수신 장치 및 방법
US10491963B1 (en) 2016-06-28 2019-11-26 Amazon Technologies, Inc. Use video codecs to deliver images
FR3070566B1 (fr) * 2017-08-30 2020-09-04 Sagemcom Broadband Sas Procede de recuperation d'un fichier cible d'un logiciel d'exploitation et dispositif d'utilisation
US11606528B2 (en) * 2018-01-03 2023-03-14 Saturn Licensing Llc Advanced television systems committee (ATSC) 3.0 latency-free display of content attribute
US11070764B2 (en) 2018-03-12 2021-07-20 Sony Corporation Video communication device, video communication method, video processing device, and information processing method
US11527265B2 (en) 2018-11-02 2022-12-13 BriefCam Ltd. Method and system for automatic object-aware video or audio redaction
CN112148677A (zh) * 2020-09-11 2020-12-29 上海七牛信息技术有限公司 一种面向嵌入式音视频设备的文件定位方法、系统及设备
EP4344220A4 (en) * 2021-08-10 2024-10-16 Samsung Electronics Co., Ltd. Electronic device for recording content data and method therefor
KR20240028174A (ko) * 2022-08-24 2024-03-05 삼성전자주식회사 전자 장치 및 그 제어 방법
CN115691572B (zh) * 2022-12-30 2023-04-07 北京语艺星光文化传媒有限公司 一种基于内容智能识别的音频多功能刻录方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002052556A1 (en) 2000-12-22 2002-07-04 Matsushita Electric Industrial Co., Ltd. Recording/playback apparatus, playback apparatus, computer-readable recording medium, program and method
JP2008289065A (ja) * 2007-05-21 2008-11-27 Fujifilm Corp 撮像装置、画像再生装置、撮像方法及びプログラム
WO2010146847A1 (ja) * 2009-06-17 2010-12-23 パナソニック株式会社 3d映像を再生するための情報記録媒体、及び再生装置
WO2011125572A1 (ja) * 2010-04-08 2011-10-13 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69736062T2 (de) 1996-02-28 2007-01-11 Matsushita Electric Industrial Co., Ltd., Kadoma Optische Platte mit verschachtelt aufgezeichneten Digitalvideo-Datenströmen, sowie Vorrichtungen und Verfahren zur Aufzeichnung auf und Wiedergabe von der optischen Platte
JP4662071B2 (ja) * 2006-12-27 2011-03-30 富士フイルム株式会社 画像再生方法
JP2010109404A (ja) 2008-10-28 2010-05-13 Sony Corp 再生装置、再生制御方法、およびプログラム
JP5369956B2 (ja) 2009-07-15 2013-12-18 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
JP2011071970A (ja) 2009-08-28 2011-04-07 Panasonic Corp 記録装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002052556A1 (en) 2000-12-22 2002-07-04 Matsushita Electric Industrial Co., Ltd. Recording/playback apparatus, playback apparatus, computer-readable recording medium, program and method
JP2008289065A (ja) * 2007-05-21 2008-11-27 Fujifilm Corp 撮像装置、画像再生装置、撮像方法及びプログラム
WO2010146847A1 (ja) * 2009-06-17 2010-12-23 パナソニック株式会社 3d映像を再生するための情報記録媒体、及び再生装置
WO2011125572A1 (ja) * 2010-04-08 2011-10-13 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2772918A4

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016039171A1 (ja) * 2014-09-12 2016-03-17 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム、並びに記録媒体
WO2016039169A1 (ja) * 2014-09-12 2016-03-17 ソニー株式会社 再生装置、再生方法、情報処理装置、情報処理方法、プログラム、および記録媒体
JPWO2016039169A1 (ja) * 2014-09-12 2017-05-25 ソニー株式会社 再生装置、再生方法、情報処理装置、情報処理方法、プログラム、および記録媒体
JPWO2016039171A1 (ja) * 2014-09-12 2017-06-22 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム、並びに記録媒体
US10063823B2 (en) 2014-09-12 2018-08-28 Sony Corporation Information processing device, information processing method, program, and recording medium
US10623711B2 (en) 2014-09-12 2020-04-14 Sony Corporation Information processing device, information processing method, program, and recording medium
US10910017B2 (en) 2014-09-12 2021-02-02 Sony Corporation Reproducing device, reproducing method, information processing device, information processing method, program, and recording medium

Also Published As

Publication number Publication date
CN103314409A (zh) 2013-09-18
SG190189A1 (en) 2013-06-28
JP5596830B2 (ja) 2014-09-24
JPWO2013061523A1 (ja) 2015-04-02
CN103314409B (zh) 2016-03-02
CA2816434C (en) 2017-10-24
PH12013501011A1 (en) 2022-12-02
EP2772918A1 (en) 2014-09-03
CA2816434A1 (en) 2013-05-02
MX2013005604A (es) 2013-06-26
EP2772918A4 (en) 2016-01-20
JP5363685B2 (ja) 2013-12-11
JP2013255250A (ja) 2013-12-19
US9218109B2 (en) 2015-12-22
US20140115472A1 (en) 2014-04-24
RU2013122634A (ru) 2015-12-10

Similar Documents

Publication Publication Date Title
JP5596830B2 (ja) 旧来のフォーマットとの互換を維持しつつも、記録内容を編集することができる記録媒体、記録装置
EP2521364B1 (en) Recording medium, playback device and recording method
JP5914888B2 (ja) 高画質化に関わる記録媒体、再生装置、記録装置、符号化方法、復号化方法
JP4564107B2 (ja) 記録媒体、再生装置、システムlsi、再生方法、記録方法、記録媒体再生システム
WO2010095410A1 (ja) 記録媒体、再生装置、集積回路

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2816434

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 13882328

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2013520311

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: MX/A/2013/005604

Country of ref document: MX

Ref document number: 2012843430

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12013501011

Country of ref document: PH

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12843430

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2013122634

Country of ref document: RU

Kind code of ref document: A