WO2013137588A1 - Scalable video decoding/encoding method, and scalable video decoding/encoding device using same - Google Patents
Scalable video decoding/encoding method, and scalable video decoding/encoding device using same Download PDFInfo
- Publication number
- WO2013137588A1 WO2013137588A1 PCT/KR2013/001825 KR2013001825W WO2013137588A1 WO 2013137588 A1 WO2013137588 A1 WO 2013137588A1 KR 2013001825 W KR2013001825 W KR 2013001825W WO 2013137588 A1 WO2013137588 A1 WO 2013137588A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- layer
- prediction
- information
- unit
- motion information
- Prior art date
Links
- 238000000034 method Methods 0.000 title abstract description 33
- 230000015654 memory Effects 0.000 claims description 13
- 239000010410 layer Substances 0.000 description 282
- 239000011229 interlayer Substances 0.000 description 76
- 238000001914 filtration Methods 0.000 description 35
- 239000013598 vector Substances 0.000 description 20
- 238000010586 diagram Methods 0.000 description 13
- 238000013139 quantization Methods 0.000 description 11
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 10
- 239000000523 sample Substances 0.000 description 10
- 230000008569 process Effects 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 4
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 238000005192 partition Methods 0.000 description 4
- 238000013500 data storage Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000013074 reference sample Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/187—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
Definitions
- the present invention relates to video compression techniques, and more particularly, to a method and apparatus for performing scalable video coding.
- video quality of the terminal device can be supported and the network environment is diversified, in general, video of general quality may be used in one environment, but higher quality video may be used in another environment. .
- the quality of the image for example, the image quality, the resolution, and the size of the image
- various image processing methods associated with such scalability should be discussed.
- An object of the present invention is to provide a method for compressing motion information used for inter-layer prediction and an apparatus using the same.
- Another object of the present invention is to provide a scalable video coding method and a coding apparatus using the same, in which motion information used for inter-layer prediction is derived in a base layer, thereby improving the accuracy of the prediction by increasing the accuracy of the motion information. It is done.
- Another object of the present invention is to provide a scalable video coding method and a coding apparatus using the same, which enable use of uncompressed motion information when using motion information of a base layer in an enhancement layer.
- Another object of the present invention is to provide a scalable video coding method capable of storing motion information of a layer by reflecting a resolution ratio between layers, and a coding apparatus using the same.
- An embodiment of the present invention may include a prediction step of performing prediction on an input layer, and compressing motion information for each layer for each access unit.
- the layer may include a base layer and at least one enhancement layer
- the prediction may include performing the prediction of the enhancement layer based on the motion information of the base layer. Compression of the motion information of the base layer and the motion information of the enhancement layer may be performed after the prediction of the enhancement layer.
- another embodiment of the present invention may include a prediction unit that performs prediction on an input layer, and a memory that compresses motion information about each layer for each access unit.
- the present invention may provide a method for compressing motion information used for interlayer prediction and an apparatus using the same.
- the accuracy of the motion information may be increased to improve the performance of the prediction.
- uncompressed motion information can be used, thereby improving the accuracy of the motion information to improve prediction performance.
- motion information of a layer may be stored by reflecting the resolution ratio between layers, thereby increasing data storage efficiency.
- FIG. 1 is a block diagram schematically illustrating a video encoding apparatus supporting scalability according to an embodiment of the present invention.
- FIG. 2 is a block diagram illustrating an example of interlayer prediction in an encoding apparatus that performs scalable coding according to the present invention.
- FIG. 3 is a block diagram schematically illustrating a video decoding apparatus supporting scalability according to an embodiment of the present invention.
- FIG. 4 is a block diagram illustrating an example of interlayer prediction in a decoding apparatus that performs scalable coding according to the present invention.
- FIG. 5 is a diagram schematically illustrating a layer structure of scalable coding to which the present invention is applied.
- a layer is illustrated for explaining inter prediction and inter layer prediction.
- FIG. 6 is a diagram for describing a method of compressing and storing motion information used for inter prediction.
- FIG. 7 is a control flowchart illustrating a method of compressing motion information used for inter-layer prediction according to the present invention.
- FIG. 8 is a diagram for describing a method of storing motion information used for inter-layer prediction, according to another embodiment of the present invention.
- each of the components in the drawings described in the present invention are shown independently for the convenience of description of the different characteristic functions in the video encoding apparatus / decoding apparatus, each component is a separate hardware or separate software It does not mean that it is implemented.
- two or more of each configuration may be combined to form one configuration, or one configuration may be divided into a plurality of configurations.
- Embodiments in which each configuration is integrated and / or separated are also included in the scope of the present invention without departing from the spirit of the present invention.
- input signals may be processed for each layer.
- the input signals may differ in at least one of resolution, frame rate, bit-depth, color format, and aspect ratio. Can be.
- scalable coding includes scalable encoding and scalable decoding.
- prediction between layers is performed by using differences between layers, that is, based on scalability, thereby reducing overlapping transmission / processing of information and increasing compression efficiency.
- FIG. 1 is a block diagram schematically illustrating a video encoding apparatus supporting scalability according to an embodiment of the present invention.
- the encoding apparatus 100 includes an encoder 105 for layer 1 and an encoder 155 for layer 0.
- Layer 0 may be a base layer, a reference layer, or a lower layer
- layer 1 may be an enhancement layer, a current layer, or an upper layer.
- the encoder 105 of the layer 1 includes an inter / intra predictor 110, a transform / quantizer 115, a filter 120, a decoded picture buffer 125, an entropy coding unit 130, and a unit parameter.
- the prediction unit 135 includes a motion predictor / rescaler 140, a texture predictor / rescaler 145, a parameter predictor 150, and a multiplexer 185.
- the encoding unit 155 of the layer 0 includes an inter / intra prediction unit 160, a transform / quantization unit 165, a filtering unit 170, a DPB 175, and an entropy coding unit 180.
- the inter / intra predictors 110 and 160 may perform inter prediction and intra prediction on the input image.
- the inter / intra predictor 110 or 160 may perform prediction in a predetermined processing unit.
- the performing unit of prediction may be a coding unit (CU), a prediction unit (PU), or a transform unit (TU).
- the inter / intra prediction units 110 and 160 determine whether to apply inter prediction or intra prediction on a CU basis, determine a prediction mode on a PU basis, and perform prediction on a PU basis or a TU basis. It can also be done. Prediction performed includes generation of a prediction block and generation of a residual block (residual signal).
- a prediction block may be generated by performing prediction based on information of at least one picture of a previous picture and / or a subsequent picture of the current picture.
- prediction blocks may be generated by performing prediction based on pixel information in a current picture.
- inter prediction there are a skip mode, a merge mode, a motion vector predictor (MVP) mode method, and the like.
- a reference picture may be selected with respect to the current PU that is a prediction target, and a reference block corresponding to the current PU may be selected within the reference picture.
- the inter / intra predictor 160 may generate a prediction block based on the reference block.
- the prediction block may be generated in integer sample units or may be generated in integer or less pixel units.
- the motion vector may also be expressed in units of integer pixels or units of integer pixels or less.
- motion information that is, information such as an index of a reference picture, a motion vector, and a residual signal
- residuals may not be generated, transformed, quantized, or transmitted.
- the prediction mode may have 33 directional prediction modes and at least two non-directional modes.
- the non-directional mode may include a DC prediction mode and a planner mode (Planar mode).
- a prediction block may be generated after applying a filter to a reference sample.
- the PU may be a block of various sizes / types, for example, in the case of inter prediction, the PU may be a 2N ⁇ 2N block, a 2N ⁇ N block, an N ⁇ 2N block, an N ⁇ N block (N is an integer), or the like.
- the PU In the case of intra prediction, the PU may be a 2N ⁇ 2N block or an N ⁇ N block (where N is an integer).
- the PU of the N ⁇ N block size may be set to apply only in a specific case.
- the NxN block size PU may be used only for the minimum size CU or only for intra prediction.
- PUs such as N ⁇ mN blocks, mN ⁇ N blocks, 2N ⁇ mN blocks, or mN ⁇ 2N blocks (m ⁇ 1) may be further defined and used.
- the transform / quantization units 115 and 165 perform transform on the residual block in transform block units to generate transform coefficients and quantize the transform coefficients.
- the transform block is a block of samples and is a block to which the same transform is applied.
- the transform block can be a transform unit (TU) and can have a quad tree structure.
- the transform / quantization units 115 and 165 may generate a 2D array of transform coefficients by performing transform according to the prediction mode applied to the residual block and the size of the block. For example, if intra prediction is applied to a residual block and the block is a 4x4 residual array, the residual block is transformed using a discrete sine transform (DST), otherwise the residual block is transformed into a discrete cosine transform (DCT). Can be converted using.
- DST discrete sine transform
- DCT discrete cosine transform
- the transform / quantization unit 115 and 165 may quantize the transform coefficients to generate quantized transform coefficients.
- the transform / quantization units 115 and 165 may transfer the quantized transform coefficients to the entropy coding units 130 and 180.
- the transform / quantization unit 165 may rearrange the two-dimensional array of quantized transform coefficients into one-dimensional arrays according to a predetermined scan order and transfer them to the entropy coding units 130 and 180.
- the transform / quantizers 115 and 165 may transmit the reconstructed block generated based on the residual and the predictive block to the filtering units 120 and 170 for inter prediction.
- the entropy coding units 130 and 180 may perform entropy encoding on the quantized transform coefficients.
- Entropy encoding may use, for example, an encoding method such as Exponential Golomb, Context-Adaptive Binary Arithmetic Coding (CABAC), or the like.
- CABAC Context-Adaptive Binary Arithmetic Coding
- the filtering units 120 and 170 may apply a deblocking filter, an adaptive loop filter (ALF), and a sample adaptive offset (SAO) to the reconstructed picture.
- ALF adaptive loop filter
- SAO sample adaptive offset
- the deblocking filter may remove distortion generated at the boundary between blocks in the reconstructed picture.
- the adaptive loop filter may perform filtering based on a value obtained by comparing the reconstructed image with the original image after the block is filtered through the deblocking filter.
- the SAO restores the offset difference from the original image on a pixel-by-pixel basis to the residual block to which the deblocking filter is applied, and is applied in the form of a band offset and an edge offset.
- the filtering units 120 and 170 may apply only the deblocking filter, only the deblocking filter and the ALF, or only the deblocking filter and the SAO without applying all of the deblocking filter, ALF, and SAO.
- the DPBs 125 and 175 may receive the reconstructed block or the reconstructed picture from the filtering units 125 and 170 and store the received reconstruction block.
- the DPBs 125 and 175 may provide the reconstructed block or picture to the inter / intra predictor 110 or 160 that performs inter prediction.
- Information output from the entropy coding unit 180 of the layer 0 and information output from the entropy coding unit 130 of the layer 1 may be multiplexed by the MUX 185 and output as a bitstream.
- the encoding unit 105 of the layer 1 may use the unit parameter predictor 135 and the motion predictor / rescaler 140 for inter-layer prediction for performing prediction on the image of the layer 1 using the layer 0 information. , Texture predictor / rescaler 145, parameter predictor 150, and the like.
- the unit parameter predictor 135 derives unit (CU, PU and / or TU) information of the base layer to use as unit information of the enhancement layer, or unit information of the enhancement layer based on the unit information of the base layer. To be determined.
- unit (CU, PU and / or TU) information of the base layer to use as unit information of the enhancement layer, or unit information of the enhancement layer based on the unit information of the base layer. To be determined.
- the motion predictor 140 performs interlayer motion prediction. Inter-layer motion prediction is also called inter-layer inter prediction.
- the motion predictor 140 may perform prediction on the current block of the current layer (enhanced layer) using the motion information of the reference layer (base layer).
- the motion predictor 140 may scale motion information of the reference layer.
- the texture predictor 145 may perform texture prediction based on the information of the layer 0. Texture prediction is also called intra base layer (BL) prediction. Texture prediction may be applied when the reference layer is reconstructed by intra prediction as an I slice. In texture prediction, the texture of the reference block in the reference layer may be used as a prediction value for the current block of the enhancement layer. In this case, the texture of the reference block may be scaled by upsampling.
- BL intra base layer
- the parameter predictor 150 may derive the parameters used in the base layer to reuse them in the enhancement layer or predict the parameters for the enhancement layer based on the parameters used in the base layer.
- the encoding unit 105 of the layer 1 includes the MUX 185, but the MUX is separate from the encoding unit 105 of the layer 1 and the encoding unit 155 of the layer 0. It may be a device or a module of.
- FIG. 2 is a block diagram illustrating an example of interlayer prediction in an encoding apparatus that performs scalable coding according to the present invention.
- the predictor 210 of the layer 1 includes an inter / intra predictor 220 and an interlayer predictor 230.
- the prediction unit 210 of the layer 1 may perform interlayer prediction necessary for the prediction of the layer 1 from the information of the layer 0.
- the interlayer prediction unit 230 may receive the layer 0 information from the inter / intra predictor 250 and / or the filter 260 of the layer 0 to perform interlayer prediction necessary for the prediction of the layer 1. have.
- the inter / intra predictor 220 of the layer 1 may perform inter prediction or intra prediction using the information of the layer 1.
- the inter / intra predictor 220 of the layer 1 may perform prediction based on the information of the layer 0 using the information transmitted from the interlayer predictor 230.
- the filtering unit 240 of the layer 1 may perform the filtering based on the information of the layer 1, or may perform the filtering based on the information of the layer 0.
- Information of the layer 0 may be transferred from the filtering unit 260 of the layer 0 to the filtering unit 240 of the layer 1, or may be transferred from the interlayer prediction unit 230 of the layer 1 to the filtering unit 240 of the layer 1. It may be.
- the information transmitted from the layer 0 to the interlayer prediction unit 230 may be at least one of information about a unit parameter of the layer 0, motion information of the layer 0, texture information of the layer 0, and filter parameter information of the layer 0. have.
- the interlayer prediction unit 230 may include a part of the unit parameter predictor 135, the motion predictor 140, the texture predictor 145, and the parameter predictor 150 that perform interlayer prediction in FIG. 1 or It can contain everything.
- the inter / intra predictor 220 may correspond to the inter / intra predictor 110 of FIG. 1, and the filter 240 may correspond to the filter 120 of FIG. 1.
- the inter / intra predictor 250 may correspond to the inter / intra predictor 160 of FIG. 1
- the filter 260 may correspond to the filter 170 of FIG. 1.
- FIG. 3 is a block diagram schematically illustrating a video decoding apparatus supporting scalability according to an embodiment of the present invention.
- the decoding apparatus 300 includes a decoder 310 of layer 1 and a decoder 350 of layer 0.
- Layer 0 may be a base layer, a reference layer, or a lower layer
- layer 1 may be an enhancement layer, a current layer, or an upper layer.
- the decoding unit 310 of the layer 1 includes an entropy decoding unit 315, a reordering unit 320, an inverse quantization unit 325, an inverse transform unit 330, a prediction unit 335, a filtering unit 340, and a memory. can do.
- the decoding unit 350 of the layer 0 may include an entropy decoding unit 355, a reordering unit 360, an inverse quantization unit 365, an inverse transform unit 370, a filtering unit 380, and a memory 385. .
- the DEMUX 305 may demultiplex the information for each layer and deliver the information to the decoding device for each layer.
- the entropy decoding units 315 and 355 may perform entropy decoding corresponding to the entropy coding scheme used in the encoding apparatus. For example, when CABAC is used in the encoding apparatus, the entropy decoding units 315 and 355 may also perform entropy decoding using CABAC.
- Information for generating a prediction block among information decoded by the entropy decoding units 315 and 355 is provided to the prediction units 335 and 375, and a residual value of which entropy decoding is performed by the entropy decoding units 315 and 355. That is, the quantized transform coefficients may be input to the reordering units 320 and 360.
- the reordering units 320 and 360 may rearrange the information of the bitstreams entropy decoded by the entropy decoding units 315 and 355, that is, the quantized transform coefficients, based on the reordering method in the encoding apparatus.
- the reordering units 320 and 360 may rearrange the quantized transform coefficients of the one-dimensional array back to the coefficients of the two-dimensional array.
- the reordering units 320 and 360 may generate a two-dimensional array of coefficients (quantized transform coefficients) by performing scanning based on the prediction mode applied to the current block (transform block) and / or the size of the transform block.
- the inverse quantizers 325 and 365 may generate transform coefficients by performing inverse quantization based on the quantization parameter provided by the encoding apparatus and the coefficient values of the rearranged block.
- the inverse transformers 330 and 370 may perform inverse transform on the transform performed by the transform unit of the encoding apparatus.
- the inverse transform units 330 and 370 may perform inverse DCT and / or inverse DST on a discrete cosine transform (DCT) and a discrete sine transform (DST) performed by an encoding apparatus.
- DCT discrete cosine transform
- DST discrete sine transform
- the DCT and / or DST in the encoding apparatus may be selectively performed according to a plurality of pieces of information, such as a prediction method, a size of a current block, and a prediction direction, and the inverse transformers 330 and 370 of the decoding apparatus may perform transform information performed in the encoding apparatus. Inverse transformation may be performed based on.
- the inverse transformers 330 and 370 may inverse transform the transform coefficients or the block of the transform coefficients to generate the residual or the residual block.
- the prediction units 335 and 375 may perform prediction on the current block based on the prediction block generation related information transmitted from the entropy decoding units 315 and 355 and previously decoded blocks and / or picture information provided by the memories 345 and 385.
- a prediction block can be generated.
- the prediction units 335 and 375 may perform intra prediction on the current block based on pixel information in the current picture.
- the prediction units 335 and 375 may perform the prediction on the current block based on information included in at least one of a previous picture or a subsequent picture of the current picture. Inter prediction may be performed. Some or all of the motion information required for inter prediction may be derived from the information received from the encoding apparatus and correspondingly.
- the prediction block may be a reconstruction block.
- the prediction unit 335 of layer 1 may perform inter prediction or intra prediction using only information in layer 1, or may perform inter layer prediction using information of another layer (layer 0).
- the prediction unit 335 of the layer 1 may perform prediction on the current block by using one of the motion information of the layer 1, the texture information of the layer 1, the unit information of the layer 1, and the parameter information of the layer 1.
- the prediction unit 335 of the layer 1 may perform prediction on the current block by using a plurality of pieces of information of the motion information of the layer 1, the texture information of the layer 1, the unit information of the layer 1, and the parameter information of the layer 1. have.
- the predictor 335 of the layer 1 may receive motion information of the layer 1 from the predictor 375 of the layer 0 to perform motion prediction.
- Inter-layer motion prediction is also called inter-layer inter prediction.
- inter-layer motion prediction prediction of a current block of a current layer (enhanced layer) may be performed using motion information of a reference layer (base layer).
- the prediction unit 335 may scale and use motion information of the reference layer when necessary.
- the predictor 335 of the layer 1 may receive texture information of the layer 1 from the predictor 375 of the layer 0 to perform texture prediction.
- Texture prediction is also called intra base layer (BL) prediction. Texture prediction may be applied when the reference layer is reconstructed by intra prediction as an I slice.
- BL intra base layer
- Texture prediction may be applied when the reference layer is reconstructed by intra prediction as an I slice.
- the texture of the reference block in the reference layer may be used as a prediction value for the current block of the enhancement layer. In this case, the texture of the reference block may be scaled by upsampling.
- the predictor 335 of the layer 1 may receive unit parameter information of the layer 1 from the predictor 375 of the layer 0 to perform unit parameter prediction.
- unit parameter prediction unit (CU, PU, and / or TU) information of the base layer may be used as unit information of the enhancement layer, or unit information of the enhancement layer may be determined based on unit information of the base layer.
- the predictor 335 of the layer 1 may receive parameter information regarding the filtering of the layer 1 from the predictor 375 of the layer 0 to perform parameter prediction.
- parameter prediction the parameters used in the base layer can be derived and reused in the enhancement layer, or the parameters for the enhancement layer can be predicted based on the parameters used in the base layer.
- the adders 390 and 395 may generate reconstruction blocks using the prediction blocks generated by the predictors 335 and 375 and the residual blocks generated by the inverse transformers 330 and 370.
- the adders 390 and 395 can be viewed as separate units (restore block generation unit) for generating the reconstruction block.
- Blocks and / or pictures reconstructed by the adders 390 and 395 may be provided to the filtering units 340 and 380.
- the filtering units 340 and 380 may apply deblocking filtering, sample adaptive offset (SAO), and / or ALF to the reconstructed blocks and / or pictures.
- deblocking filtering sample adaptive offset (SAO)
- SAO sample adaptive offset
- ALF ALF
- the filtering units 340 and 380 may not apply all of the deblocking filter, ALF, and SAO, and may apply only the deblocking filter, only the deblocking filter and the ALF, or may apply only the deblocking filter and the SAO.
- the filtering unit 340 of the layer 1 performs filtering on the reconstructed picture by using parameter information transmitted from the prediction unit 335 of the layer 1 and / or the filtering unit 380 of the layer 1. It can also be done.
- the filtering unit 340 may apply filtering to or between layers using a parameter predicted from the parameters of the filtering applied in layer 0.
- the memories 345 and 385 may store the reconstructed picture or block to use as a reference picture or reference block.
- the memories 345 and 385 may output the stored reconstructed picture through a predetermined output unit (not shown) or a display (not shown).
- the prediction unit of the layer 1 includes the interlayer prediction unit that performs prediction using information of another layer (layer 0) and the other layer (layer 0). It may also include an inter / intra predictor that performs prediction without using information.
- the predictor 410 of the layer 1 includes an inter / intra predictor 420 and an interlayer predictor 430.
- the prediction unit 410 of the layer 1 may perform interlayer prediction necessary for the prediction of the layer 1 from the information of the layer 0.
- the interlayer prediction unit 430 may receive the layer 0 information from the inter / intra prediction unit 450 and / or the filtering unit 460 of the layer 0 to perform interlayer prediction necessary for the prediction of the layer 1. have.
- the inter / intra predictor 420 of the layer 1 may perform inter prediction or intra prediction using the information of the layer 1.
- the inter / intra predictor 420 of the layer 1 may perform prediction based on the information of the layer 0 using the information transmitted from the interlayer predictor 430.
- the filtering unit 440 of the layer 1 may perform the filtering based on the information of the layer 0 or may perform the filtering based on the information of the layer 0.
- Information of the layer 0 may be transferred from the filtering unit 460 of the layer 0 to the filtering unit 440 of the layer 1, or may be transferred from the interlayer prediction unit 430 of the layer 1 to the filtering unit 240 of the layer 1. It may be.
- the information transmitted from the layer 0 to the interlayer prediction unit 430 may be at least one of information about a unit parameter of the layer 0, motion information of the layer 0, texture information of the layer 0, and filter parameter information of the layer 0. have.
- the predictor 410 may correspond to the predictor 335 of FIG. 3, and the filter 440 may correspond to the filter 340 of FIG. 3.
- the predictor 450 may correspond to the predictor 375 of FIG. 3
- the filter 460 may correspond to the filter 380 of FIG. 3.
- the inter-layer prediction unit 430 may include a motion prediction unit, a texture prediction unit, and a unit parameter according to the type of inter-layer prediction (eg, motion prediction, texture prediction, unit parameter prediction, and parameter prediction).
- the prediction unit and the parameter prediction unit may be included.
- interlayer prediction may be performed to predict information of a current layer by using information of another layer.
- motion prediction, texture prediction, unit prediction, parameter prediction, and the like may be considered as examples of inter-layer prediction.
- FIG. 5 is a diagram schematically illustrating a layer structure of scalable coding to which the present invention is applied.
- the current picture 510 having a POC of n may perform inter prediction using information of another picture without referring to information of another layer. For example, if the current picture 510 is a P picture, inter prediction is performed using information of a previous picture having a POC smaller than n. If the current picture 510 is a B picture, a previous picture and a POC larger than n Inter prediction may be performed using the information.
- the prediction information used for inter prediction is information about a prediction mode (predMode) such as a skip mode, a merge mode, a motion vector predictor (MVP) mode, a reference picture index, and a motion vector.
- predMode a prediction mode
- MVP motion vector predictor
- the decoding apparatus and the encoding apparatus may use motion information of neighboring blocks of the current block.
- the neighboring block includes a spatial block and a temporal block, and motion information of the neighboring block is a motion vector and a reference picture index in the merge mode, and a motion vector in the MVP mode.
- the motion information for the decoded picture is compressed and stored in the device memory or the DPS.
- inter layer prediction on the current picture 510 prediction is performed based on information of another layer 520 of the same POC.
- a method of predicting information of a current layer using information of another layer is referred to as inter-layer prediction for convenience of description.
- Information of the current layer that is predicted using information of another layer may include texture, motion information, unit information, predetermined parameters (eg, filtering parameters, etc.).
- information of another layer used for prediction for the current layer may include texture, motion information, unit information, and predetermined parameters (eg, filtering parameters).
- unit (CU, PU, and / or TU) information of a base layer is derived and used as unit information of an enhancement layer, or based on unit information of a base layer.
- Unit information of the treatment layer may be determined.
- the unit information may include information at each unit level.
- information about a partition (CU, PU and / or TU) may include information on transform, information on prediction, and information on coding.
- information on a PU partition and information on prediction (eg, motion information, information on a prediction mode, etc.) may be included.
- the information about the TU may include information about a TU partition, information on transform (transform coefficient, transform method, etc.).
- the unit information may include only the partition information of the processing unit (eg, CU, PU, TU, etc.).
- Interlayer motion prediction another example of interlayer prediction, is also called interlayer inter prediction.
- prediction of a current block of layer 1 may be performed using motion information of layer 0 (reference layer or base layer).
- motion information of a reference layer may be scaled.
- inter-layer texture prediction is also called intra base layer (BL) prediction.
- Inter layer texture prediction may be applied when a reference block in a reference layer is reconstructed by intra prediction.
- the texture of the reference block in the reference layer may be used as a prediction value for the current block of the enhancement layer.
- the texture of the reference block may be scaled by upsampling.
- inter-layer parameter prediction may derive a parameter used in the base layer to reuse it in the enhancement layer or predict a parameter for the enhancement layer based on the parameter used in the base layer.
- interlayer prediction As an example of interlayer prediction, interlayer texture prediction, interlayer motion prediction, interlayer unit information prediction, and interlayer parameter prediction have been described. However, the interlayer prediction applicable to the present invention is not limited thereto.
- the prediction unit may use inter-layer residual prediction, which predicts the residual of the current layer using residual information of another layer as inter-layer prediction, and performs prediction on the current block in the current layer based on the residual layer.
- the decoding process may mean a process of reconstructing an image by using the generated prediction block and the residual block.
- the decoding process may include filtering of the reconstructed image.
- motion information for the current picture is stored to be used for prediction of another picture, and the motion information may be stored for each motion data storage unit.
- one motion information storage unit may be configured of a plurality of motion information blocks.
- the motion information for the plurality of motion information blocks may be stored as one representative value for each motion information storage unit. That is, the representative value set for each moved information storage unit is used as motion information of the motion information block belonging to the motion information storage unit.
- the representative value may be an average value of the motion information, that is, an average value of the motion vector and a minimum value of the reference picture index.
- the representative value may be motion information of a specific motion information block.
- the representative value may be motion information of a motion information block located at the upper left of the motion information storage unit.
- FIG. 6 exemplarily illustrates a method of compressing and storing motion information used for inter prediction.
- a unit composed of 16 motion information blocks B0 to B15 is used as one motion information storage unit is described as an example.
- the decoding apparatus may use a motion vector (X0, Y0) of the motion information block B0 at the upper left in the motion information storage unit shown in FIG. 6 as a representative value for the motion information storage unit 600. That is, motion vector values of (X0, Y0) are also assigned to the other 15 motion information blocks B1 to B15.
- the motion vectors X0 and YO of the motion information block B0 are assigned to the sixteen motion information blocks B0 to B15.
- a representative motion vector for it is stored in a memory (DPS).
- the motion vector (0, 0) is stored in the motion vector buffer as a motion vector value representing the motion information storage unit 600.
- motion information including a reference index and a motion vector may also be compressed and stored as a predetermined representative value for a plurality of blocks.
- the motion information may be compressed and stored as a predetermined representative value, as described above, information about whether the inter prediction or intra prediction is used or the prediction mode used for the inter prediction.
- the prediction and decoding of the base layer may be performed before the enhancement layer prediction.
- a method of storing motion information for each layer will be described.
- FIG. 7 is a control flowchart illustrating a method of compressing motion information used for inter-layer prediction according to the present invention.
- the video decoding apparatus 300 of FIG. 3 supporting scalability will be described as an example.
- the prediction unit 375 performs prediction on the base rare picture (S701).
- the prediction unit 375 may generate the prediction block for the current block based on the prediction block generation related information transmitted from the entropy decoding unit 355 and the previously decoded block and / or picture information provided in the memory 385. have. Thereafter, the enhancement layer is predicted based on the motion information of the base layer (S702).
- prediction of the current block of the current layer may be performed using motion information of the reference layer, or prediction of the current block of the current layer may be performed using the texture of the base layer. have.
- interlayer prediction using motion information of a reference layer is called interlayer motion prediction
- interlayer prediction using texture of a reference layer is called interlayer texture prediction
- the motion information of the reference layer used for inter-layer motion prediction may be a motion vector and / or a reference picture index of a block in a reference layer corresponding to the current block.
- the texture of the reference layer used for inter layer texture prediction may be a reconstructed texture of the block in the reference layer corresponding to the current block.
- the motion information of the base layer that can be used for prediction and decoding of the enhancement layer is uncompressed information, the accuracy of prediction can be improved. As a result, the image quality of the enhancement layer to be reconstructed is improved, so that an image close to the original image can be restored.
- motion information of the base layer and the enhancement layer is compressed (S703).
- the access unit refers to a layer displayed at the same time.
- the performance of inter-layer prediction can be improved while reducing the stored data.
- the motion information of the base layer and the enhancement layer may be compressed and stored for each access unit. That is, even when inter layer prediction is not performed, motion information about layers that may be displayed at a specific time point may be compressed at the time when prediction for all layers is completed.
- the motion information may be compressed and stored as a representative value for a block of a predetermined size as described in FIG. 6.
- the above description may be equally applied to a process of performing motion information of a base layer for inter prediction on an enhancement layer in the video encoding apparatus 100, and the motion information of the base layer may be predicted and / or decoded from the enhancement layer. After this is done it can be stored compressed.
- FIG. 8 is a diagram for describing a method of storing motion information used for inter-layer prediction, according to another embodiment of the present invention.
- the motion information may be compressed and stored in an information storage unit having a specific size.
- the information storage unit in which the motion information of the enhancement layer is stored may be scaled according to the resolution ratio between the base layer and the enhancement layer, and may be extended as shown.
- the information storage unit 820 of the enhancement layer may be set to an aNxaN sample block.
- the motion vector (X0, Y0) of the uppermost information block B0 in the aNxaN sample block may be used as a representative value for the information storage unit 820.
- the motion information of the layer may be stored by reflecting the resolution ratio between layers, thereby increasing data storage efficiency.
- the motion information of the base layer and the enhancement layer may be compressed and stored at once. In addition, only one of the two may be compressed for the motion information of the base layer and the motion information of the enhancement layer.
- the motion information for the base layer may be obtained by down sampling the stored motion information.
- the motion information of the enhancement layer may be grasped by up-sampling the motion information of the base layer.
- a 'picture an array of samples reconstructed at a specific time point (for example, a picture order count (POC) or an access unit (AU)) for each layer in a multi-layer structure in which scalable video coding is supported is referred to as a 'picture.
- POC picture order count
- AU access unit
- the entire sample array reconstructed or reconstructed at a specific time in the decoded and output layer may be called a picture and may be distinguished from the reconstructed or reconstructed sample array of the referenced layer.
- the sample array reconstructed or reconstructed at a specific time point in the referenced layer may be referred to as a representation, a reference layer picture, a reference layer sample array, a reference layer texture, or the like.
- one decoded picture reconstructed in the current layer may be output for one AU.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
The present invention relates to a scalable video encoding method and apparatus. The scalable video encoding method according to the present invention includes the steps of: performing prediction for an input layer; and compressing motion information for each layer for each access unit. As a result, when motion information on a base layer is used in an enhancement layer, uncompressed motion information can be used. Therefore, the accuracy of the motion information is improved to enhance prediction performance.
Description
본 발명은 비디오 압축 기술에 관한 것으로서 더 구체적으로는 스케일러블 비디오 코딩을 수행하는 방법 및 장치에 관한 것이다.The present invention relates to video compression techniques, and more particularly, to a method and apparatus for performing scalable video coding.
최근 고해상도, 고품질의 영상에 대한 요구가 다양한 응용 분야에서 증가하고 있다. 영상이 고해상도를 가지고 고품질이 될수록 해당 영상에 관한 정보량도 함께 증가하고 있다. 정보량의 증가로 인해 다양한 성능의 장치와 다양한 환경의 네트워크가 등장하고 있다. 다양한 성능의 장치와 다양한 환경의 네트워크가 등장함에 따라서, 동일한 콘텐츠를 다양한 품질로 이용할 수 있게 되었다.Recently, the demand for high resolution and high quality images is increasing in various applications. As an image has a high resolution and high quality, the amount of information on the image also increases. As information volume increases, devices with various performances and networks with various environments are emerging. With the emergence of devices of varying performance and networks of different environments, the same content is available in different qualities.
구체적으로, 단말 장치가 지원할 수 있는 품질의 영상이 다양해지고, 구축된 네트워크 환경이 다양해짐으로써, 어떤 환경에서는 일반적인 품질의 영상을 이용하지만, 또 다른 환경에서는 더 높은 품질의 영상을 이용할 수 있게 된다.In detail, as the video quality of the terminal device can be supported and the network environment is diversified, in general, video of general quality may be used in one environment, but higher quality video may be used in another environment. .
이와 같이, 다양한 환경에서 사용자가 요구하는 영상 서비스를 품질에 따라서 다양하게 제공하기 위해 고용량 비디오에 대한 고효율의 인코딩/디코딩 방법을 기반으로 영상의 품질, 예컨대 영상의 화질, 영상의 해상도, 영상의 크기, 비디오의 프레임 레이트 등에 스케일러빌러티를 제공하는 것이 필요하다. 또한, 이러한 스케일러빌러티에 수반되는 다양한 영상 처리 방법이 논의되어야 한다.As such, based on high-efficiency encoding / decoding methods for high-capacity video in order to provide various video services required by users in various environments, the quality of the image, for example, the image quality, the resolution, and the size of the image For example, it is necessary to provide scalability in a video frame rate. In addition, various image processing methods associated with such scalability should be discussed.
한편, 영상의 고해상도, 고품질이 될수록 해당 영상에 관한 정보량도 함께 증가한다. 따라서 기존의 유무선 광대역 회선과 같은 매체를 이용하여 영상 정보를 전송하거나 기존의 저장 매체를 이용해 영상 정보를 저장하는 경우, 정보의 전송 비용과 저장 비용이 증가하게 된다. 따라서, 고해상도, 고품질 영상의 정보를 효과적으로 전송하거나 저장하고, 재생하기 위해 고효율의 영상 압축 기술을 이용할 수 있다.On the other hand, the higher the resolution and the higher quality of the image, the more the information about the image increases. Therefore, when image information is transmitted using a medium such as a conventional wired / wireless broadband line or when image information is stored using an existing storage medium, information transmission cost and storage cost increase. Therefore, a high efficiency image compression technique can be used to effectively transmit, store, and reproduce high resolution, high quality image information.
본 발명은 인터 레이어 예측에 사용되는 움직임 정보를 압축하는 방법 및 이를 이용한 장치를 제공하는 것을 목적으로 한다.An object of the present invention is to provide a method for compressing motion information used for inter-layer prediction and an apparatus using the same.
또한, 본 발명은 인터 레이어 예측에 사용되는 움직임 정보를 베이스 레이어에서 유도하는 경우, 움직임 정보의 정확도를 높여 예측의 성능을 향상시킬 수 있는 스케일러블 비디오 코딩 방법 및 이를 이용한 코딩 장치를 제공하는 것을 목적으로 한다. Another object of the present invention is to provide a scalable video coding method and a coding apparatus using the same, in which motion information used for inter-layer prediction is derived in a base layer, thereby improving the accuracy of the prediction by increasing the accuracy of the motion information. It is done.
또한, 본 발명은 인핸스먼트 레이어에서 베이스 레이어의 움직임 정보를 이용할 때 압축되지 않은 움직임 정보를 이용할 수 있도록 하는 스케일러블 비디오 코딩 방법 및 이를 이용한 코딩 장치를 제공하는 것을 목적으로 한다.Another object of the present invention is to provide a scalable video coding method and a coding apparatus using the same, which enable use of uncompressed motion information when using motion information of a base layer in an enhancement layer.
한편, 본 발명의 다른 실시예는 레이어 간 해상도 비율을 반영하여 레이어의 움직임 정보를 저장할 수 있는 스케일러블 비디오 코딩 방법 및 이를 이용한 코딩 장치를 제공하는 것을 목적으로 한다.Another object of the present invention is to provide a scalable video coding method capable of storing motion information of a layer by reflecting a resolution ratio between layers, and a coding apparatus using the same.
본 발명의 일 실시형태는 입력된 레이어에 대한 예측을 수행하는 예측 단계와, 각 레이어에 대한 움직임 정보를 억세스 유닛 마다 압축하는 단계를 포함할 수 있다.An embodiment of the present invention may include a prediction step of performing prediction on an input layer, and compressing motion information for each layer for each access unit.
이 때, 상기 레이어는 베이스 레이어 및 적어도 하나의 인핸스먼트 레이어를 포함할 수 있고, 상기 예측 단계는, 상기 베이스 레이어의 움직임 정보에 기초하여 상기 인핸스먼트 레이어의 예측을 수행하는 단계를 포함하고, 상기 베이스 레이어의 움직임 정보 및 상기 인핸스먼트 레이어의 움직임 정보의 압축은 상기 인핸스먼트 레이어의 예측 후 수행될 수 있다.In this case, the layer may include a base layer and at least one enhancement layer, and the prediction may include performing the prediction of the enhancement layer based on the motion information of the base layer. Compression of the motion information of the base layer and the motion information of the enhancement layer may be performed after the prediction of the enhancement layer.
또한, 본 발명의 다른 실시형태는 입력된 레이어에 대한 예측을 수행하는 예측부와, 각 레이어에 대한 움직임 정보를 억세스 유닛 마다 압축하는 메모리를 포함할 수 있다.Further, another embodiment of the present invention may include a prediction unit that performs prediction on an input layer, and a memory that compresses motion information about each layer for each access unit.
본 발명의 일 실시예에 따르면, 본 발명은 인터 레이어 예측에 사용되는 움직임 정보를 압축하는 방법 및 이를 이용한 장치를 제공할 수 있다.According to an embodiment of the present invention, the present invention may provide a method for compressing motion information used for interlayer prediction and an apparatus using the same.
또한, 본 발명의 일 실시예에 따르면, 인터 레이어 예측에 사용되는 움직임 정보를 베이스 레이어에서 유도하는 경우, 움직임 정보의 정확도를 높여 예측의 성능을 향상시킬 수 있다.Further, according to an embodiment of the present invention, when the base layer derives motion information used for inter-layer prediction, the accuracy of the motion information may be increased to improve the performance of the prediction.
또한, 본 발명의 일 실시예에 따르면, 인핸스먼트 레이어에서 베이스 레이어의 움직임 정보를 이용할 때 압축되지 않은 움직임 정보를 이용할 수 있어 움직임 정보의 정확도를 높여 예측의 성능을 향상시킬 수 있다.In addition, according to an embodiment of the present invention, when the motion information of the base layer is used in the enhancement layer, uncompressed motion information can be used, thereby improving the accuracy of the motion information to improve prediction performance.
한편, 본 발명의 다른 실시예에 따르면 레이어 간 해상도 비율을 반영하여 레이어의 움직임 정보를 저장할 수 있어 데이터 저장 효율을 증가시킬 수 있다.Meanwhile, according to another exemplary embodiment of the present invention, motion information of a layer may be stored by reflecting the resolution ratio between layers, thereby increasing data storage efficiency.
도 1은 본 발명의 일 실시예에 따라 스케일러빌러티를 지원하는 비디오 인코딩 장치를 개략적으로 도시한 블록도이다. 1 is a block diagram schematically illustrating a video encoding apparatus supporting scalability according to an embodiment of the present invention.
도 2는 본 발명에 따라서 스케일러블 코딩을 수행하는 인코딩 장치에서의 인터 레이어 예측에 관한 일 예를 설명하는 블록도이다.2 is a block diagram illustrating an example of interlayer prediction in an encoding apparatus that performs scalable coding according to the present invention.
도 3은 본 발명의 일 실시예에 따라 스케일러빌러티를 지원하는 비디오 디코딩 장치를 개략적으로 도시한 블록도이다.3 is a block diagram schematically illustrating a video decoding apparatus supporting scalability according to an embodiment of the present invention.
도 4는 본 발명에 따라서 스케일러블 코딩을 수행하는 디코딩 장치에서의 인터 레이어 예측에 관한 일 예를 설명하는 블록도이다.4 is a block diagram illustrating an example of interlayer prediction in a decoding apparatus that performs scalable coding according to the present invention.
도 5는 본 발명이 적용되는 스케일러불 코딩의 레이어 구조를 개략적으로 설명하는 도면이다.5 is a diagram schematically illustrating a layer structure of scalable coding to which the present invention is applied.
인터 예측 및 인터 레이어 예측에 대한 설명을 위하여 레이어를 도시한 도면이다. A layer is illustrated for explaining inter prediction and inter layer prediction.
도 6은 인터 예측에 사용되는 움직임 정보를 압축 저장하는 방법을 설명하기 위한 도면이다.6 is a diagram for describing a method of compressing and storing motion information used for inter prediction.
도 7은 본 발명에 따라 인터 레이어 예측에 사용되는 움직임 정보를 압축하는 방법을 설명하기 위한 제어흐름도이다.7 is a control flowchart illustrating a method of compressing motion information used for inter-layer prediction according to the present invention.
도 8은 본 발명의 다른 실시예에 따라 인터 레이어 예측에 사용되는 움직임 정보를 저장하는 방법을 설명하기 위한 도면이다.8 is a diagram for describing a method of storing motion information used for inter-layer prediction, according to another embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니다. 본 명세서에서 사용하는 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명의 기술적 사상을 한정하려는 의도로 사용되는 것은 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.As the present invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the invention to the specific embodiments. The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the spirit of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, terms such as "comprise" or "have" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described on the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.
한편, 본 발명에서 설명되는 도면상의 각 구성들은 비디오 인코딩 장치/디코딩 장치에서 서로 다른 특징적인 기능들에 관한 설명의 편의를 위해 독립적으로 도시된 것으로서, 각 구성들이 서로 별개의 하드웨어나 별개의 소프트웨어로 구현된다는 것을 의미하지는 않는다. 예컨대, 각 구성 중 두 개 이상의 구성이 합쳐져 하나의 구성을 이룰 수도 있고, 하나의 구성이 복수의 구성으로 나뉘어질 수도 있다. 각 구성이 통합 및/또는 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.On the other hand, each of the components in the drawings described in the present invention are shown independently for the convenience of description of the different characteristic functions in the video encoding apparatus / decoding apparatus, each component is a separate hardware or separate software It does not mean that it is implemented. For example, two or more of each configuration may be combined to form one configuration, or one configuration may be divided into a plurality of configurations. Embodiments in which each configuration is integrated and / or separated are also included in the scope of the present invention without departing from the spirit of the present invention.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성 요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성 요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention. Hereinafter, the same reference numerals are used for the same components in the drawings, and redundant description of the same components is omitted.
스케일러빌러티를 지원하는 비디오 코딩 방법(이하, ‘스케일러블 코딩’이라 함)에서는 입력 신호들을 레이어 별로 처리할 수 있다. 레이어에 따라서 입력 신호(입력 영상)들은 해상도(resolution), 프레임 레이트(frame rate), 비트 뎁스(bit-depth), 컬러 포맷(color format), 애스팩트 율(aspect ratio) 중 적어도 하나가 상이할 수 있다.In a video coding method supporting scalability (hereinafter, referred to as 'scalable coding'), input signals may be processed for each layer. Depending on the layer, the input signals (input images) may differ in at least one of resolution, frame rate, bit-depth, color format, and aspect ratio. Can be.
본 명세서에서, 스케일러블 코딩이라 함은 스케일러블 인코딩과 스케일러블 디코딩을 포함한다.In the present specification, scalable coding includes scalable encoding and scalable decoding.
스케일러블 인코딩/디코딩에서는 레이어 간의 차이를 이용하여, 즉 스케일러빌러티에 기반하여, 레이어 간의 예측을 수행함으로써 정보의 중복 전송/처리를 줄이고 압축 효율을 높일 수 있다.In scalable encoding / decoding, prediction between layers is performed by using differences between layers, that is, based on scalability, thereby reducing overlapping transmission / processing of information and increasing compression efficiency.
도 1은 본 발명의 일 실시예에 따라 스케일러빌러티를 지원하는 비디오 인코딩 장치를 개략적으로 도시한 블록도이다. 1 is a block diagram schematically illustrating a video encoding apparatus supporting scalability according to an embodiment of the present invention.
도 1을 참조하면, 인코딩 장치(100)는 레이어 1에 대한 인코딩부(105)와 레이어 0에 대한 인코딩부(155)를 포함한다. Referring to FIG. 1, the encoding apparatus 100 includes an encoder 105 for layer 1 and an encoder 155 for layer 0.
레이어 0은 베이스 레이어, 참조 레이어 혹은 하위 레이어일 수 있으며, 레이어 1은 인핸스먼트 레이어, 현재 레이어 혹은 상위 레이어일 수 있다. Layer 0 may be a base layer, a reference layer, or a lower layer, and layer 1 may be an enhancement layer, a current layer, or an upper layer.
레이어 1의 인코딩부(105)는 인터/인트라 예측부(110), 변환/양자화부(115), 필터링부(120), DPB(Decoded Picture Buffer, 125), 엔트로피 코딩부(130), 유닛 파라미터 예측부(135), 움직임 예측/리스케일링(rescaling)부(140), 텍스쳐 예측/리스케일링부(145), 파라미터 예측부(150) 및 MUX(Multiplexer, 185)를 포함한다. The encoder 105 of the layer 1 includes an inter / intra predictor 110, a transform / quantizer 115, a filter 120, a decoded picture buffer 125, an entropy coding unit 130, and a unit parameter. The prediction unit 135 includes a motion predictor / rescaler 140, a texture predictor / rescaler 145, a parameter predictor 150, and a multiplexer 185.
레이어 0의 인코딩부(155)는 인터/인트라 예측부(160), 변환/양자화부(165), 필터링부(170), DPB(175) 및 엔트로피 코딩부(180)를 포함한다. The encoding unit 155 of the layer 0 includes an inter / intra prediction unit 160, a transform / quantization unit 165, a filtering unit 170, a DPB 175, and an entropy coding unit 180.
인터/인트라 예측부(110, 160)는 입력된 영상에 대하여 인터 예측과 인트라 예측을 수행할 수 있다. 인터/인트라 예측부(110, 160)는 소정의 처리 단위로 예측을 수행할 수 있다. 예측의 수행 단위는 코딩 유닛(Coding Unit: CU)일 수도 있고, 예측 유닛(Prediction Unit: PU)일 수도 있으며, 변환 유닛(Transform Unit: TU)일 수도 있다. The inter / intra predictors 110 and 160 may perform inter prediction and intra prediction on the input image. The inter / intra predictor 110 or 160 may perform prediction in a predetermined processing unit. The performing unit of prediction may be a coding unit (CU), a prediction unit (PU), or a transform unit (TU).
예컨대, 인터/인트라 예측부(110, 160)는 CU 단위로 인터 예측을 적용할 것인지 인트라 예측을 적용할 것인지를 결정하고, PU 단위로 예측의 모드를 결정하며, PU 단위 혹은 TU 단위로 예측을 수행할 수도 있다. 수행되는 예측은 예측 블록의 생성과 레지듀얼 블록(레지듀얼 신호)의 생성을 포함한다. For example, the inter / intra prediction units 110 and 160 determine whether to apply inter prediction or intra prediction on a CU basis, determine a prediction mode on a PU basis, and perform prediction on a PU basis or a TU basis. It can also be done. Prediction performed includes generation of a prediction block and generation of a residual block (residual signal).
인터 예측을 통해서는 현재 픽처의 이전 픽처 및/또는 이후 픽처 중 적어도 하나의 픽처의 정보를 기초로 예측을 수행하여 예측 블록을 생성할 수 있다. 인트라 예측을 통해서는 현재 픽처 내의 픽셀 정보를 기초로 예측을 수행하여 예측 블록을 생성할 수 있다. Through inter prediction, a prediction block may be generated by performing prediction based on information of at least one picture of a previous picture and / or a subsequent picture of the current picture. Through intra prediction, prediction blocks may be generated by performing prediction based on pixel information in a current picture.
인터 예측의 모드 또는 방법으로서, 스킵(skip) 모드, 머지(merge) 모드, MVP(Motion Vector Predictor) 모드 방법 등이 있다. 인터 예측에서는 예측 대상인 현재 PU에 대하여 참조 픽처를 선택하고, 참조 픽처 내에서 현재 PU에 대응하는 참조 블록을 선택할 수 있다. 인터/인트라 예측부(160)는 참조 블록을 기반으로 예측 블록을 생성할 수 있다.As a mode or method of inter prediction, there are a skip mode, a merge mode, a motion vector predictor (MVP) mode method, and the like. In inter prediction, a reference picture may be selected with respect to the current PU that is a prediction target, and a reference block corresponding to the current PU may be selected within the reference picture. The inter / intra predictor 160 may generate a prediction block based on the reference block.
예측 블록은 정수 샘플 단위로 생성될 수도 있고, 정수 이하 픽셀 단위로 생성될 수도 있다. 이때, 움직임 벡터 역시 정수 픽셀 단위 혹은 정수 픽셀 이하의 단위로 표현될 수 있다. The prediction block may be generated in integer sample units or may be generated in integer or less pixel units. In this case, the motion vector may also be expressed in units of integer pixels or units of integer pixels or less.
인터 예측에 있어서 움직임 정보 즉, 참조 픽처의 인덱스, 움직임 벡터, 레지듀얼 신호 등의 정보는 엔트로피 인코딩되어 디코딩 장치에 전달된다. 스킵 모드가 적용되는 경우에는 레지듀얼을 생성, 변환, 양자화, 전송하지 않을 수 있다. In inter prediction, motion information, that is, information such as an index of a reference picture, a motion vector, and a residual signal, is entropy encoded and transmitted to a decoding apparatus. When the skip mode is applied, residuals may not be generated, transformed, quantized, or transmitted.
인트라 예측에서 예측 모드는 33개의 방향성 예측 모드와 적어도 2개 이상의 비방향성 모드를 가질 수 있다. 비향성성 모드는 DC 예측 모드 및 플래이너 모드(Planar 모드)을 포함할 수 있다. 인트라 예측에서는 참조 샘플에 필터를 적용한 후 예측 블록을 생성할 수도 있다. In intra prediction, the prediction mode may have 33 directional prediction modes and at least two non-directional modes. The non-directional mode may include a DC prediction mode and a planner mode (Planar mode). In intra prediction, a prediction block may be generated after applying a filter to a reference sample.
PU는 다양한 사이즈/형태의 블록일 수 있으며, 예컨대 인터 예측의 경우에 PU는 2N×2N 블록, 2N×N 블록, N×2N 블록, 또는 N×N 블록 (N은 정수) 등일 수 있다. 인트라 예측의 경우에 PU는 2N×2N 블록 또는 N×N 블록 (N은 정수) 등일 수 있다. 이때, N×N 블록 크기의 PU는 특정한 경우에만 적용하도록 설정할 수 있다. 예컨대 최소 크기 CU에 대해서만 NxN 블록 크기의 PU를 이용하도록 정하거나 인트라 예측에 대해서만 이용하도록 정할 수도 있다. 또한, 상술한 크기의 PU 외에, N×mN 블록, mN×N 블록, 2N×mN 블록 또는 mN×2N 블록 (m<1) 등의 PU를 더 정의하여 사용할 수도 있다.The PU may be a block of various sizes / types, for example, in the case of inter prediction, the PU may be a 2N × 2N block, a 2N × N block, an N × 2N block, an N × N block (N is an integer), or the like. In the case of intra prediction, the PU may be a 2N × 2N block or an N × N block (where N is an integer). In this case, the PU of the N × N block size may be set to apply only in a specific case. For example, the NxN block size PU may be used only for the minimum size CU or only for intra prediction. In addition to the above-described PUs, PUs such as N × mN blocks, mN × N blocks, 2N × mN blocks, or mN × 2N blocks (m <1) may be further defined and used.
변환/양자화부(115, 165)는 변환 블록 단위로 레지듀얼 블록에 대한 변환을 수행하여 변환 계수를 생성하고, 변환 계수를 양자화한다. The transform / quantization units 115 and 165 perform transform on the residual block in transform block units to generate transform coefficients and quantize the transform coefficients.
변환 블록은 샘플들의 사각형 블록으로서 동일한 변환이 적용되는 블록이다. 변환 블록은 변환 유닛(TU)일 수 있으며, 쿼드 트리(quad tree) 구조를 가질 수 있다. The transform block is a block of samples and is a block to which the same transform is applied. The transform block can be a transform unit (TU) and can have a quad tree structure.
변환/양자화부(115, 165)는 레지듀얼 블록에 적용된 예측 모드와 블록의 크기에 따라서 변환을 수행해서 변환 계수들의 2차원 어레이를 생성할 수 있다. 예컨대, 레지듀얼 블록에 인트라 예측이 적용되었고 블록이 4x4의 레지듀얼 배열이라면, 레지듀얼 블록을 DST(Discrete Sine Transform)를 이용하여 변환하고, 그 외의 경우라면 레지듀얼 블록을 DCT(Discrete Cosine Transform)를 이용하여 변환할 수 있다. The transform / quantization units 115 and 165 may generate a 2D array of transform coefficients by performing transform according to the prediction mode applied to the residual block and the size of the block. For example, if intra prediction is applied to a residual block and the block is a 4x4 residual array, the residual block is transformed using a discrete sine transform (DST), otherwise the residual block is transformed into a discrete cosine transform (DCT). Can be converted using.
변환/양자화부(115, 165)는 변환 계수들을 양자화하여 양자화된 변환 계수를 생성할 수 있다. The transform / quantization unit 115 and 165 may quantize the transform coefficients to generate quantized transform coefficients.
변환/양자화부(115, 165)는 양자화된 변환 계수를 엔트로피 코딩부(130, 180)로 전달할 수 있다. 이때, 변환/양자화부(165)는 양자화된 변환 계수의 2차원 어레이를 소정의 스캔 순서에 따라 1차원 어레이로 재정렬하여 엔트로피 코딩부(130, 180)로 전달할 수도 있다. 또한, 변환/양자화부(115, 165)는 인터 예측을 위해, 레지듀얼과 예측 블록을 기반으로 생성된 복원 블록을 변환/양자화하지 않고, 필터링부(120, 170)에 전달할 수 있다. The transform / quantization units 115 and 165 may transfer the quantized transform coefficients to the entropy coding units 130 and 180. In this case, the transform / quantization unit 165 may rearrange the two-dimensional array of quantized transform coefficients into one-dimensional arrays according to a predetermined scan order and transfer them to the entropy coding units 130 and 180. Also, the transform / quantizers 115 and 165 may transmit the reconstructed block generated based on the residual and the predictive block to the filtering units 120 and 170 for inter prediction.
엔트로피 코딩부(130, 180)는 양자화된 변환 계수들에 대한 엔트로피 인코딩을 수행할 수 있다. 엔트로피 인코딩에는 예를 들어, 지수 골롬(Exponential Golomb), CABAC(Context-Adaptive Binary Arithmetic Coding) 등과 같은 인코딩 방법을 사용할 수 있다. The entropy coding units 130 and 180 may perform entropy encoding on the quantized transform coefficients. Entropy encoding may use, for example, an encoding method such as Exponential Golomb, Context-Adaptive Binary Arithmetic Coding (CABAC), or the like.
필터링부(120, 170)는 디블록킹 필터, ALF(Adaptive Loop Filter), SAO(Sample Adaptive Offset)를 복원된 픽처에 적용할 수 있다. The filtering units 120 and 170 may apply a deblocking filter, an adaptive loop filter (ALF), and a sample adaptive offset (SAO) to the reconstructed picture.
디블록킹 필터는 복원된 픽처에서 블록 간의 경계에 생긴 왜곡을 제거할 수 있다. ALF(Adaptive Loop Filter)는 디블록킹 필터를 통해 블록이 필터링된 후 복원된 영상과 원래의 영상을 비교한 값을 기초로 필터링을 수행할 수 있다. SAO는 디블록킹 필터가 적용된 레지듀얼 블록에 대하여, 픽셀 단위로 원본 영상과의 오프셋 차이를 복원하며, 밴드 오프셋(Band Offset), 에지 오프셋(Edge Offset) 등의 형태로 적용된다. The deblocking filter may remove distortion generated at the boundary between blocks in the reconstructed picture. The adaptive loop filter (ALF) may perform filtering based on a value obtained by comparing the reconstructed image with the original image after the block is filtered through the deblocking filter. The SAO restores the offset difference from the original image on a pixel-by-pixel basis to the residual block to which the deblocking filter is applied, and is applied in the form of a band offset and an edge offset.
필터링부(120, 170)는 디블록킹 필터, ALF, SAO를 모두 적용하지 않고 디블록킹 필터만 적용하거나 디블록킹 필터와 ALF만 적용하거나 디블록킹 필터와 SAO만을 적용할 수도 있다. The filtering units 120 and 170 may apply only the deblocking filter, only the deblocking filter and the ALF, or only the deblocking filter and the SAO without applying all of the deblocking filter, ALF, and SAO.
DPB(125, 175)는 필터링부(125, 170)로부터 복원 블록 또는 복원 픽처를 전달받아 저장할 수 있다. DPB(125, 175)는 복원 블록 또는 픽처를 인터 예측을 수행하는 인터/인트라 예측부(110, 160)에 제공할 수 있다. The DPBs 125 and 175 may receive the reconstructed block or the reconstructed picture from the filtering units 125 and 170 and store the received reconstruction block. The DPBs 125 and 175 may provide the reconstructed block or picture to the inter / intra predictor 110 or 160 that performs inter prediction.
레이어 0의 엔트로피 코딩부(180)에서 출력되는 정보와 레이어 1의 엔트로피 코딩부(130)에서 출력되는 정보는 MUX(185)에서 멀티플렉싱되어 비트스트림으로 출력될 수 있다.Information output from the entropy coding unit 180 of the layer 0 and information output from the entropy coding unit 130 of the layer 1 may be multiplexed by the MUX 185 and output as a bitstream.
한편, 레이어 1의 인코딩부(105)는 레이어 0의 정보를 이용하여 레이어 1의 영상에 대한 예측을 수행하는 인터 레이어 예측을 위해 유닛 파라미터 예측부(135), 움직임 예측/리스케일링부(140), 텍스쳐 예측/리스케일링부(145), 파라미터 예측부(150) 등을 포함할 수 있다.Meanwhile, the encoding unit 105 of the layer 1 may use the unit parameter predictor 135 and the motion predictor / rescaler 140 for inter-layer prediction for performing prediction on the image of the layer 1 using the layer 0 information. , Texture predictor / rescaler 145, parameter predictor 150, and the like.
유닛 파라미터 예측부(135)는 베이스 레이어의 유닛(CU, PU 및/또는 TU) 정보를 유도하여 인핸스먼트 레이어의 유닛 정보로 사용하도록 하거나, 베이스 레이어의 유닛 정보를 기반으로 인핸스먼트 레이어의 유닛 정보가 결정될 수 있도록 한다.The unit parameter predictor 135 derives unit (CU, PU and / or TU) information of the base layer to use as unit information of the enhancement layer, or unit information of the enhancement layer based on the unit information of the base layer. To be determined.
움직임 예측부(140)는 인터 레이어 움직임 예측을 수행한다. 인터 레이어 움직임 예측을 인터 레이어 인터 예측이라고도 한다. 움직임 예측부(140)는 참조 레이어(베이스 레이어)의 움직임 정보를 이용하여 현재 레이어(인핸스먼트 레이어)의 현재 블록에 대한 예측을 수행할 수 있다. The motion predictor 140 performs interlayer motion prediction. Inter-layer motion prediction is also called inter-layer inter prediction. The motion predictor 140 may perform prediction on the current block of the current layer (enhanced layer) using the motion information of the reference layer (base layer).
움직임 예측부(140)는 필요한 경우에, 참조 레이어의 움직임 정보를 스케일링 할 수 있다. If necessary, the motion predictor 140 may scale motion information of the reference layer.
텍스쳐 예측부(145)는 레이어 0의 정보를 기반으로 텍스처 예측을 수행할 수 있다. 텍스처 예측은 인트라 BL(Base Layer) 예측이라고도 불린다. 텍스처 예측은 참조 레이어가 I 슬라이스로서 인트라 예측에 의해 복원된 경우에 적용될 수 있다. 텍스쳐 예측에서는 참조 레이어 내 참조 블록의 텍스처를 인핸스먼트 레이어의 현재 블록에 대한 예측 값으로 사용할 수 있다. 이때, 참조 블록의 텍스처는 업샘플링에 의해 스케일링될 수 있다.The texture predictor 145 may perform texture prediction based on the information of the layer 0. Texture prediction is also called intra base layer (BL) prediction. Texture prediction may be applied when the reference layer is reconstructed by intra prediction as an I slice. In texture prediction, the texture of the reference block in the reference layer may be used as a prediction value for the current block of the enhancement layer. In this case, the texture of the reference block may be scaled by upsampling.
파라미터 예측부(150)는 베이스 레이어에서 사용한 파라미터를 유도하여 인핸스먼트 레이어에서 재사용하도록 하거나 베이스 레이어에서 사용한 파라미터를 기반으로 인핸스먼트 레이어에 대한 파라미터를 예측할 수 있다.The parameter predictor 150 may derive the parameters used in the base layer to reuse them in the enhancement layer or predict the parameters for the enhancement layer based on the parameters used in the base layer.
한편, 여기서는 설명의 편의를 위해, 레이어 1의 인코딩부(105)가 MUX(185)를 포함하는 것으로 설명하였으나, MUX는 레이어 1의 인코딩부(105) 및 레이어 0의 인코딩부(155)와는 별도의 장치 혹은 모듈일 수 있다.Meanwhile, for the sake of convenience of description, the encoding unit 105 of the layer 1 includes the MUX 185, but the MUX is separate from the encoding unit 105 of the layer 1 and the encoding unit 155 of the layer 0. It may be a device or a module of.
도 2는 본 발명에 따라서 스케일러블 코딩을 수행하는 인코딩 장치에서의 인터 레이어 예측에 관한 일 예를 설명하는 블록도이다.2 is a block diagram illustrating an example of interlayer prediction in an encoding apparatus that performs scalable coding according to the present invention.
도 2를 참조하면, 레이어 1의 예측부(210)는 인터/인트라 예측부(220) 및 인터 레이어 예측부(230)를 포함한다. Referring to FIG. 2, the predictor 210 of the layer 1 includes an inter / intra predictor 220 and an interlayer predictor 230.
레이어 1의 예측부(210)는 레이어 0의 정보로부터 레이어 1의 예측에 필요한 인터 레이어 예측을 수행할 수 있다. The prediction unit 210 of the layer 1 may perform interlayer prediction necessary for the prediction of the layer 1 from the information of the layer 0.
예컨대, 인터 레이어 예측부(230)는 레이어 0의 인터/인트라 예측부(250) 및/또는 필터링부(260)로부터 레이어 0의 정보를 전달받아 레이어 1의 예측에 필요한 인터 레이어 예측을 수행할 수 있다. For example, the interlayer prediction unit 230 may receive the layer 0 information from the inter / intra predictor 250 and / or the filter 260 of the layer 0 to perform interlayer prediction necessary for the prediction of the layer 1. have.
레이어 1의 인터/인트라 예측부(220)는 레이어 1의 정보를 이용하여 인터 예측 혹은 인트라 예측을 수행할 수 있다. The inter / intra predictor 220 of the layer 1 may perform inter prediction or intra prediction using the information of the layer 1.
또한, 레이어 1의 인터/인트라 예측부(220)는 인터 레이어 예측부(230)로부터 전달된 정보를 이용하여 레이어 0의 정보에 기반한 예측을 수행할 수도 있다.Also, the inter / intra predictor 220 of the layer 1 may perform prediction based on the information of the layer 0 using the information transmitted from the interlayer predictor 230.
아울러, 레이어 1의 필터링부(240)는 레이어 1의 정보에 기반하여 필터링을 수행할 수도 있고, 레이어 0의 정보에 기반하여 필터링을 수행할 수도 있다. 레이어 0의 정보는 레이어 0의 필터링부(260)으로부터 레이어 1의 필터링부(240)에 전달될 수도 있고, 레이어 1의 인터 레이어 예측부(230)로부터 레이어 1의 필터링부(240)에 전달될 수도 있다. In addition, the filtering unit 240 of the layer 1 may perform the filtering based on the information of the layer 1, or may perform the filtering based on the information of the layer 0. Information of the layer 0 may be transferred from the filtering unit 260 of the layer 0 to the filtering unit 240 of the layer 1, or may be transferred from the interlayer prediction unit 230 of the layer 1 to the filtering unit 240 of the layer 1. It may be.
한편, 레이어 0으로부터 인터 레이어 예측부(230)로 전달되는 정보로는 레이어 0의 유닛 파라미터에 관한 정보, 레이어 0의 움직임 정보, 레이어 0의 텍스처 정보, 레이어 0의 필터 파라미터 정보 중 적어도 하나일 수 있다. The information transmitted from the layer 0 to the interlayer prediction unit 230 may be at least one of information about a unit parameter of the layer 0, motion information of the layer 0, texture information of the layer 0, and filter parameter information of the layer 0. have.
따라서, 인터 레이어 예측부(230)는 도 1에서 인터 레이어 예측을 수행하는 유닛 파라미터 예측부(135), 움직임 예측부(140), 텍스처 예측부(145), 파라미터 예측부(150) 중 일부 또는 전부를 포함할 수 있다.Accordingly, the interlayer prediction unit 230 may include a part of the unit parameter predictor 135, the motion predictor 140, the texture predictor 145, and the parameter predictor 150 that perform interlayer prediction in FIG. 1 or It can contain everything.
또한, 레이어 1에서, 인터/인트라 예측부(220)는 도 1의 인터/인트라 예측부(110)에 대응할 수 있고, 필터링부(240)는 도 1의 필터링부(120)에 대응할 수 있다. 레이어 0에서, 인터/인트라 예측부(250)는 도 1의 인터/인트라 예측부(160)에 대응할 수 있고, 필터링부(260)는 도 1의 필터링부(170)에 대응할 수 있다.In addition, in layer 1, the inter / intra predictor 220 may correspond to the inter / intra predictor 110 of FIG. 1, and the filter 240 may correspond to the filter 120 of FIG. 1. In layer 0, the inter / intra predictor 250 may correspond to the inter / intra predictor 160 of FIG. 1, and the filter 260 may correspond to the filter 170 of FIG. 1.
도 3은 본 발명의 일 실시예에 따라 스케일러빌러티를 지원하는 비디오 디코딩 장치를 개략적으로 도시한 블록도이다.3 is a block diagram schematically illustrating a video decoding apparatus supporting scalability according to an embodiment of the present invention.
도 3을 참조하면, 디코딩 장치(300)는 레이어 1의 디코딩부(310)와 레이어 0의 디코딩부(350)를 포함한다. Referring to FIG. 3, the decoding apparatus 300 includes a decoder 310 of layer 1 and a decoder 350 of layer 0.
레이어 0은 베이스 레이어, 참조 레이어 혹은 하위 레이어일 수 있으며, 레이어 1은 인핸스먼트 레이어, 현재 레이어 혹은 상위 레이어일 수 있다.Layer 0 may be a base layer, a reference layer, or a lower layer, and layer 1 may be an enhancement layer, a current layer, or an upper layer.
레이어 1의 디코딩부(310)는 엔트로피 디코딩부(315), 재정렬부(320), 역양자화부(325), 역변환부(330), 예측부(335), 필터링부(340), 메모리를 포함할 수 있다. The decoding unit 310 of the layer 1 includes an entropy decoding unit 315, a reordering unit 320, an inverse quantization unit 325, an inverse transform unit 330, a prediction unit 335, a filtering unit 340, and a memory. can do.
레이어 0의 디코딩부(350)는 엔트로피 디코딩부(355), 재정렬부(360), 역양자화부(365), 역변환부(370), 필터링부(380), 메모리(385)를 포함할 수 있다. The decoding unit 350 of the layer 0 may include an entropy decoding unit 355, a reordering unit 360, an inverse quantization unit 365, an inverse transform unit 370, a filtering unit 380, and a memory 385. .
인코딩 장치로부터 영상 정보를 포함하는 비트스트림이 전송되면, DEMUX(305)는 레이어 별로 정보를 디멀티플렉싱하여 각 레이어별 디코딩 장치로 전달할 수 있다.When the bitstream including the image information is transmitted from the encoding device, the DEMUX 305 may demultiplex the information for each layer and deliver the information to the decoding device for each layer.
엔트로피 디코딩부(315, 355)는 인코딩 장치에서 사용한 엔트로피 코딩 방식에 대응하여 엔트로피 디코딩을 수행할 수 있다. 예컨대, 인코딩 장치에서 CABAC이 사용된 경우에, 엔트로피 디코딩부(315, 355)도 CABAC을 이용하여 엔트로피 디코딩을 수행할 수 있다.The entropy decoding units 315 and 355 may perform entropy decoding corresponding to the entropy coding scheme used in the encoding apparatus. For example, when CABAC is used in the encoding apparatus, the entropy decoding units 315 and 355 may also perform entropy decoding using CABAC.
엔트로피 디코딩부(315, 355)에서 디코딩된 정보 중 예측 블록을 생성하기 위한 정보는 예측부(335, 375)로 제공되고, 엔트로피 디코딩부(315, 355)에서 엔트로피 디코딩이 수행된 레지듀얼 값, 즉 양자화된 변환 계수는 재정렬부(320, 360)로 입력될 수 있다. Information for generating a prediction block among information decoded by the entropy decoding units 315 and 355 is provided to the prediction units 335 and 375, and a residual value of which entropy decoding is performed by the entropy decoding units 315 and 355. That is, the quantized transform coefficients may be input to the reordering units 320 and 360.
재정렬부(320, 360)는 엔트로피 디코딩부(315, 355)에서 엔트로피 디코딩된 비트스트림의 정보, 즉 양자화된 변환 계수를 인코딩 장치에서 재정렬한 방법을 기초로 재정렬할 수 있다. The reordering units 320 and 360 may rearrange the information of the bitstreams entropy decoded by the entropy decoding units 315 and 355, that is, the quantized transform coefficients, based on the reordering method in the encoding apparatus.
예컨대, 재정렬부(320, 360)는 1차원 어레이의 양자화된 변환 계수들을 다시 2차원 어레이의 계수들로 재정렬할 수 있다. 재정렬부(320, 360)는 현재 블록(변환 블록)에 적용된 예측 모드 및/또는 변환 블록의 크기를 기반으로 스캐닝을 수행하여 계수(양자화된 변환 계수)들의 2차원 어레이를 생성할 수 있다. For example, the reordering units 320 and 360 may rearrange the quantized transform coefficients of the one-dimensional array back to the coefficients of the two-dimensional array. The reordering units 320 and 360 may generate a two-dimensional array of coefficients (quantized transform coefficients) by performing scanning based on the prediction mode applied to the current block (transform block) and / or the size of the transform block.
역양자화부(325, 365)는 인코딩 장치에서 제공된 양자화 파라미터와 재정렬된 블록의 계수값을 기초로 역양자화를 수행하여 변환 계수들을 생성할 수 있다. The inverse quantizers 325 and 365 may generate transform coefficients by performing inverse quantization based on the quantization parameter provided by the encoding apparatus and the coefficient values of the rearranged block.
역변환부(330, 370)는 변환 계수들에 대하여 인코딩 장치의 변환부가 수행한 변환에 대한 역변환을 수행할 수 있다. 예컨대, 역변환부(330, 370)는 인코딩 장치에서 수행된 DCT(Discrete Cosine Transform) 및 DST(Discrete Sine Transform)에 대해 역DCT 및/또는 역DST를 수행할 수 있다. The inverse transformers 330 and 370 may perform inverse transform on the transform performed by the transform unit of the encoding apparatus. For example, the inverse transform units 330 and 370 may perform inverse DCT and / or inverse DST on a discrete cosine transform (DCT) and a discrete sine transform (DST) performed by an encoding apparatus.
인코딩 장치에서 DCT 및/또는 DST는 예측 방법, 현재 블록의 크기 및 예측 방향 등 복수의 정보에 따라 선택적으로 수행될 수 있고, 디코딩 장치의 역변환부(330, 370)는 인코딩 장치에서 수행된 변환 정보를 기초로 역변환을 수행할 수 있다. The DCT and / or DST in the encoding apparatus may be selectively performed according to a plurality of pieces of information, such as a prediction method, a size of a current block, and a prediction direction, and the inverse transformers 330 and 370 of the decoding apparatus may perform transform information performed in the encoding apparatus. Inverse transformation may be performed based on.
역변환부(330, 370)는 변환 계수들 혹은 변환 계수의 블록을 역변환하여 레지듀얼 혹은 레지듀얼 블록을 생성할 수 있다. The inverse transformers 330 and 370 may inverse transform the transform coefficients or the block of the transform coefficients to generate the residual or the residual block.
예측부(335, 375)는 엔트로피 디코딩부(315, 355)로부터 전달된 예측 블록 생성 관련 정보와 메모리(345, 385)에서 제공된 이전에 디코딩된 블록 및/또는 픽처 정보를 기초로 현재 블록에 대한 예측 블록을 생성할 수 있다. The prediction units 335 and 375 may perform prediction on the current block based on the prediction block generation related information transmitted from the entropy decoding units 315 and 355 and previously decoded blocks and / or picture information provided by the memories 345 and 385. A prediction block can be generated.
현재 블록에 대한 예측 모드가 인트라 예측(intra prediction) 모드인 경우에, 예측부(335, 375)는 현재 픽처 내의 픽셀 정보를 기초로 현재 블록에 대한 인트라 예측을 수행할 수 있다.When the prediction mode for the current block is an intra prediction mode, the prediction units 335 and 375 may perform intra prediction on the current block based on pixel information in the current picture.
현재 블록에 대한 예측 모드가 인터 예측(inter prediction) 모드인 경우에, 예측부(335, 375)는 현재 픽처의 이전 픽처 또는 이후 픽처 중 적어도 하나의 픽처에 포함된 정보를 기초로 현재 블록에 대한 인터 예측을 수행할 수 있다. 인터 예측에 필요한 움직임 정보의 일부 또는 전부는 인코딩 장치로부터 수신한 정보를 확인하고, 이에 대응하여 유도될 수 있다. When the prediction mode for the current block is the inter prediction mode, the prediction units 335 and 375 may perform the prediction on the current block based on information included in at least one of a previous picture or a subsequent picture of the current picture. Inter prediction may be performed. Some or all of the motion information required for inter prediction may be derived from the information received from the encoding apparatus and correspondingly.
인터 예측의 모드로서 스킵 모드가 적용되는 경우에는 인코딩 장치로부터 레지듀얼이 전송되지 않으며 예측 블록을 복원 블록으로 할 수 있다.When the skip mode is applied as the mode of inter prediction, residual is not transmitted from the encoding apparatus, and the prediction block may be a reconstruction block.
한편, 레이어 1의 예측부(335)는 레이어 1 내의 정보만을 이용하여 인터 예측 또는 인트라 예측을 수행할 수도 있고, 다른 레이어(레이어 0)의 정보를 이용하여 인터 레이어 예측을 수행할 수도 있다. Meanwhile, the prediction unit 335 of layer 1 may perform inter prediction or intra prediction using only information in layer 1, or may perform inter layer prediction using information of another layer (layer 0).
예컨대, 레이어 1의 예측부(335)는 레이어 1의 움직임 정보, 레이어 1의 텍스처 정보, 레이어 1의 유닛 정보, 레이어 1의 파라미터 정보 중 하나를 이용하여 현재 블록에 대한 예측을 수행할 수 있다. 또한, 레이어 1의 예측부(335)는 레이어 1의 움직임 정보, 레이어 1의 텍스처 정보, 레이어 1의 유닛 정보, 레이어 1의 파라미터 정보 중 복수의 정보를 이용하여 현재 블록에 대한 예측을 수행할 수도 있다.For example, the prediction unit 335 of the layer 1 may perform prediction on the current block by using one of the motion information of the layer 1, the texture information of the layer 1, the unit information of the layer 1, and the parameter information of the layer 1. In addition, the prediction unit 335 of the layer 1 may perform prediction on the current block by using a plurality of pieces of information of the motion information of the layer 1, the texture information of the layer 1, the unit information of the layer 1, and the parameter information of the layer 1. have.
레이어 1의 예측부(335)는 레이어 0의 예측부(375)로부터 레이어 1의 움직임 정보를 전달받아서 움직임 예측을 수행할 수 있다. 인터 레이어 움직임 예측을 인터 레이어 인터 예측이라고도 한다. 인터 레이어 움직임 예측에 의해, 참조 레이어(베이스 레이어)의 움직임 정보를 이용하여 현재 레이어(인핸스먼트 레이어)의 현재 블록에 대한 예측이 수행될 수 있다. 예측부(335)는 필요한 경우에, 참조 레이어의 움직임 정보를 스케일링 하여 이용할 수도 있다.The predictor 335 of the layer 1 may receive motion information of the layer 1 from the predictor 375 of the layer 0 to perform motion prediction. Inter-layer motion prediction is also called inter-layer inter prediction. By inter-layer motion prediction, prediction of a current block of a current layer (enhanced layer) may be performed using motion information of a reference layer (base layer). The prediction unit 335 may scale and use motion information of the reference layer when necessary.
레이어 1의 예측부(335)는 레이어 0의 예측부(375)로부터 레이어 1의 텍스처 정보를 전달받아서 텍스처 예측을 수행할 수 있다. 텍스처 예측은 인트라 BL(Base Layer) 예측이라고도 불린다. 텍스처 예측은 참조 레이어가 I 슬라이스로서 인트라 예측에 의해 복원된 경우에 적용될 수 있다. 텍스쳐 예측에서는 참조 레이어 내 참조 블록의 텍스처를 인핸스먼트 레이어의 현재 블록에 대한 예측 값으로 사용할 수 있다. 이때, 참조 블록의 텍스처는 업샘플링에 의해 스케일링될 수 있다.The predictor 335 of the layer 1 may receive texture information of the layer 1 from the predictor 375 of the layer 0 to perform texture prediction. Texture prediction is also called intra base layer (BL) prediction. Texture prediction may be applied when the reference layer is reconstructed by intra prediction as an I slice. In texture prediction, the texture of the reference block in the reference layer may be used as a prediction value for the current block of the enhancement layer. In this case, the texture of the reference block may be scaled by upsampling.
레이어 1의 예측부(335)는 레이어 0의 예측부(375)로부터 레이어 1의 유닛 파라미터 정보를 전달받아서 유닛 파라미터 예측을 수행할 수 있다. 유닛 파라미터 예측에 의해, 베이스 레이어의 유닛(CU, PU 및/또는 TU) 정보가 인핸스먼트 레이어의 유닛 정보로 사용되거나, 베이스 레이어의 유닛 정보를 기반으로 인핸스먼트 레이어의 유닛 정보가 결정될 수 있다.The predictor 335 of the layer 1 may receive unit parameter information of the layer 1 from the predictor 375 of the layer 0 to perform unit parameter prediction. By unit parameter prediction, unit (CU, PU, and / or TU) information of the base layer may be used as unit information of the enhancement layer, or unit information of the enhancement layer may be determined based on unit information of the base layer.
레이어 1의 예측부(335)는 레이어 0의 예측부(375)로부터 레이어 1의 필터링에 관한 파라미터 정보를 전달받아서 파라미터 예측을 수행할 수도 있다. 파라미터 예측에 의해, 베이스 레이어에서 사용한 파라미터를 유도하여 인핸스먼트 레이어에서 재사용하거나, 베이스 레이어에서 사용한 파라미터를 기반으로 인핸스먼트 레이어에 대한 파라미터를 예측할 수 있다.The predictor 335 of the layer 1 may receive parameter information regarding the filtering of the layer 1 from the predictor 375 of the layer 0 to perform parameter prediction. By parameter prediction, the parameters used in the base layer can be derived and reused in the enhancement layer, or the parameters for the enhancement layer can be predicted based on the parameters used in the base layer.
가산기(390, 395)는 예측부(335, 375)에서 생성된 예측 블록과 역변환부(330, 370)에서 생성된 레지듀얼 블록을 이용해 복원 블록을 생성할 수 있다. 이 경우, 가산기(390, 395)를 복원 블록을 생성하는 별도의 유닛(복원 블록 생성부)로 볼 수 있다. The adders 390 and 395 may generate reconstruction blocks using the prediction blocks generated by the predictors 335 and 375 and the residual blocks generated by the inverse transformers 330 and 370. In this case, the adders 390 and 395 can be viewed as separate units (restore block generation unit) for generating the reconstruction block.
가산기(390, 395)에서 복원된 블록 및/또는 픽처는 필터링부(340, 380)로 제공될 수 있다. Blocks and / or pictures reconstructed by the adders 390 and 395 may be provided to the filtering units 340 and 380.
필터링부(340, 380)는 복원된 블록 및/또는 픽처에 디블록킹 필터링, SAO(Sample Adaptive Offset) 및/또는 ALF 등을 적용할 수 있다. The filtering units 340 and 380 may apply deblocking filtering, sample adaptive offset (SAO), and / or ALF to the reconstructed blocks and / or pictures.
필터링부(340, 380)는 디블록킹 필터, ALF, SAO를 모두 적용하지 않고, 디블록킹 필터만 적용하거나, 디블록킹 필터와 ALF만 적용하거나, 디블록킹 필터와 SAO만을 적용할 수도 있다.The filtering units 340 and 380 may not apply all of the deblocking filter, ALF, and SAO, and may apply only the deblocking filter, only the deblocking filter and the ALF, or may apply only the deblocking filter and the SAO.
도 3의 예을 참조하면, 레이어 1의 필터링부(340)는 레이어 1의 예측부(335) 및/또는 레이어 1의 필터링부(380)으로부터 전달되는 파라미터 정보를 이용하여 복원된 픽처에 대한 필터링을 수행할 수도 있다. 예컨대, 레이어 1에서 필터링부(340)는 레이어 0에서 적용된 필터링의 파라미터로부터 예측된 파라미터를 이용하여 레이어 1에 대한 혹은 레이어 간의 필터링을 적용할 수 있다.Referring to the example of FIG. 3, the filtering unit 340 of the layer 1 performs filtering on the reconstructed picture by using parameter information transmitted from the prediction unit 335 of the layer 1 and / or the filtering unit 380 of the layer 1. It can also be done. For example, in layer 1, the filtering unit 340 may apply filtering to or between layers using a parameter predicted from the parameters of the filtering applied in layer 0.
메모리(345, 385)는 복원된 픽처 또는 블록을 저장하여 참조 픽처 또는 참조 블록으로 사용할 수 있도록 할 수 있다. 메모리(345, 385)는 저장된 복원 픽처를 소정의 출력부(미도시) 혹은 디스플레이(미도시)를 통해 출력할 수도 있다.The memories 345 and 385 may store the reconstructed picture or block to use as a reference picture or reference block. The memories 345 and 385 may output the stored reconstructed picture through a predetermined output unit (not shown) or a display (not shown).
도 3의 예에서는 재정렬부, 역양자화부, 역변환부 등으로 나누어 설명하였으나, 도 1의 인코딩 장치에서와 같이, 역양자화/역변환부의 한 모듈에서 재정렬, 역양자화, 역변환을 순서대로 수행하도록 디코딩 장치를 구성할 수도 있다. In the example of FIG. 3, the reordering unit, the inverse quantization unit, and the inverse transform unit have been described. However, as in the encoding apparatus of FIG. It can also be configured.
반대로, 도 3의 예에서는 예측부로 설명하였으나, 도 1의 예와 같이 레이어 1의 예측부는 다른 레이어(레이어 0)의 정보를 이용하여 예측을 수행하는 인터 레이어 예측부와 다른 레이어(레이어 0)의 정보를 이용하지 않고 예측을 수행하는 인터/인트라 예측부를 포함할 수도 있다.On the contrary, in the example of FIG. 3, the prediction unit is described. However, as in the example of FIG. 1, the prediction unit of the layer 1 includes the interlayer prediction unit that performs prediction using information of another layer (layer 0) and the other layer (layer 0). It may also include an inter / intra predictor that performs prediction without using information.
도 4는 본 발명에 따라서 스케일러블 코딩을 수행하는 디코딩 장치에서의 인터 레이어 예측에 관한 일 예를 설명하는 블록도이다. 도 4를 참조하면, 레이어 1의 예측부(410)는 인터/인트라 예측부(420) 및 인터 레이어 예측부(430)를 포함한다. 4 is a block diagram illustrating an example of interlayer prediction in a decoding apparatus that performs scalable coding according to the present invention. Referring to FIG. 4, the predictor 410 of the layer 1 includes an inter / intra predictor 420 and an interlayer predictor 430.
레이어 1의 예측부(410)는 레이어 0의 정보로부터 레이어 1의 예측에 필요한 인터 레이어 예측을 수행할 수 있다. The prediction unit 410 of the layer 1 may perform interlayer prediction necessary for the prediction of the layer 1 from the information of the layer 0.
예컨대, 인터 레이어 예측부(430)는 레이어 0의 인터/인트라 예측부(450) 및/또는 필터링부(460)로부터 레이어 0의 정보를 전달받아 레이어 1의 예측에 필요한 인터 레이어 예측을 수행할 수 있다. For example, the interlayer prediction unit 430 may receive the layer 0 information from the inter / intra prediction unit 450 and / or the filtering unit 460 of the layer 0 to perform interlayer prediction necessary for the prediction of the layer 1. have.
레이어 1의 인터/인트라 예측부(420)는 레이어 1의 정보를 이용하여 인터 예측 혹은 인트라 예측을 수행할 수 있다. The inter / intra predictor 420 of the layer 1 may perform inter prediction or intra prediction using the information of the layer 1.
또한, 레이어 1의 인터/인트라 예측부(420)는 인터 레이어 예측부(430)로부터 전달된 정보를 이용하여 레이어 0의 정보에 기반한 예측을 수행할 수도 있다.Also, the inter / intra predictor 420 of the layer 1 may perform prediction based on the information of the layer 0 using the information transmitted from the interlayer predictor 430.
레이어 1의 필터링부(440)는 레이어 0의 정보에 기반하여 필터링을 수행할 수도 있고, 레이어 0의 정보에 기반하여 필터링을 수행할 수도 있다. 레이어 0의 정보는 레이어 0의 필터링부(460)으로부터 레이어 1의 필터링부(440)에 전달될 수도 있고, 레이어 1의 인터 레이어 예측부(430)로부터 레이어 1의 필터링부(240)에 전달될 수도 있다. The filtering unit 440 of the layer 1 may perform the filtering based on the information of the layer 0 or may perform the filtering based on the information of the layer 0. Information of the layer 0 may be transferred from the filtering unit 460 of the layer 0 to the filtering unit 440 of the layer 1, or may be transferred from the interlayer prediction unit 430 of the layer 1 to the filtering unit 240 of the layer 1. It may be.
한편, 레이어 0으로부터 인터 레이어 예측부(430)로 전달되는 정보로는 레이어 0의 유닛 파라미터에 관한 정보, 레이어 0의 움직임 정보, 레이어 0의 텍스처 정보, 레이어 0의 필터 파라미터 정보 중 적어도 하나일 수 있다. The information transmitted from the layer 0 to the interlayer prediction unit 430 may be at least one of information about a unit parameter of the layer 0, motion information of the layer 0, texture information of the layer 0, and filter parameter information of the layer 0. have.
레이어 1에서 예측부(410) 는 도 3의 예측부(335)에 대응할 수 있고, 필터링부(440)는 도 3의 필터링부(340)에 대응할 수 있다. 레이어 0에서, 예측부(450)는 도 3의 예측부(375)에 대응할 수 있고, 필터링부(460)는 도 3의 필터링부(380)에 대응할 수 있다.In layer 1, the predictor 410 may correspond to the predictor 335 of FIG. 3, and the filter 440 may correspond to the filter 340 of FIG. 3. In layer 0, the predictor 450 may correspond to the predictor 375 of FIG. 3, and the filter 460 may correspond to the filter 380 of FIG. 3.
또한, 도시하지는 않았지만, 인터 레이어 예측부(430)는 수행하는 인터 레이어 예측의 종류(예컨대, 움직임 예측, 텍스처 예측, 유닛 파라미터 예측, 파라미터 예측)에 따라서, 움직임 예측부, 텍스처 예측부, 유닛 파라미터 예측부, 파라미터 예측부를 포함할 수도 있다.In addition, although not shown, the inter-layer prediction unit 430 may include a motion prediction unit, a texture prediction unit, and a unit parameter according to the type of inter-layer prediction (eg, motion prediction, texture prediction, unit parameter prediction, and parameter prediction). The prediction unit and the parameter prediction unit may be included.
스케일러블 비디오 코딩에서는 다른 레이어의 정보를 이용하여 현재 레이어의 정보를 예측하는 인터 레이어 예측이 수행될 수 있다. 도 1 내지 도 4의 예에서 설명한 바와 같이, 인터 레이어 예측의 예로서 움직임 예측, 텍스처 예측, 유닛 예측, 파라미터 예측 등을 고려할 수 있다.In scalable video coding, interlayer prediction may be performed to predict information of a current layer by using information of another layer. As described in the example of FIGS. 1 to 4, motion prediction, texture prediction, unit prediction, parameter prediction, and the like may be considered as examples of inter-layer prediction.
도 5는 본 발명이 적용되는 스케일러블 코딩의 레이어 구조를 개략적으로 설명하는 도면이다. 5 is a diagram schematically illustrating a layer structure of scalable coding to which the present invention is applied.
POC가 n인 현재 픽처(510)는 다른 레이어의 정보를 참조하지 않고 다른 픽처의 정보를 이용하여 인터 예측을 할 수 있다. 예를 들어 현재 픽처(510)가 P 픽처이면 POC가 n보다 작은 이전 픽처의 정보를 이용하여 인터 예측을 수행하고, 현재 픽처(510)가 B 픽처이면 이전 픽처 및 POC가 n 보다 큰 이후 픽처의 정보를 이용하여 인터 예측을 수행할 수 있다. 인터 예측에 이용되는 예측 정보는 스킵 모드, 머지 모드, MVP(Motion Vector Predictor) 모드와 같은 예측 모드(predMode)에 대한 정보, 참조 픽처 인덱스, 움직임 벡터이다. The current picture 510 having a POC of n may perform inter prediction using information of another picture without referring to information of another layer. For example, if the current picture 510 is a P picture, inter prediction is performed using information of a previous picture having a POC smaller than n. If the current picture 510 is a B picture, a previous picture and a POC larger than n Inter prediction may be performed using the information. The prediction information used for inter prediction is information about a prediction mode (predMode) such as a skip mode, a merge mode, a motion vector predictor (MVP) mode, a reference picture index, and a motion vector.
인터 예측 시, 디코딩 장치 및 인코딩 장치는 현재 블록의 주변 블록의 움직임 정보를 이용할 수 있다. 주변 블록은 공간적 블록 및 시간적 블록을 포함하고, 주변 블록의 움직임 정보는 머지 모드일 때 움직임 벡터와 참조 픽처 인덱스이고, MVP 모드일 때는 움직임 벡터이다. 디코딩이 완료된 픽처에 대한 움직임 정보는 장치 내 메모리 또는 DPS에 압축 저장된다. In inter prediction, the decoding apparatus and the encoding apparatus may use motion information of neighboring blocks of the current block. The neighboring block includes a spatial block and a temporal block, and motion information of the neighboring block is a motion vector and a reference picture index in the merge mode, and a motion vector in the MVP mode. The motion information for the decoded picture is compressed and stored in the device memory or the DPS.
한편, 현재 픽처(510)에 대한 인터 레이어 예측의 경우, 동일한 POC의 다른 레이어(520)의 정보를 기반으로 예측이 수행된다. 본 명세서에서는 다른 레이어의 정보를 이용하여 현재 레이어의 정보를 예측하는 방법을, 설명의 편의를 위해, 인터 레이어 예측이라고 한다. Meanwhile, in the case of inter layer prediction on the current picture 510, prediction is performed based on information of another layer 520 of the same POC. In the present specification, a method of predicting information of a current layer using information of another layer is referred to as inter-layer prediction for convenience of description.
다른 레이어의 정보를 이용하여 예측되는 (즉, 인터 레이어 예측에 의해 예측되는) 현재 레이어의 정보로는 텍스처, 움직임 정보, 유닛 정보, 소정의 파라미터(예컨대, 필터링 파라미터 등) 등이 있을 수 있다. Information of the current layer that is predicted using information of another layer (ie, predicted by inter-layer prediction) may include texture, motion information, unit information, predetermined parameters (eg, filtering parameters, etc.).
또한, 현재 레이어에 대한 예측에 이용되는 (즉, 인터 레이어 예측에 이용되는) 다른 레이어의 정보로는 텍스처, 움직임 정보, 유닛 정보, 소정의 파라미터(예컨대, 필터링 파라미터 등)이 있을 수 있다. In addition, information of another layer used for prediction for the current layer (ie, used for inter-layer prediction) may include texture, motion information, unit information, and predetermined parameters (eg, filtering parameters).
인터 레이어 예측의 일 예로서, 인터 레이어 유닛 파라미터 예측에서는 베이스 레이어의 유닛(CU, PU 및/또는 TU) 정보를 유도하여 인핸스먼트 레이어의 유닛 정보로 사용하거나, 베이스 레이어의 유닛 정보를 기반으로 인핸스먼트 레이어의 유닛 정보를 결정할 수 있다. As an example of inter-layer prediction, in inter-layer unit parameter prediction, unit (CU, PU, and / or TU) information of a base layer is derived and used as unit information of an enhancement layer, or based on unit information of a base layer. Unit information of the treatment layer may be determined.
또한, 유닛 정보는 각 유닛 레벨에서의 정보를 포함할 수 있다. 예컨대, CU 정보의 경우, 파티션(CU, PU 및 또는 TU)에 관한 정보, 변환에 관한 정보, 예측에 대한 정보, 코딩에 대한 정보를 포함할 수 있다. PU 정보의 경우, PU 파티션에 관한 정보, 예측에 관한 정보(예컨대, 움직임 정보, 예측 모드에 관한 정보 등) 등을 포함할 수 있다. TU에 관한 정보는 TU 파티션에 관한 정보, 변환에 관한 정보(변환 계수, 변환 방법 등) 등을 포함할 수 있다.In addition, the unit information may include information at each unit level. For example, in the case of CU information, information about a partition (CU, PU and / or TU) may include information on transform, information on prediction, and information on coding. In the case of PU information, information on a PU partition and information on prediction (eg, motion information, information on a prediction mode, etc.) may be included. The information about the TU may include information about a TU partition, information on transform (transform coefficient, transform method, etc.).
또한, 유닛 정보는 처리 단위(예컨대, CU, PU, TU 등)의 분할 정보만을 포함할 수도 있다. In addition, the unit information may include only the partition information of the processing unit (eg, CU, PU, TU, etc.).
인터 레이어 예측의 다른 예인 인터 레이어 움직임 예측은 인터 레이어 인터 예측이라고도 한다. 인터 레이어 인터 예측에 의하면, 레이어 0 (참조 레이어 혹은 베이스 레이어)의 움직임 정보를 이용하여 레이어 1 (현재 레이어 혹은 인핸스먼트 레이어)의 현재 블록에 대한 예측을 수행할 수 있다. Interlayer motion prediction, another example of interlayer prediction, is also called interlayer inter prediction. According to inter-layer inter prediction, prediction of a current block of layer 1 (current layer or enhancement layer) may be performed using motion information of layer 0 (reference layer or base layer).
인터 레이어 인터 예측을 적용하는 경우에는, 참조 레이어의 움직임 정보를 스케일링 할 수도 있다. In case of applying inter-layer inter prediction, motion information of a reference layer may be scaled.
인터 레이어 예측의 또 다른 예로서 인터 레이어 텍스쳐 예측은 인트라 BL(Base Layer) 예측이라고도 불린다. 인터 레이어 텍스처 예측은 참조 레이어 내 참조 블록이 인트라 예측에 의해 복원된 경우에 적용될 수 있다. As another example of inter-layer prediction, inter-layer texture prediction is also called intra base layer (BL) prediction. Inter layer texture prediction may be applied when a reference block in a reference layer is reconstructed by intra prediction.
텍스쳐 예측에서는 참조 레이어 내 참조 블록의 텍스처를 인핸스먼트 레이어의 현재 블록에 대한 예측 값으로 사용할 수 있다. 이때, 참조 블록의 텍스처는 업샘플링에 의해 스케일링될 수 있다.In texture prediction, the texture of the reference block in the reference layer may be used as a prediction value for the current block of the enhancement layer. In this case, the texture of the reference block may be scaled by upsampling.
인터 레이어 예측의 또 다른 예인 인터 레이어 파라미터 예측에서는 베이스 레이어에서 사용한 파라미터를 유도하여 인핸스먼트 레이어에서 재사용하도록 하거나 베이스 레이어에서 사용한 파라미터를 기반으로 인핸스먼트 레이어에 대한 파라미터를 예측할 수 있다.In another example of inter-layer prediction, inter-layer parameter prediction may derive a parameter used in the base layer to reuse it in the enhancement layer or predict a parameter for the enhancement layer based on the parameter used in the base layer.
여기서는 인터 레이어 예측의 예로서, 인터 레이어 텍스처 예측, 인터 레이어 움직임 예측, 인터 레이어 유닛 정보 예측, 인터 레이어 파라미터 예측을 설명하였으나, 본 발명에서 적용할 수 있는 인터 레이어 예측은 이에 한정되지 않는다. As an example of interlayer prediction, interlayer texture prediction, interlayer motion prediction, interlayer unit information prediction, and interlayer parameter prediction have been described. However, the interlayer prediction applicable to the present invention is not limited thereto.
예컨대, 예측부는 인터 레이어 예측으로서 다른 레이어의 레지듀얼 정보를 이용하여 현재 레이어의 레지듀얼을 예측하고 이를 기반으로 현재 레이어 내 현재 블록에 대한 예측을 수행하는 인터 레이어 레지듀얼 예측을 이용할 수도 있다.For example, the prediction unit may use inter-layer residual prediction, which predicts the residual of the current layer using residual information of another layer as inter-layer prediction, and performs prediction on the current block in the current layer based on the residual layer.
한편, 인터 예측을 수행하기 위하여 필요한 움직임 정보는 픽처의 디코딩 과정 후 메모리에 저장된다. 본 명세서에서 디코딩 과정이란 생성된 예측 블록와 레지듀얼 블록을 이용하여 영상이 복원되는 과정을 의미할 수 있다. 또한, 디코딩 과정은 복원된 영상에 대한 필터링을 포함할 수도 있다.Meanwhile, motion information necessary to perform inter prediction is stored in a memory after a decoding process of a picture. In the present specification, the decoding process may mean a process of reconstructing an image by using the generated prediction block and the residual block. In addition, the decoding process may include filtering of the reconstructed image.
따라서, 현재 픽처에 대한 디코딩이 완료되면, 현재 픽처에 대한 움직임 정보는 다른 픽처의 예측에 사용되기 위하여 저장되며, 움직임 정보는 소정의 움직임 정보 저장 단위(Motion Data Storage Unit)별로 저장될 수 있다. Therefore, when decoding of the current picture is completed, motion information for the current picture is stored to be used for prediction of another picture, and the motion information may be stored for each motion data storage unit.
움직임 정보가 설정되는 최소 단위를 움직임 정보 블록이라고 표현하면 하나의 움직임 정보 저장 단위는 복수의 움직임 정보 블록으로 구성될 수 있다. When a minimum unit for setting motion information is expressed as a motion information block, one motion information storage unit may be configured of a plurality of motion information blocks.
복수의 움직임 정보 블록에 대한 움직임 정보는 움직임 정보 저장 단위마다 설하나의 대표값으로 저장될 수 있다. 즉, 움직인 정보 저장 단위마다 설정된 대표값은 움직임 정보 저장 단위에 속하는 움직임 정보 블록의 움직임 정보로 이용된다. The motion information for the plurality of motion information blocks may be stored as one representative value for each motion information storage unit. That is, the representative value set for each moved information storage unit is used as motion information of the motion information block belonging to the motion information storage unit.
대표값은 움직임 정보의 평균값, 즉 움직임 벡터의 평균값과 참조 픽처 인덱스의 최소값일 수 있다. 또는 대표값은 특정 움직임 정보 블록의 움직임 정보일 수 있으며, 예를 들어 움직임 정보 저장 단위의 좌상단에 위치하는 움직임 정보 블록블의 움직임 정보가 대표값이 될 수 있다.The representative value may be an average value of the motion information, that is, an average value of the motion vector and a minimum value of the reference picture index. Alternatively, the representative value may be motion information of a specific motion information block. For example, the representative value may be motion information of a motion information block located at the upper left of the motion information storage unit.
이는 움직임 정보를 저장하기 위한 메모리를 줄이기 위한 것으로서, 움직임 정보 저장 단위가 되는 블록의 사이즈는 미리 설정되어 있을 수도 있고, 부호화기로부터 시그널링될 수도 있다.This is to reduce the memory for storing the motion information, and the size of the block serving as the motion information storage unit may be preset or signaled from the encoder.
도 6은 인터 예측에 사용되는 움직임 정보를 압축 저장하는 방법을 예시적으로설명하기 도면이다. 도 6에서는 16개의 움직임 정보 블럭들 B0 ~ B15로 구성되는 유닛을 하나의 움직임 정보 저장 단위로 하는 경우를 예로서 설명하고 있다. 설명의 편의를 위해 도 6에서는 각 움직임 정보 블록 BI (I=0, …, 15)의 움직임 벡터를 (XI, YI)로 특정한다. FIG. 6 exemplarily illustrates a method of compressing and storing motion information used for inter prediction. In FIG. 6, a case in which a unit composed of 16 motion information blocks B0 to B15 is used as one motion information storage unit is described as an example. For convenience of description, in FIG. 6, the motion vector of each motion information block BI (I = 0, ..., 15) is specified as (XI, YI).
디코딩 장치는 도 6에 도시된 움직임 정보 저장 단위 내에서 가장 왼쪽 위에 있는 움직임 정보 블록 B0의 움직임 벡터 (X0, Y0)를 움직임 정보 저장 단위(600)에 대한 대표값으로 이용할 수 있다. 즉, 다른 15 개의 움직임 정보 블록 B1 ~ B15에 대해서도 (X0, Y0)의 움직임 벡터값이 할당된다. The decoding apparatus may use a motion vector (X0, Y0) of the motion information block B0 at the upper left in the motion information storage unit shown in FIG. 6 as a representative value for the motion information storage unit 600. That is, motion vector values of (X0, Y0) are also assigned to the other 15 motion information blocks B1 to B15.
다시 말하면, 움직임 정보 저장 단위(600) 내의 첫 번째 움직임 정보 블록인 B0이 인트라 코딩되지 않은 경우에는, 움직임 정보 블록 B0의 움직임 벡터 (X0, YO)이 16 개의 움직임 정보 블록(B0 ~ B15)에 대한 대표 움직임 벡터로서, 메모리(DPS)에 저장된다. 움직임 정보 블록 B0이 인트라 코딩된 경우에는, 움직임 벡터 (0, 0)이 움직임 정보 저장 단위(600)를 대표하는 움직임 벡터 값으로서 움직임 벡터 버퍼에 저장된다. In other words, when the first motion information block B0 in the motion information storage unit 600 is not intra coded, the motion vectors X0 and YO of the motion information block B0 are assigned to the sixteen motion information blocks B0 to B15. As a representative motion vector for, it is stored in a memory (DPS). When the motion information block B0 is intra coded, the motion vector (0, 0) is stored in the motion vector buffer as a motion vector value representing the motion information storage unit 600.
도 6은 움직임 정보의 일 예로 움직임 벡터의 저장을 설명한 것으로 참조 인덱스와 움직임 벡터를 포함하는 움직임 정보도 상술한 바와 같이 복수의 블록에 대한 소정의 대표적인 값으로 압축 저장될 수 있다. 또한, 움직임 정보와 함께 인터 예측인지 인트라 예측인지 여부 또는 인터 예측에 사용된 예측 모드(predMode)에 대한 정보도 상술한 바와 같이 소정의 대표값으로 압축 저장될 수 있다. 6 illustrates storage of a motion vector as an example of motion information. As described above, motion information including a reference index and a motion vector may also be compressed and stored as a predetermined representative value for a plurality of blocks. In addition, the motion information may be compressed and stored as a predetermined representative value, as described above, information about whether the inter prediction or intra prediction is used or the prediction mode used for the inter prediction.
한편, 인터 레이어 예측의 경우, 인핸스먼트 레이어는 베이스 레이어의 정보에 기초하여 예측 및 디코딩 되기 때문에 베이스 레이어에 대한 예측 및 디코딩은 인핸스먼트 레이어의 예측에 선행되어 이루어질 수 있다. 이런 경우, 각 레이어에 대한 움직임 정보를 저장하는 방법에 대하여 살펴본다. On the other hand, in the case of inter-layer prediction, since the enhancement layer is predicted and decoded based on the information of the base layer, the prediction and decoding of the base layer may be performed before the enhancement layer prediction. In this case, a method of storing motion information for each layer will be described.
도 7은 본 발명에 따라 인터 레이어 예측에 사용되는 움직임 정보를 압축하는 방법을 설명하기 위한 제어흐름도이다. 본 실시예에서는 스케일러빌러티를 지원하는 도 3의 비디오 디코딩 장치(300)를 일 예로 하여 설명한다.7 is a control flowchart illustrating a method of compressing motion information used for inter-layer prediction according to the present invention. In the present embodiment, the video decoding apparatus 300 of FIG. 3 supporting scalability will be described as an example.
우선, 예측부(375)는 베이스 레어어 픽처에 대한 예측을 수행한다(S701). First, the prediction unit 375 performs prediction on the base rare picture (S701).
예측부(375)는 엔트로피 디코딩부(355)로부터 전달된 예측 블록 생성 관련 정보와 메모리(385)에서 제공된 이전에 디코딩된 블록 및/또는 픽처 정보를 기초로 현재 블록에 대한 예측 블록을 생성할 수 있다. 그런 후, 베이스 레이어의 움직임 정보에 기초하여 인핸스먼트 레이어의 예측을 수행한다(S702). The prediction unit 375 may generate the prediction block for the current block based on the prediction block generation related information transmitted from the entropy decoding unit 355 and the previously decoded block and / or picture information provided in the memory 385. have. Thereafter, the enhancement layer is predicted based on the motion information of the base layer (S702).
인터 레이어 예측을 적용하는 경우에, 참조 레이어의 움직임 정보를 이용하여 현재 레이어의 현재 블록에 대한 예측을 수행할 수도 있고, 베이스 레이어의 텍스처를 이용하여 현재 레이어의 현재 블록에 대한 예측을 수행할 수도 있다. In case of applying inter-layer prediction, prediction of the current block of the current layer may be performed using motion information of the reference layer, or prediction of the current block of the current layer may be performed using the texture of the base layer. have.
설명의 편의를 위해, 참조 레이어의 움직임 정보를 이용하는 인터 레이어 예측을 인터 레이어 움직임 예측이라고 하고, 참조 레이어의 텍스처를 이용하는 인터 레이어 예측을 인터 레이어 텍스처 예측이라고 한다. For convenience of description, interlayer prediction using motion information of a reference layer is called interlayer motion prediction, and interlayer prediction using texture of a reference layer is called interlayer texture prediction.
인터 레이어 움직임 예측에 이용되는 참조 레이어의 움직임 정보는, 현재 블록에 대응하는 참조 레이어 내 블록의 움직임 벡터 및/또는 참조 픽처 인덱스일 수 있다. 인터 레이어 텍스처 예측에 이용되는 참조 레이어의 텍스처는 현재 블록에 대응하는 참조 레이어 내 블록의 복원된 텍스처일 수 있다.The motion information of the reference layer used for inter-layer motion prediction may be a motion vector and / or a reference picture index of a block in a reference layer corresponding to the current block. The texture of the reference layer used for inter layer texture prediction may be a reconstructed texture of the block in the reference layer corresponding to the current block.
본 실시예에 따르면, 인핸스먼트 레이어의 예측 및 디코딩에 이용할 수 있는 베이스 레이어의 움직임 정보는 압축되지 않은 정보이기 때문에 예측의 정확도를 높일 수 있다. 이로 인하여 복원되는 인핸스먼트 레이어의 화질이 개선되어 원본 영상에 가까운 영상의 복원이 가능해진다. According to the present embodiment, since the motion information of the base layer that can be used for prediction and decoding of the enhancement layer is uncompressed information, the accuracy of prediction can be improved. As a result, the image quality of the enhancement layer to be reconstructed is improved, so that an image close to the original image can be restored.
상술한 바와 같이, 억세스 유닛 내의 모든 레이어에 대한 예측 및 디코딩이 완료되면, 베이스 레이어 및 인핸스먼트 레이어의 움직임 정보가 압축된다(S703). As described above, when prediction and decoding of all layers in the access unit are completed, motion information of the base layer and the enhancement layer is compressed (S703).
이 때 억세스 유닛은 동일 시간 대에 디스플레이 되는 레이어를 의미한다. 이를 통하여 저장되는 데이터를 감소시키면서도 인터 레이어 예측의 성능을 향상시킬 수 있다.In this case, the access unit refers to a layer displayed at the same time. Through this, the performance of inter-layer prediction can be improved while reducing the stored data.
본 발명의 또 다른 실시예에 따르면, 인핸스먼트 레이어의 예측 시 베이스 레이어의 움직임 정보가 사용되지 않더라도, 베이스 레이어 및 인핸스먼트 레이어의 움직임 정보는 억세스 유닛 마다 압축되어 저장될 수 있다. 즉, 인터 레이어 예측이 수행되지 않는 경우에도 특정 시점에 표시될 수 있는 레이어들에 대한 움직임 정보는 모든 레이어들에 대한 예측이 완료된 시점에 압축될 수 있다.According to another embodiment of the present invention, even when the motion information of the base layer is not used when the enhancement layer is predicted, the motion information of the base layer and the enhancement layer may be compressed and stored for each access unit. That is, even when inter layer prediction is not performed, motion information about layers that may be displayed at a specific time point may be compressed at the time when prediction for all layers is completed.
움직임 정보는 도 6에 설명된 바와 같이 소정 크기의 블록에 대한 대표값으로 압축되어 저장될 수 있다.The motion information may be compressed and stored as a representative value for a block of a predetermined size as described in FIG. 6.
상기 설명은 비디오 인코딩 장치(100)에서 인핸스먼트 레이어에 대한 인터 예측을 위하여 베이스 레이어의 움직임 정보를 하는 과정에 동일하게 적용할 수 있으며, 베이스 레이어의 움직임 정보는 인핸스먼트 레이어의 예측 및/또는 디코딩이 완료된 후 압축 저장될 수 있다.The above description may be equally applied to a process of performing motion information of a base layer for inter prediction on an enhancement layer in the video encoding apparatus 100, and the motion information of the base layer may be predicted and / or decoded from the enhancement layer. After this is done it can be stored compressed.
도 8은 본 발명의 다른 실시예에 따라 인터 레이어 예측에 사용되는 움직임 정보를 저장하는 방법을 설명하기 위한 도면이다.8 is a diagram for describing a method of storing motion information used for inter-layer prediction, according to another embodiment of the present invention.
상술한 바와 같이, 움직임 정보는 특정 크기의 정보 저장 단위로 압축되어 저장될 수 있다. 본 실시예에 따르면, 인핸스먼트 레이어의 움직임 정보가 저장되는 정보 저장 단위는 베이스 레이어와 인핸스먼트 레이어 간의 해상도 비율에 따라 스케일될 수 있고, 도시된 바와 같이 확장될 수 있다. As described above, the motion information may be compressed and stored in an information storage unit having a specific size. According to the present embodiment, the information storage unit in which the motion information of the enhancement layer is stored may be scaled according to the resolution ratio between the base layer and the enhancement layer, and may be extended as shown.
예를 들어 인핸스먼트 레이어의 해상도가 베이스 레이어 해상도의 a배이고, 베이스 레이어의 정보 저장 단위(810)가 NxN 샘플 블록인 경우, 인핸스먼트 레이어의 정보 저장 단위(820)는 aNxaN 샘플 블록으로 설정될 수 있다. aNxaN 샘플 블록에서 가장 위쪽에 있는 정보 블록 B0의 움직임 벡터 (X0, Y0)를 정보 저장 단위(820)에 대한 대표값으로 이용할 수 있다. 본 실시예에 따를 경우, 레이어 간 해상도 비율을 반영하여 레이어의 움직임 정보를 저장할 수 있어 데이터 저장 효율을 증가시킬 수 있다.For example, when the resolution of the enhancement layer is a times the resolution of the base layer and the information storage unit 810 of the base layer is an N × N sample block, the information storage unit 820 of the enhancement layer may be set to an aNxaN sample block. have. The motion vector (X0, Y0) of the uppermost information block B0 in the aNxaN sample block may be used as a representative value for the information storage unit 820. According to the present exemplary embodiment, the motion information of the layer may be stored by reflecting the resolution ratio between layers, thereby increasing data storage efficiency.
베이스 레이어와 인핸스먼트 레이어의 움직임 정보는 한번에 압축 저장될 수 있다. 또한, 베이스 레이어의 움직임 정보와 인핸스먼트 레이어의 움직임 정보는 둘 중 어느 하나만이 압축 될 수도 있다. 높은 해상도를 갖는 인핸스먼트 레이어의 움직임 정보를 저장하는 경우, 베이스 레이어에 대한 움직임 정보는 저장된 움직임 정보를 다운 샘플링하여 구할 수 있다. 반대로 해상도가 낮은 베이스 레이어에 대한 움직임 정보를 저장하는 경우, 베이스 레이어의 움직임 정보를 업 샘플링하여 인핸스먼트 레이어에 대한 움직임 정보를 파악할 수도 있다.The motion information of the base layer and the enhancement layer may be compressed and stored at once. In addition, only one of the two may be compressed for the motion information of the base layer and the motion information of the enhancement layer. When storing the motion information of the enhancement layer having a high resolution, the motion information for the base layer may be obtained by down sampling the stored motion information. On the contrary, when the motion information of the base layer having low resolution is stored, the motion information of the enhancement layer may be grasped by up-sampling the motion information of the base layer.
본 명세서에서는 설명의 편의를 위해, 스케일러블 비디오 코딩이 지원되는 멀티 레이어 구조에서 각 레이어별로 특정 시점(예컨대, POC(Picture Order Count) 혹은 AU(Access Unit))에 복원되는 샘플들의 어레이를 ‘픽처’라고 표현하였다. In the present specification, for convenience of description, an array of samples reconstructed at a specific time point (for example, a picture order count (POC) or an access unit (AU)) for each layer in a multi-layer structure in which scalable video coding is supported is referred to as a 'picture. '
이와 관련하여, 디코딩 되어 출력되는 레이어(현재 레이어)에서 특정 시점에 복원된 혹은 복원되는 전체 샘플 어레이를 픽처라고 하여, 참조되는 레이어의 복원된 혹은 복원되는 샘플 어레이와 구분할 수도 있다. 참조되는 레이어에서 특정 시점에 복원된 혹은 복원되는 샘플 어레이는 리프리젠테이션(representation), 참조 레이어 픽처, 참조 레이어 샘플 어레이, 참조 레이어 텍스처 등으로 칭할 수도 있다. 이 경우, 하나의 AU에 대해서는 현재 레이어에서 복원된 하나의 디코딩(인코딩)된 픽처가 출력될 수 있다.In this regard, the entire sample array reconstructed or reconstructed at a specific time in the decoded and output layer (current layer) may be called a picture and may be distinguished from the reconstructed or reconstructed sample array of the referenced layer. The sample array reconstructed or reconstructed at a specific time point in the referenced layer may be referred to as a representation, a reference layer picture, a reference layer sample array, a reference layer texture, or the like. In this case, one decoded picture reconstructed in the current layer may be output for one AU.
상술한 예시적인 시스템에서, 방법들은 일련의 단계 또는 블록으로써 순서도를 기초로 설명되고 있지만, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 상술한 실시예들은 다양한 양태의 예시들을 포함할 수 있으므로 각 실시예의 조합 역시 본 발명의 일 실시예로서 이해되어야 할 것이다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다. In the exemplary system described above, the methods are described based on a flowchart as a series of steps or blocks, but the invention is not limited to the order of steps, and certain steps may occur in a different order or concurrently with other steps than those described above. Can be. In addition, since the above-described embodiments may include examples of various aspects, a combination of each embodiment should also be understood as an embodiment of the present invention. Accordingly, it is intended that the present invention cover all other replacements, modifications and variations that fall within the scope of the following claims.
Claims (4)
- 베이스 레이어에 대한 예측을 수행하는 단계와;Performing prediction on the base layer;상기 베이스 레이어의 움직임 정보에 기초하여 인핸스먼트 레이어의 예측을 수행하는 단계와;Performing prediction of an enhancement layer based on the motion information of the base layer;상기 베이스 레이어의 움직임 정보 및 상기 인핸스먼트 레이어의 움직임 정보를 억세스 유닛 마다 압축하는 단계를 포함하는 것을 스케일러블 비디오 디코딩 방법. And compressing the motion information of the base layer and the motion information of the enhancement layer for each access unit.
- 베이스 레이어에 대한 예측을 수행하는 제1 예측부와;A first predictor for predicting the base layer;상기 베이스 레이어의 움직임 정보에 기초하여 인핸스먼트 레이어의 예측을 수행하는 제2 예측부와;A second predictor configured to predict an enhancement layer based on the motion information of the base layer;상기 베이스 레이어의 움직임 정보 및 상기 인핸스먼트 레이어의 움직임 정보를 억세스 유닛 마다 압축하는 메모리를 포함하는 것을 특징으로 하는 스케일러블 비디오 디코딩 장치.And a memory for compressing the motion information of the base layer and the motion information of the enhancement layer for each access unit.
- 베이스 레이어에 대한 예측을 수행하는 단계와;Performing prediction on the base layer;상기 베이스 레이어의 움직임 정보에 기초하여 인핸스먼트 레이어의 예측을 수행하는 단계와;Performing prediction of an enhancement layer based on the motion information of the base layer;상기 베이스 레이어의 움직임 정보 및 상기 인핸스먼트 레이어의 움직임 정보를 억세스 유닛 마다 압축하는 단계를 포함하는 것을 스케일러블 비디오 인코딩 방법.And compressing the motion information of the base layer and the motion information of the enhancement layer for each access unit.
- 베이스 레이어에 대한 예측을 수행하는 제1 예측부와;A first predictor for predicting the base layer;상기 베이스 레이어의 움직임 정보에 기초하여 인핸스먼트 레이어의 예측을 수행하는 제2 예측부와;A second predictor configured to predict an enhancement layer based on the motion information of the base layer;상기 베이스 레이어의 움직임 정보 및 상기 인핸스먼트 레이어의 움직임 정보를 억세스 유닛 마다 압축하는 메모리를 포함하는 것을 특징으로 하는 스케일러블 비디오 인코딩 장치.And a memory for compressing the motion information of the base layer and the motion information of the enhancement layer for each access unit.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201261609933P | 2012-03-12 | 2012-03-12 | |
| US61/609,933 | 2012-03-12 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2013137588A1 true WO2013137588A1 (en) | 2013-09-19 |
Family
ID=49161432
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/KR2013/001825 WO2013137588A1 (en) | 2012-03-12 | 2013-03-06 | Scalable video decoding/encoding method, and scalable video decoding/encoding device using same |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2013137588A1 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20060035542A (en) * | 2004-10-21 | 2006-04-26 | 삼성전자주식회사 | Method and apparatus for efficiently compressing motion vectors in multi-layered video coder |
| KR20060085150A (en) * | 2005-01-21 | 2006-07-26 | 엘지전자 주식회사 | Method and apparatus for encoding / decoding video signal using prediction information of internal mode block of base layer |
| KR20090012986A (en) * | 2007-07-30 | 2009-02-04 | 한국정보통신대학교 산학협력단 | Fast Decision of Inter-layer Prediction Mode in Scalable Video Coding |
| KR20100066348A (en) * | 2008-12-08 | 2010-06-17 | 한국전자통신연구원 | An encoding method of scalable video data |
| US20110038421A1 (en) * | 2004-10-15 | 2011-02-17 | Heiko Schwarz | Apparatus and Method for Generating a Coded Video Sequence by Using an Intermediate Layer Motion Data Prediction |
-
2013
- 2013-03-06 WO PCT/KR2013/001825 patent/WO2013137588A1/en active Application Filing
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20110038421A1 (en) * | 2004-10-15 | 2011-02-17 | Heiko Schwarz | Apparatus and Method for Generating a Coded Video Sequence by Using an Intermediate Layer Motion Data Prediction |
| KR20060035542A (en) * | 2004-10-21 | 2006-04-26 | 삼성전자주식회사 | Method and apparatus for efficiently compressing motion vectors in multi-layered video coder |
| KR20060085150A (en) * | 2005-01-21 | 2006-07-26 | 엘지전자 주식회사 | Method and apparatus for encoding / decoding video signal using prediction information of internal mode block of base layer |
| KR20090012986A (en) * | 2007-07-30 | 2009-02-04 | 한국정보통신대학교 산학협력단 | Fast Decision of Inter-layer Prediction Mode in Scalable Video Coding |
| KR20100066348A (en) * | 2008-12-08 | 2010-06-17 | 한국전자통신연구원 | An encoding method of scalable video data |
Non-Patent Citations (1)
| Title |
|---|
| YI, JOO-YOUNG ET AL.: "Development of Scalable Video Encoder S/W using layer based multi-processing.", 2011 SUMMER CONFERENCE OF KOSBE, July 2011 (2011-07-01), pages 598 - 601 * |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2013062197A1 (en) | Image decoding apparatus | |
| WO2020036417A1 (en) | Inter prediction method based on history-based motion vector, and device therefor | |
| WO2018174402A1 (en) | Transform method in image coding system and apparatus for same | |
| WO2011019234A2 (en) | Method and apparatus for encoding and decoding image by using large transformation unit | |
| WO2012002785A2 (en) | Apparatus and method for encoding/decoding images for intra-prediction coding | |
| WO2011068331A2 (en) | Video encoding device and encoding method thereof, video decoding device and decoding method thereof, and directional intra-prediction method to be used thereto | |
| WO2016204360A1 (en) | Method and device for predicting block on basis of illumination compensation in image coding system | |
| WO2017069419A1 (en) | Intra-prediction method and apparatus in video coding system | |
| WO2014084656A1 (en) | Method and device for encoding/ decoding image supporting plurality of layers | |
| WO2014042460A1 (en) | Method and apparatus for encoding/decoding images | |
| WO2013141671A1 (en) | Method and apparatus for inter-layer intra prediction | |
| WO2011126285A2 (en) | Method and apparatus for encoding and decoding information on encoding modes | |
| WO2019112071A1 (en) | Image decoding method and apparatus based on efficient transformation of chroma component in image coding system | |
| WO2015057033A1 (en) | Method and apparatus for coding/decoding 3d video | |
| WO2016056821A1 (en) | Movement information compression method and device for 3d video coding | |
| WO2016056782A1 (en) | Depth picture coding method and device in video coding | |
| WO2019059721A1 (en) | Image encoding and decoding using resolution enhancement technique | |
| WO2019194500A1 (en) | Intra-prediction-based image coding method and device therefor | |
| WO2021225338A1 (en) | Image decoding method and apparatus therefor | |
| WO2019212230A1 (en) | Method and apparatus for decoding image by using transform according to block size in image coding system | |
| WO2014038905A2 (en) | Image decoding method and apparatus using same | |
| WO2018159987A1 (en) | Block-based video decoding method using pre-scan and apparatus thereof | |
| WO2020231228A1 (en) | Inverse quantization device and method used in image decoding device | |
| WO2011068332A2 (en) | Spatial prediction apparatus and predicting method thereof, image encoding device and method using same, and image decoding device and method using same | |
| WO2020040439A1 (en) | Intra prediction method and device in image coding system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 13761830 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 13761830 Country of ref document: EP Kind code of ref document: A1 |