WO2019194653A1 - Image processing method for providing complex merge mode process of motion information, image decoding and encoding method using same, and apparatus thereof - Google Patents
Image processing method for providing complex merge mode process of motion information, image decoding and encoding method using same, and apparatus thereof Download PDFInfo
- Publication number
- WO2019194653A1 WO2019194653A1 PCT/KR2019/004100 KR2019004100W WO2019194653A1 WO 2019194653 A1 WO2019194653 A1 WO 2019194653A1 KR 2019004100 W KR2019004100 W KR 2019004100W WO 2019194653 A1 WO2019194653 A1 WO 2019194653A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- block
- merge mode
- motion information
- merge
- current block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
Definitions
- the present invention relates to an image processing method, an image decoding and encoding method using the same, and an apparatus thereof, and more particularly, to an image processing method for providing complex merge mode processing of motion information, an image decoding and encoding method using the same, and an apparatus thereof. It is about.
- Digital video technologies include digital television, digital direct broadcast systems, wireless broadcast systems, personal digital assistants (PDAs), laptop or desktop computers, digital cameras, digital recording devices, video gaming devices, video game consoles, cellular or satellite radio telephones, etc. It can be integratedly applied to a wide range of digital video devices, including.
- Digital video devices include video compression technologies such as MPEG-2, MPEG-4, or ITU-T H.264 / MPEG-4, Part 10, Advanced Video Coding (AVC), and High Efficiency Video Coding (HVC). By implementing the digital video information transmission and reception more efficiently.
- Video compression techniques perform spatial prediction and temporal prediction to remove or reduce redundancy inherent in video sequences.
- Such image compression techniques include an inter prediction technique for predicting pixel values included in a current picture from a picture before or after the current picture, and an intra prediction for predicting pixel values included in a current picture using pixel information in the current picture.
- technologies such as technology, entropy encoding technology that assigns a short code to a high frequency of appearance and long code to a low frequency of frequency, and it is possible to effectively compress and transmit or store image data using such image compression technology. .
- one picture is divided into a plurality of blocks having a predetermined size and encoding is performed.
- inter prediction and intra prediction techniques that remove redundancy between pictures are used to increase compression efficiency.
- a residual signal is generated by using intra prediction and inter prediction, and the reason for obtaining the residual signal is that when coding with the residual signal, the amount of data is small and the data compression ratio is high, and the better the prediction, the residual signal. This is because the value of becomes small.
- the intra prediction method predicts data of the current block by using pixels around the current block.
- the difference between the actual value and the predicted value is called the residual signal block.
- the intra prediction method is increased from nine prediction modes used in H.264 / AVC to 35 prediction modes to further refine the prediction.
- the most similar block is found by comparing the current block with blocks in neighboring pictures.
- the position information (Vx, Vy) of the found block is called a motion vector.
- the difference between pixel values in a block between the current block and the prediction block predicted by the motion vector is called a residual signal block (motion-compensated residual block).
- the amount of data of the residual signal is reduced, but the amount of computation for processing a video has greatly increased.
- the prediction method may not be suitable for encoding a high resolution image.
- the present invention is to solve the above problems, and to provide an image decoding, encoding method and apparatus for improving the efficiency of motion information prediction decoding and encoding of a high resolution image according to the diversification and segmentation of the partition structure. There is this.
- a plurality of coding units in which a picture of an image is a basic unit in which inter prediction or intra prediction is performed Determining a current block for decoding the coding unit divided into the plurality of frames), and the coding unit obtained by dividing the picture or the divided coding unit into a quad tree and a binary tree structure; Variably constructing a merge mode motion information candidate list for predicting merge mode motion information of the current block according to one or more merge mode candidates derived corresponding to the current block; And performing merge mode motion information prediction decoding of the current block by using the merge mode motion information candidate list.
- the image decoding method comprising: receiving an encoded bitstream; Performing inverse quantization and inverse transformation on the input bitstream to obtain a residual block; Determining a current block for decoding a coding unit having a picture of an image divided into quad tree and binary tree structures corresponding to the residual block; Variably constructing a merge mode motion information candidate list for predicting merge mode motion information of the current block according to one or more merge mode candidates derived corresponding to the current block; Obtaining a prediction block by performing merge mode motion information prediction decoding of the current block by using the merge mode motion information candidate list; And reconstructing an image by using the prediction block and the residual block.
- the image encoding method comprising: dividing a picture of the image into a plurality of coding units divided into quad tree and binary tree structure; Determining a current block for encoding the coding unit; Variably constructing a merge mode motion information candidate list for predicting merge mode motion information of the current block according to one or more merge mode candidates derived corresponding to the current block; And performing prediction mode decoding of merge mode motion information of the current block by using the merge mode motion information candidate list to obtain a prediction block.
- the method according to an embodiment of the present invention for solving the above problems can be implemented as a program for executing the method on a computer and a non-volatile recording medium that is stored in the computer can be read by the computer.
- an image decoding and encoding method for improving the efficiency of motion information prediction decoding and encoding of a high resolution image according to diversification and segmentation of a partition structure by providing efficient processing of motion information for a merge mode And the apparatus.
- FIG. 1 is a block diagram illustrating a configuration of an image encoding apparatus according to an embodiment of the present invention.
- 2 to 5 are diagrams for describing a first exemplary embodiment of a method of dividing and processing an image in block units.
- FIG. 6 is a block diagram illustrating an embodiment of a method of performing inter prediction in an image encoding apparatus.
- FIG. 7 is a block diagram illustrating a configuration of an image decoding apparatus according to an embodiment of the present invention.
- FIG. 8 is a block diagram illustrating an embodiment of a method of performing inter prediction in an image decoding apparatus.
- FIG. 9 is a diagram for describing a second exemplary embodiment of a method of dividing and processing an image into blocks.
- FIG. 10 is a diagram for describing a third embodiment of a method of dividing and processing an image into blocks.
- FIG. 11 is a diagram for describing an example of a method of configuring a transform unit by dividing a coding unit into a binary tree structure.
- FIG. 12 is a diagram for describing a fourth embodiment of a method of dividing and processing an image into blocks.
- 13 to 14 are diagrams for describing still another example of a method of dividing and processing an image into blocks.
- 15 and 16 are diagrams for describing embodiments of a method of determining a partition structure of a transform unit by performing rate distortion optimization (RDO).
- RDO rate distortion optimization
- 17 is a block diagram illustrating in more detail the merge mode motion information decoder according to an embodiment of the present invention.
- FIG. 18 is a flowchart illustrating a merge mode candidate derivation and candidate list construction method according to an embodiment of the present invention.
- 19 to 20 are diagrams for explaining merge mode candidate derivation methods according to an embodiment of the present invention for each derivation process.
- 21 is a flowchart illustrating a method of constructing and updating a merge mode motion information candidate list according to an embodiment of the present invention.
- 22 to 24 are diagrams for explaining a configuration and update process of a merge mode motion information candidate list according to an embodiment of the present invention.
- 25 to 27 are diagrams for explaining high level syntax of header information according to an embodiment of the present invention.
- first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
- the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
- each component shown in the embodiments of the present invention are shown independently to represent different characteristic functions, and do not mean that each component is made of separate hardware or one software component unit.
- each component is included in each component for convenience of description, and at least two of the components may be combined into one component, or one component may be divided into a plurality of components to perform a function.
- Integrated and separate embodiments of the components are also included within the scope of the present invention without departing from the spirit of the invention.
- the components may not be essential components for performing essential functions in the present invention, but may be optional components for improving performance.
- the present invention can be implemented including only the components essential for implementing the essentials of the present invention except for the components used for improving performance, and the structure including only the essential components except for the optional components used for improving performance. Also included in the scope of the present invention.
- the image encoding apparatus 10 may include a picture divider 110, a transform unit 120, a quantization unit 130, and a scanning unit.
- the picture dividing unit 110 analyzes an input video signal, divides a picture into coding units, determines a prediction mode, and determines a size of a prediction unit for each coding unit.
- the picture splitter 110 sends the prediction unit to be encoded to the intra predictor 150 or the inter predictor 160 according to a prediction mode (or a prediction method). In addition, the picture dividing unit 110 sends the prediction unit to be encoded to the subtracting unit 190.
- a picture of an image may be composed of a plurality of slices, and the slice may be divided into a plurality of coding tree units (CTUs) which are basic units for dividing a picture.
- CTUs coding tree units
- a picture may be configured as a tile group, and when configured as a tile group, a tile group may be configured with one or more tiles. At this time, each tile may be divided into the CTUs.
- the tile group related encoding information may be signaled through a tile group header. When a plurality of tile groups exist, they may be divided into tile group identification information, and encoding options may be selectively and adaptively applied between different tile groups.
- the coding tree unit may be divided into one or two coding units (CUs), which are basic units on which inter prediction or intra prediction is performed.
- CUs coding units
- the coding unit may be divided into one or more prediction units (PUs), which are basic units on which prediction is performed.
- PUs prediction units
- the encoding apparatus 10 determines one of inter prediction and intra prediction as a prediction method for each of the divided coding units (CUs), but differently predicts a prediction block for each prediction unit (PU). Can be generated.
- the coding unit CU may be divided into one or two transform units (TUs), which are basic units for transforming a residual block.
- TUs transform units
- the picture dividing unit 110 may transmit the image data to the subtracting unit 190 in a block unit (for example, a prediction unit (PU) or a transformation unit (TU)) divided as described above.
- a block unit for example, a prediction unit (PU) or a transformation unit (TU) divided as described above.
- a coding tree unit (CTU) having a maximum size of 256 ⁇ 256 pixels may be divided into a quad tree structure and divided into four coding units (CUs) having a square shape.
- the four coding units (CUs) having the square shape may be re-divided into quad tree structures, respectively, and the depth of the coding units CU divided into quad tree structures as described above may be any one of 0 to 3. It can have one integer value.
- the coding unit CU may be divided into one or two or more prediction units (PUs) according to the prediction mode.
- the prediction unit PU may have a size of 2Nx2N shown in FIG. 3A or NxN shown in FIG. 3B. have.
- the prediction unit PU when the size of the coding unit CU is 2Nx2N, the prediction unit PU is 2Nx2N shown in FIG. 4A, 2NxN shown in FIG. 4B, and FIG. 4.
- Nx2N shown in (c) of FIG. 4 NxN shown in (d) of FIG. 4, 2NxnU shown in (e) of FIG. 4, 2NxnD shown in (f) of FIG. 4, shown in (g) of FIG. It may have a size of any one of nLx2N and nRx2N shown in (h) of FIG.
- the coding unit CU may be divided into a quad tree structure and divided into four transform units TUs having a square shape.
- the four transform units (TUs) having a square shape may be re-divided into quad tree structures, and the depth of the transform units (TUs) divided into quad tree structures as described above may be any one of 0 to 3. It can have one integer value.
- the prediction unit PU and the transform unit TU split from the coding unit CU may have a partition structure that is independent of each other.
- the transform unit TU split from the coding unit CU cannot be larger than the size of the prediction unit PU.
- the transform unit TU divided as described above may have a maximum size of 64x64 pixels.
- the transform unit 120 converts a residual block that is a residual signal between the original block of the input prediction unit PU and the prediction block generated by the intra predictor 150 or the inter predictor 160, and the transform is performed. It may be performed using the unit (TU) as a basic unit.
- different transform matrices may be determined according to a prediction mode (intra or inter), and since the residual signal of intra prediction has a direction according to the intra prediction mode, the transform matrix may be adaptively determined according to the intra prediction mode. have.
- the transform unit may be transformed by two (horizontal and vertical) one-dimensional transform matrices. For example, in the case of inter prediction, one predetermined transform matrix may be determined.
- intra prediction when the intra prediction mode is horizontal, the probability of the residual block having the directionality in the vertical direction increases, so a DCT-based integer matrix is applied in the vertical direction, and DST-based or in the horizontal direction. Apply KLT-based integer matrix.
- an integer matrix based on DST or KLT may be applied in the vertical direction and a DCT based integer matrix in the horizontal direction.
- a DCT based integer matrix may be applied in both directions.
- a transform matrix may be adaptively determined based on the size of a transform unit (TU).
- the quantization unit 130 determines a quantization step size for quantizing the coefficients of the residual block transformed by the transform matrix, and the quantization step size may be determined for each quantization unit having a predetermined size or more.
- the size of the quantization unit may be 8x8 or 16x16, and the quantization unit 130 quantizes coefficients of the transform block using a quantization matrix determined according to the quantization step size and the prediction mode.
- the quantization unit 130 may use the quantization step size of the quantization unit adjacent to the current quantization unit as the quantization step size predictor of the current quantization unit.
- the quantization unit 130 may search for the left quantization unit, the upper quantization unit, and the upper left quantization unit of the current quantization unit and generate a quantization step size predictor of the current quantization unit using one or two valid quantization step sizes. have.
- the quantization unit 130 may determine a valid first quantization step size found in the order as a quantization step size predictor, or determine an average value of two valid quantization step sizes found in the order as a quantization step size predictor, or If only one quantization step size is valid, this may be determined as a quantization step size predictor.
- the quantization unit 130 transmits a difference value between the quantization step size and the quantization step size predictor of the current quantization unit to the entropy encoder 140.
- the left coding unit, the upper coding unit, the upper left coding unit of the current coding unit does not all exist. Or there may be a coding unit previously present in the coding order within the largest coding unit.
- candidates may be quantization step sizes of the quantization units adjacent to the current coding unit and the quantization unit immediately before the coding order within the maximum coding unit.
- priority is set in the order of 1) the left quantization unit of the current coding unit, 2) the upper quantization unit of the current coding unit, 3) the upper left quantization unit of the current coding unit, and 4) the quantization unit immediately preceding the coding order.
- the order may be reversed and the upper left quantization unit may be omitted.
- the transform block quantized as described above is transferred to the inverse quantization unit 135 and the scanning unit 131.
- the scanning unit 131 scans the coefficients of the quantized transform block and converts them into one-dimensional quantization coefficients. In this case, since the distribution of coefficients of the transform block after quantization may depend on the intra prediction mode, the scanning method is applied to the intra prediction mode. Can be determined accordingly.
- the coefficient scanning scheme may be determined differently according to the size of the transform unit, and the scan pattern may vary according to the directional intra prediction mode, in which case the scanning order of the quantization coefficients may be scanned in the reverse direction.
- the same scan pattern may be applied to the quantization coefficients in each subset, and a zigzag scan or a diagonal scan may be applied to the scan patterns between the subsets.
- the scan pattern is preferably scanned in the forward direction from the main subset including DC to the remaining subsets, but the reverse direction is also possible.
- a scan pattern between subsets may be set to be identical to a scan pattern of quantized coefficients in a subset, and the scan pattern between subsets may be determined according to an intra prediction mode.
- the encoding apparatus 10 may include information indicative of the position of the last non-zero quantization coefficient and the position of the last non-zero quantization coefficient in each subset in the transform unit PU to include the decoding apparatus ( 20).
- the inverse quantization unit 135 inverse quantizes the quantized coefficients as described above, and the inverse transform unit 125 performs inverse transformation in units of transform units (TUs) to restore the inverse quantized transform coefficients into a residual block of a spatial domain. can do.
- TUs transform units
- the adder 195 may generate a reconstructed block by adding the residual block reconstructed by the inverse transform unit 125 and the received prediction block from the intra predictor 150 or the inter predictor 160.
- the post-processing unit 170 may perform a deblocking filtering process to remove the blocking effect occurring in the reconstructed picture, and a sample adaptive offset to compensate for the difference value from the original image in pixel units.
- a SAO application process and a coding unit can perform an adaptive loop filtering (ALF) process to compensate for a difference value from an original image.
- ALF adaptive loop filtering
- the deblocking filtering process may be applied to the boundary of the prediction unit (PU) or transform unit (TU) having a size of a predetermined size or more.
- the deblocking filtering process may include determining a boundary to filter, determining a boundary filtering strength to be applied to the boundary, determining whether to apply a deblocking filter, If it is determined to apply the deblocking filter, the method may include selecting a filter to be applied to the boundary.
- whether the deblocking filter is applied depends on whether i) the boundary filtering intensity is greater than 0 and ii) the degree of change of pixel values at the boundary portions of two blocks (P block, Q block) adjacent to the boundary to be filtered.
- the value represented may be determined by whether the value is smaller than the first reference value determined by the quantization parameter.
- the said filter is at least 2 or more.
- a filter that performs relatively weak filtering is selected.
- the second reference value is determined by the quantization parameter and the boundary filtering intensity.
- sample adaptive offset (SAO) application process is to reduce the distortion (distortion) between the pixel and the original pixel in the image to which the deblocking filter is applied, the sample adaptive offset (SAO) application process in the unit of picture or slice. Whether to perform may be determined.
- the picture or slice may be divided into a plurality of offset regions, and an offset type may be determined for each offset region, and the offset type may be a predetermined number of edge offset types (eg, four) and two band offsets. It can include a type.
- the offset type is an edge offset type
- an edge type to which each pixel belongs is determined and an offset corresponding thereto is applied
- the edge type may be determined based on a distribution of two pixel values adjacent to the current pixel. have.
- the adaptive loop filtering (ALF) process may perform filtering based on a value obtained by comparing a reconstructed image and an original image that have undergone a deblocking filtering process or an adaptive offset application process.
- the picture storage unit 180 receives the post-processed image data from the post-processing unit 170 and restores the image in a picture unit, and the picture may be an image in a frame unit or an image in a field unit.
- the inter prediction unit 160 may perform motion estimation using at least one or more reference pictures stored in the picture storage unit 180, and may determine a reference picture index and a motion vector indicating the reference picture.
- a prediction block corresponding to a prediction unit to be encoded may be extracted from a reference picture used for motion estimation among a plurality of reference pictures stored in the picture storage unit 180 according to the determined reference picture index and the motion vector. have.
- the intra predictor 150 may perform intra prediction encoding by using the reconstructed pixel value inside the picture in which the current prediction unit is included.
- the intra prediction unit 150 may receive the current prediction unit to be predictively encoded, and perform intra prediction by selecting one of a preset number of intra prediction modes according to the size of the current block.
- the intra predictor 150 adaptively filters the reference pixel to generate the intra prediction block, and generates reference pixels using the available reference pixels when the reference pixel is not available.
- the entropy encoder 140 may entropy encode quantized coefficients quantized by the quantizer 130, intra prediction information received from the intra predictor 150, motion information received from the inter predictor 160, and the like. Can be.
- FIG. 6 is a block diagram illustrating an example of a configuration for performing inter prediction in the encoding apparatus 10.
- the inter prediction encoder illustrated in FIG. 6 includes a motion information determiner 161 and a motion information encoding mode determiner 162.
- FIG. 6 Motion information encoder 163, prediction block generator 164, residual block generator 165, residual block encoder 166, and multiplexer 167.
- the motion information determiner 161 determines motion information of the current block, the motion information includes a reference picture index and a motion vector, and the reference picture index is any one of a previously coded and reconstructed picture. Can be represented.
- the current block When the current block is unidirectional inter prediction coded, it represents one of the reference pictures belonging to list 0 (L0), and when the current block is bidirectional predictively coded, it is a reference picture indicating one of the reference pictures of list 0 (L0). It may include an index and a reference picture index indicating one of the reference pictures of the list 1 (L1).
- the current block when the current block is bidirectional predictively coded, the current block may include an index indicating one or two pictures of reference pictures of the composite list LC generated by combining the list 0 and the list 1.
- the motion vector indicates a position of a prediction block in a picture indicated by each reference picture index, and the motion vector may be in pixel units (integer units) or sub pixel units.
- the motion vector may have a resolution of 1/2, 1/4, 1/8 or 1/16 pixels, and if the motion vector is not an integer unit, the prediction block may be generated from pixels of an integer unit. Can be.
- the motion information encoding mode determiner 162 may determine an encoding mode for the motion information of the current block as one of a skip mode, a merge mode, and an AMVP mode.
- the skip mode is applied when there are skip candidates having the same motion information as the motion information of the current block and the residual signal is 0.
- the skip mode is that the current block, which is the prediction unit PU, has a size equal to that of the coding unit CU. Can be applied when
- the merge mode is applied when there is a merge candidate having the same motion information as the motion information of the current block, and the merge mode includes a residual signal when the current block has a different size or the same size as the coding unit CU. Applies in the case. Meanwhile, the merge candidate and the skip candidate may be the same.
- the AMVP mode is applied when the skip mode and the merge mode are not applied, and an AMVP candidate having a motion vector most similar to the motion vector of the current block may be selected as an AMVP predictor.
- the motion information encoder 163 may encode motion information according to a method determined by the motion information encoding mode determiner 162.
- the motion information encoder 163 may perform a merge motion vector encoding process when the motion information encoding mode is a skip mode or a merge mode, and may perform an AMVP encoding process when the motion information encoding mode is an AMVP mode.
- the prediction block generator 164 generates a prediction block by using the motion information of the current block.
- the prediction block generator 164 copies the block corresponding to the position indicated by the motion vector in the picture indicated by the reference picture index, and then copies the current block. Generate a predictive block of.
- the prediction block generator 164 may generate pixels of the prediction block from integer unit pixels in a picture indicated by the reference picture index.
- the prediction pixel may be generated using an 8-tap interpolation filter for the luminance pixel, and the prediction pixel may be generated using a 4-tap interpolation filter for the chrominance pixel.
- the residual block generator 165 generates a residual block using the current block and the prediction block of the current block.
- the residual block generator 165 uses the prediction block having a size of 2Nx2N corresponding to the current block and the current block. You can create a block.
- the size of the current block used for prediction is 2NxN or Nx2N
- the last prediction block having a size of 2Nx2N using the two 2NxN prediction block is Can be generated.
- a 2Nx2N sized residual block may be generated using the 2Nx2N sized prediction block, and overlap smoothing is applied to the pixels of the boundary part to eliminate discontinuity of the boundary parts of two prediction blocks having 2NxN size. Can be.
- the residual block encoder 166 may divide the residual block into one or more transform units (TUs) so that each transform unit TU may be transform encoded, quantized, and entropy encoded.
- TUs transform units
- the residual block encoder 166 may transform the residual block generated by the inter prediction method using an integer-based transform matrix, and the transform matrix may be an integer-based DCT matrix.
- the residual block encoder 166 uses a quantization matrix to quantize coefficients of the residual block transformed by the transform matrix, and the quantization matrix may be determined by a quantization parameter.
- the quantization parameter is determined for each coding unit CU having a predetermined size or more, and when the current coding unit CU is smaller than the predetermined size, the first coding unit in the coding order among the coding units CU within the predetermined size ( Since only the quantization parameter of the CU) is encoded and the quantization parameter of the remaining coding unit CU is the same as the above parameter, it may not be encoded.
- coefficients of the transform block may be quantized using a quantization matrix determined according to the quantization parameter and the prediction mode.
- the quantization parameter determined for each coding unit CU having a predetermined size or more may be predictively encoded using the quantization parameter of the coding unit CU adjacent to the current coding unit CU.
- a quantization parameter predictor of the current coding unit CU may be generated by searching in the order of the left coding unit CU and the upper coding unit CU of the current coding unit CU using one or two valid quantization parameters. have.
- the first valid quantization parameter found in the above order may be determined as a quantization parameter predictor, and the left first coding unit (CU) is searched in order of the coding unit immediately before the coding order to quantize the first valid quantization parameter. Can be determined by the parameter predictor.
- the coefficients of the quantized transform block are scanned and converted into one-dimensional quantization coefficients, and the scanning scheme may be set differently according to the entropy encoding mode.
- inter prediction coded quantization coefficients may be scanned in one predetermined manner (zigzag or diagonal raster scan) when encoded by CABAC, and may be scanned differently from the above method when encoded by CAVLC. Can be.
- the scanning method may be determined according to zigzag in case of inter, the intra prediction mode in case of intra, and the coefficient scanning method may be determined differently according to the size of a transform unit.
- the scan pattern may vary according to the directional intra prediction mode, and the scanning order of the quantization coefficients may be scanned in the reverse direction.
- the multiplexer 167 multiplexes the motion information encoded by the motion information encoder 163 and the residual signals encoded by the residual block encoder 166.
- the motion information may vary according to an encoding mode.
- the motion information may include only an index indicating a predictor, and in the case of AMVP, the motion information may include a reference picture index, a differential motion vector, and an AMVP index of the current block. .
- the intra prediction unit 150 receives the prediction mode information and the size of the prediction unit PU from the picture division unit 110, and stores the reference pixel in the picture storage unit to determine the intra prediction mode of the prediction unit PU. Read from 180.
- the intra predictor 150 determines whether a reference pixel is generated by examining whether there is a reference pixel that is not available, and the reference pixels may be used to determine an intra prediction mode of the current block.
- pixels adjacent to the upper side of the current block are not defined. If the current block is located at the left boundary of the current picture, pixels adjacent to the left of the current block are not defined. It may be determined that the pixels are not available pixels.
- the current block is located at the slice boundary and pixels adjacent to the upper or left side of the slice are not pixels that are first encoded and reconstructed, it may be determined that the pixels are not usable pixels.
- the intra prediction mode of the current block may be determined using only the available pixels.
- reference pixels at positions that are not available may be generated using the available reference pixels of the current block.
- the upper pixels may be used using some or all of the left pixels. Can be generated and vice versa.
- the reference pixel is generated by copying the available reference pixel at the position closest to the predetermined direction from the reference pixel at the position not available, or when the reference pixel is not available in the predetermined direction, the closest in the opposite direction.
- the reference pixel can be generated by copying the available reference pixel at the location.
- the upper or left pixels of the current block it may be determined as a reference pixel that is not available according to the encoding mode of the block to which the pixels belong.
- the pixels may be determined as not available pixels.
- reference pixels usable may be generated using pixels belonging to a block in which a block adjacent to the current block is intra-encoded, and the encoding apparatus 10 may determine that the reference pixels are available according to an encoding mode. It transmits to the decoding apparatus 20.
- the intra predictor 150 determines the intra prediction mode of the current block by using the reference pixels, and the number of intra prediction modes allowable in the current block may vary depending on the size of the block.
- the size of the current block is 8x8, 16x16, 32x32, there may be 34 intra prediction modes. If the size of the current block is 4x4, there may be 17 intra prediction modes.
- the 34 or 17 intra prediction modes may be configured of at least one non-directional mode (non-directional mode) and a plurality of directional modes.
- One or more non-directional modes may be DC mode and / or planar mode.
- DC mode and the planner mode are included in the non-directional mode, there may be 35 intra prediction modes regardless of the size of the current block.
- DC mode and planner mode two non-directional modes (DC mode and planner mode) and 33 directional modes may be included.
- the prediction block of the current block is formed by using at least one pixel value (or a prediction value of the pixel value, hereinafter referred to as a first reference value) and reference pixels positioned at the bottom-right side of the current block. Is generated.
- the configuration of an image decoding apparatus may be derived from the configuration of the image encoding apparatus 10 described with reference to FIGS. 1 to 6. For example, as described with reference to FIGS. 1 to 6. By performing the same processes of the same image encoding method in reverse, the image can be decoded.
- the decoding apparatus 20 includes an entropy decoding unit 210, an inverse quantization / inverse transform unit 220, an adder 270, The deblocking filter 250, the picture storage unit 260, the intra predictor 230, the motion compensation predictor 240, and the intra / inter switch 280 are provided.
- the entropy decoder 210 receives and decodes a bit stream encoded by the image encoding apparatus 10, divides the bit stream into intra prediction mode indexes, motion information, quantization coefficient sequences, and the like, and decodes the decoded motion information into a motion compensation predictor ( 240).
- the entropy decoder 210 may transfer the intra prediction mode index to the intra predictor 230 and the inverse quantizer / inverse transformer 220, and may deliver the inverse quantization coefficient sequence to the inverse quantizer / inverse transformer 220. .
- the inverse quantization / inverse transform unit 220 converts the quantization coefficient sequence into inverse quantization coefficients of a two-dimensional array, and selects one of a plurality of scanning patterns for the transformation, for example, the prediction mode of the current block (ie, , Intra prediction or inter prediction), and a scanning pattern may be selected based on the intra prediction mode.
- the prediction mode of the current block ie, Intra prediction or inter prediction
- the inverse quantization / inverse transform unit 220 restores the quantization coefficients by applying a quantization matrix selected from a plurality of quantization matrices to the inverse quantization coefficients of the two-dimensional array.
- a quantization matrix may be selected based on at least one of the prediction mode and the intra prediction mode of the current block for the same size block.
- the inverse quantization / inverse transform unit 220 inversely transforms the reconstructed quantization coefficients to reconstruct the residual block, and the inverse transform process may be performed using a transform unit (TU) as a basic unit.
- TU transform unit
- the adder 270 reconstructs the image block by adding the residual block reconstructed by the inverse quantization / inverse transform unit 220 and the prediction block generated by the intra predictor 230 or the motion compensation predictor 240.
- the deblocking filter 250 may perform deblocking filter processing on the reconstructed image generated by the adder 270 to reduce deblocking artifacts due to image loss due to the quantization process.
- the picture storage unit 260 is a frame memory for storing a local decoded image on which the deblocking filter process is performed by the deblocking filter 250.
- the intra predictor 230 restores the intra prediction mode of the current block based on the intra prediction mode index received from the entropy decoder 210, and generates a prediction block according to the restored intra prediction mode.
- the motion compensation predictor 240 generates a prediction block for the current block from the picture stored in the picture storage unit 260 based on the motion vector information, and applies the selected interpolation filter when a motion compensation with a small precision is applied. Can be generated.
- the intra / inter switch 280 may provide the adder 270 with the prediction block generated by either the intra predictor 230 or the motion compensation predictor 240 based on the encoding mode.
- FIG. 8 is a block diagram illustrating an example of a configuration of performing inter prediction in the image decoding apparatus 20.
- the inter prediction decoder includes a demultiplexer 241, a motion information encoding mode determiner 242, and a merge mode motion.
- An information decoder 243, an AMVP mode motion information decoder 244, a prediction block generator 245, a residual block decoder 246, and a reconstruction block generator 247 are included.
- the merge mode motion information decoder 243 and the AMVP mode motion information decoder 244 may be included in the motion information decoder 248.
- the de-multiplexer 241 demultiplexes the currently encoded motion information and the encoded residual signals from the received bitstream, and transmits the demultiplexed motion information to the motion information encoding mode determiner 242.
- the demultiplexed residual signal may be transmitted to the residual block decoder 246.
- the motion information encoding mode determiner 242 determines the motion information encoding mode of the current block. If the skip_flag of the received bitstream has a value of 1, the motion information encoding mode determiner 242 determines that the motion information encoding mode of the current block is encoded as the skip encoding mode. can do.
- the motion information encoding mode determiner 242 determines the motion information encoding mode of the current block. It may be determined that is encoded in the merge mode.
- the motion information encoding mode determiner 242 has a skip_flag of the received bitstream having a value of 0, and the motion information received from the demultiplexer 241 has a reference picture index, a differential motion vector, and an AMVP index. In this case, it may be determined that the motion information encoding mode of the current block is encoded in the AMVP mode.
- the merge mode motion information decoder 243 is activated when the motion information encoding mode determiner 242 determines that the motion information encoding mode of the current block is a skip or merge mode, and the AMVP mode motion information decoder 244 moves.
- the information encoding mode determiner 242 may be activated when the motion information encoding mode of the current block is determined to be an AMVP mode.
- the prediction block generator 245 generates the prediction block of the current block by using the motion information reconstructed by the merge mode motion information decoder 243 or the AMVP mode motion information decoder 244.
- the prediction block of the current block may be generated by copying a block corresponding to the position indicated by the motion vector in the picture indicated by the reference picture index.
- pixels of the prediction block are generated from integer unit pixels in the picture indicated by the reference picture index.
- an interpolation filter of 8 taps is used for a luminance pixel and a chrominance pixel is used.
- Predictive pixels may be generated using a 4-tap interpolation filter.
- the residual block decoder 246 entropy decodes the residual signal and inversely scans the entropy decoded coefficients to generate a two-dimensional quantized coefficient block, and the inverse scanning scheme may vary according to an entropy decoding scheme.
- the reverse scanning method may be applied in a diagonal raster inverse scan manner and in the case of the CAVLC-based decoding in a zigzag inverse scanning manner.
- the inverse scanning scheme may be determined differently according to the size of the prediction block.
- the residual block decoder 246 dequantizes the coefficient block generated as described above using an inverse quantization matrix, and reconstructs a quantization parameter to derive the quantization matrix.
- the quantization step size may be reconstructed for each coding unit of a predetermined size or more.
- the residual block decoder 260 inversely transforms the inverse quantized coefficient block to restore the residual block.
- the reconstruction block generation unit 270 generates a reconstruction block by adding the prediction block generated by the prediction block generation unit 250 and the residual block generated by the residual block decoding unit 260.
- the intra prediction mode of the current block is decoded from the received bitstream, and for this purpose, the entropy decoder 210 may reconstruct the first intra prediction mode index of the current block by referring to one of the plurality of intra prediction mode tables. Can be.
- any one table selected according to the distribution of intra prediction modes for a plurality of blocks adjacent to the current block may be applied.
- the first intra prediction mode index of the current block is restored by applying the first intra prediction mode table, and not the same. Otherwise, the second intra prediction mode table may be applied to restore the first intra prediction mode index of the current block.
- the intra prediction modes of the upper block and the left block of the current block are both the directional intra prediction mode
- the direction of the intra prediction mode of the upper block and the direction of the intra prediction mode of the left block If within this predetermined angle, the first intra prediction mode index is restored by applying the first intra prediction mode table, and if outside the predetermined angle, the first intra prediction mode index is applied by applying the second intra prediction mode table. You can also restore.
- the entropy decoder 210 transmits the first intra prediction mode index of the reconstructed current block to the intra predictor 230.
- the intra prediction unit 230 that receives the index of the first intra prediction mode may determine the maximum possible mode of the current block as the intra prediction mode of the current block when the index has the minimum value (ie, 0). .
- the intra prediction unit 230 compares the index indicated by the maximum possible mode of the current block with the first intra prediction mode index, and as a result of the comparison, the first intra prediction mode. If the index is not smaller than the index indicated by the maximum possible mode of the current block, the intra prediction mode corresponding to the second intra prediction mode index obtained by adding 1 to the first intra prediction mode index is determined as the intra prediction mode of the current block. Otherwise, the intra prediction mode corresponding to the first intra prediction mode index may be determined as the intra prediction mode of the current block.
- the intra prediction mode allowable for the current block may consist of at least one non-directional mode (non-directional mode) and a plurality of directional modes.
- One or more non-directional modes may be DC mode and / or planar mode.
- either DC mode or planner mode may be adaptively included in the allowable intra prediction mode set.
- information specifying the non-directional mode included in the allowable intra prediction mode set may be included in the picture header or the slice header.
- the intra predictor 230 reads reference pixels from the picture storage unit 260 to generate an intra prediction block, and determines whether there is a reference pixel that is not available.
- the determination may be performed according to the presence or absence of reference pixels used to generate the intra prediction block by applying the decoded intra prediction mode of the current block.
- the intra predictor 230 may generate reference pixels at positions that are not available using the available reference pixels reconstructed in advance.
- Definition of a reference pixel that is not available and a method of generating the reference pixel may be the same as the operation of the intra prediction unit 150 of FIG. 1, but generate an intra prediction block according to the decoded intra prediction mode of the current block.
- the reference pixels used to selectively recover may be selectively restored.
- the intra prediction unit 230 determines whether to apply a filter to the reference pixels to generate the prediction block, that is, whether to apply filtering to the reference pixels to generate the intra prediction block of the current block. It may be determined based on the decoded intra prediction mode and the size of the current prediction block.
- the problem of blocking artifacts is that the larger the block size is, the larger the block size can increase the number of prediction modes for filtering the reference pixels, but if the block is larger than the predetermined size can be seen as a flat area, the complexity is reduced The reference pixel may not be filtered for.
- the intra predictor 230 filters the reference pixels by using a filter.
- At least two or more filters may be adaptively applied according to the degree of difference between the steps between the reference pixels.
- the filter coefficient of the filter is preferably symmetrical.
- the above two filters may be adaptively applied according to the size of the current block.
- a narrow bandwidth filter is used for a small block
- a wide bandwidth filter is used for a large block. May be applied.
- the filter does not need to be applied to the reference pixel, and the image is horizontal. It may not be necessary to apply a filter to the reference pixel even in a horizontal mode that is correlated in the direction.
- the reference pixel may be adaptively filtered based on the intra prediction mode of the current block and the size of the prediction block.
- the intra prediction unit 230 generates a prediction block using reference pixels or filtered reference pixels according to the reconstructed intra prediction mode, and the generation of the prediction block is the same as the operation of the encoding apparatus 10. As such, detailed description thereof will be omitted.
- the intra prediction unit 230 determines whether to filter the generated prediction block, and the filtering may be determined by using information included in a slice header or a coding unit header or according to an intra prediction mode of the current block.
- the intra predictor 230 may generate a new pixel by filtering pixels at a specific position of the generated prediction block by using available reference pixels adjacent to the current block. .
- a prediction pixel in contact with reference pixels among the prediction pixels may be filtered using a reference pixel in contact with the prediction pixel.
- the prediction pixels are filtered using one or two reference pixels according to the positions of the prediction pixels, and the filtering of the prediction pixels in the DC mode may be applied to the prediction blocks of all sizes.
- prediction pixels in contact with the left reference pixel among the prediction pixels of the prediction block may be changed by using reference pixels other than the upper pixel used to generate the prediction block.
- the prediction pixels in contact with the upper reference pixel among the generated prediction pixels may be changed using reference pixels other than the left pixel used to generate the prediction block.
- the current block may be reconstructed using the prediction block of the current block reconstructed and the residual block of the decoded current block.
- FIG. 9 illustrates a second exemplary embodiment of a method of dividing and processing an image into blocks.
- a coding tree unit (CTU) having a maximum size of 256 ⁇ 256 pixels may be first divided into a quad tree structure and divided into four coding units (CUs) having a square shape.
- At least one of the coding units divided into the quad tree structure may be divided into a binary tree structure and re-divided into two coding units (CUs) having a rectangular shape.
- At least one of the coding units divided into the quad tree structure may be divided into a quad tree structure and re-divided into four coding units (CUs) having a square shape.
- CUs coding units
- At least one of the coding units re-divided into the binary tree structure may be divided into two binary tree structures and divided into two coding units (CUs) having a square or rectangular shape.
- At least one of the coding units re-divided into the quad tree structure may be divided into a quad tree structure or a binary tree structure and divided into coding units (CUs) having a square or rectangular shape.
- coding blocks (CBs) formed by dividing into a binary tree structure are no longer divided and may be used for prediction and transformation. That is, the sizes of the prediction unit PU and the transform unit TU belonging to the coding block CB as shown in FIG. 9 may be equal to the size of the coding block CB.
- the coding unit split into the quad tree structure as described above may be split into one or two prediction units (PUs) using the method described with reference to FIGS. 3 and 4.
- the coding unit divided into the quad tree structure as described above may be divided into one or more transform units (TUs) by using the method as described with reference to FIG. 5, and the divided transform units (TU) May have a maximum size of 64x64 pixels.
- the syntax structure used to divide and process an image in block units may indicate the partition information using a flag. For example, whether to split the coding unit CU may be indicated using split_cu_flag, and the depth of the coding unit CU split using the binary tree may be indicated using binary_depth. In addition, whether the coding unit (CU) is divided into a binary tree structure may be represented by a separate binary_split_flag.
- Blocks divided by the method as described with reference to FIG. 9 eg, a coding unit (CU), a prediction unit (PU), and a transform unit (TU)
- CU coding unit
- PU prediction unit
- TU transform unit
- the coding unit CU may be divided into a binary tree structure and divided into transform units (TUs) which are basic units for transforming a residual block.
- TUs transform units
- At least one of rectangular coding blocks CB0 and CB1 divided into a binary tree structure and having a size of Nx2N or 2NxN is divided into a binary tree structure again, and has a square transform unit having a size of NxN. Can be divided into TU0 and TU1.
- the block-based image encoding method may perform prediction, transform, quantization, and entropy encoding steps.
- a prediction signal may be generated by referring to a block currently performing encoding and an existing coded image or a neighboring image, and thus a difference signal between the current block and the current block may be calculated.
- the difference signal is input, and the transform is performed using various transform functions.
- the transformed signal is classified into DC coefficients and AC coefficients and is energy compacted to improve encoding efficiency. Can be.
- quantization may be performed by inputting transform coefficients, and then an image may be encoded by performing entropy encoding on the quantized signal.
- the image decoding method is performed in the reverse order of the above encoding process, the image quality distortion may occur in the quantization step.
- the size or shape of a transform unit (TU) and the type of transform function to be applied may be varied according to the distribution of the differential signal input to the input and the characteristics of the image in the conversion step. have.
- a difference is measured using a cost measurement method such as a sum of absolute difference (SAD) or mean square error (MSE).
- SAD sum of absolute difference
- MSE mean square error
- effective encoding can be performed by selectively determining the size or shape of the transform unit CU based on the distribution of various differential signals to perform the transform.
- an effective transform may be performed by dividing the coding block CBx into a binary tree structure and dividing it into two transform units (TUs).
- the DC value can generally be said to represent the average value of the input signal, so that when the differential signal is received at the input of the conversion process, the DC value can be effectively represented by dividing the coding block (CBx) into two transform units (TUs). have.
- a square coding unit CU0 having a size of 2N ⁇ 2N may be divided into a binary tree structure and divided into rectangular transform units TU0 and TU1 having a size of N ⁇ 2N or 2N ⁇ N.
- the step of dividing the coding unit (CU) into a binary tree structure may be repeated two or more times to divide the coding unit (CU) into a plurality of transform units (TUs).
- a rectangular coding block CB1 having a size of Nx2N is divided into a binary tree structure, and a block having a size of the divided NxN is further divided into a binary tree structure to N / 2xN or NxN / 2.
- the block having a size of N / 2xN or NxN / 2 is divided into a binary tree structure again to square transform units having a size of N / 2 ⁇ N / 2 (TU1, TU2) , TU4, TU5).
- a square coding block CB0 having a size of 2Nx2N is divided into a binary tree structure, and a block having a size of Nx2N is further divided into a binary tree structure to have a square having a size of NxN.
- the block having the size of NxN may be further divided into a binary tree structure and divided into rectangular transform units TU1 and TU2 having the size of N / 2xN.
- a rectangular coding block CB0 having a size of 2N ⁇ N is divided into a binary tree structure, and a block having the size of divided NxN is further divided into a quad tree structure to have a size of N / 2 ⁇ N / 2.
- Square units may be divided into TU1, TU2, TU3, and TU4.
- FIGS. 1 through 8 for blocks divided by the method as described with reference to FIGS. 10 through 14 (eg, coding unit (CU), prediction unit (PU), and transform unit (TU)).
- coding unit CU
- prediction unit PU
- transform unit TU
- the picture division unit 110 included in the image encoding apparatus 10 performs rate distortion optimization (RDO) according to a preset order, and thus is capable of splitting a coding unit (CU), a prediction unit (PU), and a transform as described above.
- RDO rate distortion optimization
- the partition structure of the unit TU may be determined.
- the picture division unit 110 performs a rate distortion optimization-quantization (RDO-Q) while selecting an optimal block division structure in terms of bitrate and distortion. You can decide.
- RDO-Q rate distortion optimization-quantization
- RD may be performed in the order of transform unit (PU) partition structure of 2N ⁇ N pixel size shown in (d) to determine an optimal partition structure of the transform unit PU.
- the coding unit CU has a form of Nx2N or 2NxN pixel size
- the pixel size of Nx2N (or 2NxN) shown in (a) the pixel size of NxN shown in (b), N / 2xN (or NxN / 2) and NxN pixel sizes shown in (c), N / 2xN / 2, N / 2xN and NxN pixel sizes shown in (d), N shown in (e)
- An RDO may be performed in a transform unit (PU) partition structure order of a pixel size of 2 ⁇ N to determine an optimal partition structure of the transform unit PU.
- PU transform unit
- the block division method of the present invention has been described with an example in which a block division structure is determined by performing RDO (Rate distortion Optimization).
- the picture division unit 110 may have a sum of absolute difference (SAD) or mean square error (MSE). By deciding the block division structure using), it is possible to reduce the complexity and maintain proper efficiency.
- SAD sum of absolute difference
- MSE mean square error
- the merge mode process merges the motion information of the current block and the adjacent block during inter prediction using the motion information, so that the coding unit according to the embodiment of the present invention or the coding unit according to an embodiment of the present invention performs quadtree and binary processing. As it is complexly divided into a tree structure, it may be processed inefficiently.
- the merge mode motion information decoder 243 constructs a merge mode motion information candidate list for selecting a merge candidate in merge mode motion information decoding
- the merge mode motion information decoder 243 is derived in response to the current block.
- the merge mode motion information candidate list for the prediction of the merge mode motion information of the current block is variably configured to provide an improvement in encoding efficiency according to adaptive processing on a complex partitioned block structure. Can be.
- Variable and adaptive variables for constructing the merge mode motion information candidate list include temporal and spatial adjacency, each block size, partition type, motion information signaled by the encoder, candidate list configuration information signaled by the encoder, or context of a block. At least one of the information may be exemplified, and the merge mode motion information decoder 243 further provides a composite merge mode motion information candidate list construction process, a probability based update process, and a cumulative motion predictor candidate calculation process using the same. By doing so, the encoding and decoding efficiency can be improved.
- 17 is a block diagram illustrating in more detail the merge mode motion information decoder according to an embodiment of the present invention.
- the merge mode motion information decoder 243 may include a merge type classifier 2431, a temporal adjacent co-location merge mode candidate derivator 2432, and a spatial merge mode candidate derivator ( 2433, the corresponding block merge mode candidate derivator 2434, the composite merge mode candidate derivator 2435, the sub-block merge mode candidate derivator 2439, the merge candidate list constructer 2436, the merge candidate selector 2437, and the probability An information update unit 2438 is included.
- the merge candidate is not limited to the candidates shown in FIG. 17, and the type of the merge candidate is calculated through equations using motion information of the adjacent blocks in addition to the block unit or sub-block unit candidates of the temporally and spatially adjacent blocks.
- Motion information is also referred to generically.
- the merge mode motion information decoder 243 may adaptively derive the merge mode motion information for each of the subdivided types according to the complex partition structure, and the derived merge mode motion information may be a merge candidate. It may be inserted into the merge mode motion information candidate list configured in the list constructing unit 2436. In addition, the priority in the merge mode motion information candidate list according to each type may be determined.
- the merge type classifier 2431 may determine a merge type corresponding to the current block and determine a merge mode derivation process according to the merge type.
- the merge type information may be determined according to the merge mode encoding efficiency for the current block, and may be obtained from header information signaled corresponding to the current block during decoding.
- the decoding apparatus 20 may parse the separately signaled index or flag corresponding to the merge mode and the type information.
- motion vector predictor (MVP) information and corresponding motion information (Motion information) corresponding thereto may be signaled to derive the merge mode motion information.
- the information signaled corresponding to the merge mode may indicate the position of one merge target block among spatial, temporal or complex adjacent merge target block candidates of the current block, or may indicate index information.
- the motion information encoded in response to the merge mode may be coding block unit-based motion information of one merge target block among spatial, temporal or complex neighboring merge target block candidates of the current block, and the signaling information may be such a motion. It may also indicate index information of the information.
- the merge mode information signaled corresponding to the merge mode may be included in the header information.
- the header information may include a Sequence Parameter Set (SPS) header or a tile group header, and the header information may include size information of a merge mode list or a merge mode list according to a tile group type. It may indicate whether to perform intra prediction.
- SPS Sequence Parameter Set
- the merge type classifier 2431 may determine, from the SPS header or the tile group header, merge mode information available for the current block, and for the determination, the merge mode signaled from the encoding apparatus 10. Information can be parsed.
- the merge mode motion information decoder 243 may selectively perform at least one of a plurality of merge mode candidate configuration processes according to the type information I / B / P of the tile group or the slice.
- the merge mode motion information decoder 243 may selectively construct a merge mode candidate list for inter prediction prediction decoding corresponding to a coding block in a tile group of a B or P type.
- inter prediction may be performed through bidirectional prediction, and thus the merge mode motion information decoder 243 adds separate reference picture list selection information from the merge mode signaling information.
- additional motion prediction candidate (MVP) index information to be added to the merge candidate list may be derived.
- MVP motion prediction candidate
- the merge mode motion information decoder 243 may form a merge candidate list by decoding motion information encoded in the merge mode.
- the candidate list may be used for decoding using the intra prediction mode.
- the size of the merge mode candidate list may be specified for each merge mode type or tile group and may have different sizes.
- the merge mode candidate list size may be derived through merge mode signaling information included in the tile group header.
- the merge mode signaling information may include maximum number of MVP candidate information, and the merge mode motion information decoder 243 may subtract a predetermined number corresponding to the tile group to which the current block belongs,
- the list size according to the merge mode of the tile group to which the block belongs may be determined in advance.
- the encoding mode signaling information signaled in correspondence to the coding block unit (CU) may include at least one of skip mode flag information (CU_Skip_Flag), prediction mode information (Pred_mode_flag, Pred_mode_ibc_flag), and merge mode flag information (Merge_flag) of the block.
- Each flag information may indicate the type and configuration of the prediction mode.
- the merge candidate list constructer 2436 may be configured according to the process of the induced derivative selected from the plurality of merge candidate derivators. Merge mode candidate list can be constructed.
- the merge mode motion information decoder 243 decodes the merge mode candidate motion information selected from the finally configured merge mode candidate list and the additional motion information of the current block corresponding thereto to decode the merge mode motion information of the current block. You can decide.
- the additional motion information may indicate differential motion information generated according to the prediction of the current block.
- the additional motion information may include MVD (Motion Vector Difference) or Reference Index information, or these. It may include a value calculated by a combination of.
- a derivation unit for deriving each merge mode candidate may selectively operate.
- the merge type classifier 2431 determines a merge type for the current block by using signaling information for classifying the merge type of the current block.
- the merge type of the current block it may be classified into a spatial merge type and a temporal merge type.
- the method may be classified into a block unit merge type and a sub-block unit merge type.
- the sub-block refers to a block unit for dividing the current block into a plurality of blocks
- the sub-block unit merge type refers to a case in which a motion vector is merged and used in each sub-block unit.
- a temporal adjacent co-location merge mode candidate derivation unit 2432 derives the merge mode candidate from motion information of a block at the same position as that of the current block in a pre-decoded picture temporally adjacent to the current block.
- the spatial merge mode candidate derivator 2433 derives the merge mode candidate from motion information of at least one spatially adjacent block based on a boundary line divided by the current block, the quad tree, and the binary tree structure.
- the corresponding block merge mode candidate derivator 2434 derives the merge mode candidate from motion information of a block of a corresponding position determined corresponding to the position of the current block in a pre-decoded picture that is temporally adjacent to the current block.
- the composite merge mode candidate derivator 2435 is based on a boundary line divided by the quad tree and the binary tree structure for a block having the same position as the current block in a pre-decoded picture temporally adjacent to the current block.
- the merge mode candidate is derived from spatially adjacent motion information of at least one block.
- the sub-block merge mode candidate derivator 2439 derives the merge mode candidate from one or more sub-blocks constituting a block at the same position as the current block in a pre-decoded picture that is temporally adjacent to the current block.
- the merge candidate list forming unit 2436 constructs a merge mode motion information candidate list by using one or more merge mode candidates derived according to the merge type classification.
- the merge candidate list constructer 2436 uses the at least one candidate of a temporally adjacent co-location merge mode candidate, a spatial merge mode candidate, a corresponding block merge mode candidate, a composite merge mode candidate, and a sub block merge mode candidate.
- a merge mode motion information candidate list may be constructed.
- the merge mode motion information candidate list may include one or more arrays of motion information indexed by the merge mode motion information candidates according to a preset priority.
- the priority of the merge mode motion information candidate list construction may be determined according to the type information classification of the merge mode, and the merge candidate list construction unit 2436 may include one or more merge mode motion information classified according to the type information.
- the candidate list can be constructed.
- the type information classification may include spatial merge type information and temporal merge type information.
- the merge mode motion information candidate list may be generated as each candidate list corresponding to each type information or as one merged mode motion information candidate list.
- the merge candidate selector 2437 uses the current block using temporal and spatial adjacency, variable and adaptive variables such as each block size and partition type, and merge mode signaling information signaled from the encoding apparatus 10. May select a candidate for merge.
- the merge candidate selector 2437 may select a merge mode candidate using block size information of a block to be decoded.
- the merge candidate selector 2437 may determine the merge type of the merge mode candidate to be selected by using the block size information of the block to be decoded.
- the merge candidate selector 2437 parses the sub-block merge flag information when the horizontal and vertical minimum sizes of the block to be decoded are equal to or greater than a predetermined size (for example, 8), thereby selecting the sub-block merge mode candidates from the current block. It may be decided whether to select as a merge candidate.
- the merge mode motion information decoder 243 may combine the inter prediction mode and the intra prediction mode (CIIP) when the size of a block to be decoded is 64x64 or more and smaller than 128 x 128. ) May be further parsed as encoding information, select a merge candidate of the current block based on the parsed encoding information, and perform merge mode decoding.
- CIIP intra prediction mode
- combined mode encoding may be performed to support inter-picture prediction and intra-picture prediction combining mode in response to a coding block to be currently decoded.
- the merge mode motion information decoder 243 determines whether the block division form of the block to be decoded is a vertically or horizontally divided coding block, and if the vertically or horizontally divided is, the merge mode information is determined from the intra prediction mode information. Acquire and perform merge mode decoding. A separate flag indicating merge mode decoding in this manner may be signaled, and the merge mode motion information decoder 243 may display a signal value of the signaled separate flag (CIIP mode flag, Ciip_flag), block division type, and block size information. Accordingly, merge mode decoding as described above may be performed. If the block size and the split form are different, motion information prediction decoding according to inter prediction may be separately performed.
- the merge candidate selector 2437 may select a merge candidate corresponding to the current block from the merge mode motion information candidate list.
- the prediction block generator 245 may generate the prediction block by performing motion information prediction decoding on the current block by using the merge candidate.
- the probability information updater 2438 may update probability information for each candidate list of the merge mode motion information candidate list by using the selected merge candidate.
- the updated merge mode motion information candidate list may be used as a merge mode motion information candidate list of the next block merged by the current block and the merge mode.
- the probability information updater 2438 accumulates and updates previously decoded motion information corresponding to slices in a picture, a tile group, or a tile in a tile group, as shown in FIG. 24, to be used for deriving motion information of the current block. can do.
- the previously decoded motion information may include a motion vector and the like, and may be used as one of motion vector candidates of the current block.
- the probability information updater 2438 may construct a separate virtual motion candidate list (VMVCL).
- VMVCL may be initialized to one of a row unit or a column unit of CTUs in the tile and the tile group according to the tile group, tile unit, or scan order in which the corresponding coding block is located.
- the virtual motion candidate list has a characteristic of being updated as decoding is performed, and the number of MV Candidates included in the list may be variably changed.
- the virtual motion candidate list may be constructed according to a FIFO algorithm or the like, and the motion information of the virtual motion candidate list may be added to a candidate of the merge mode candidate list of the current block and used for motion prediction of the current block. .
- FIG. 18 is a flowchart illustrating a merge mode candidate derivation and candidate list construction method according to an embodiment of the present invention.
- the merge mode motion information decoder 243 first identifies merge type information in the merge type classifier 2431 (S101) and merges the merge type information.
- the mode candidate derivation process is determined (S103).
- the derived unit of each of the induction units 2432, 2433, 2434, 2345, and 2436 obtains the merge mode motion information candidate (S105).
- the determination of the derivation process may be predetermined according to the merge type or sequentially determined according to the priority set in advance for the merge type.
- the temporal adjacent co-merge mode candidate derivator 2432 may be prioritized to derive a merge mode candidate prior to the composite merge mode candidate derivator 2435.
- the merge candidate list constructing unit 2436 constructs the one or more merge mode motion information candidate lists according to the type of the merge mode candidate and the priority in the list (S107).
- 19 to 20 are diagrams for explaining merge mode candidate derivation methods according to an embodiment of the present invention for each derivation process.
- 19 is a diagram for describing a method of determining a spatial merge mode candidate of the spatial merge mode candidate derivator 2433 corresponding to the current block.
- a block having the same position as the current block in a pre-decoded picture temporally adjacent to the current block corresponding to a current block is divided by the quad tree and the binary tree structure.
- the merge mode candidate may be derived from the motion information of at least one block that is spatially adjacent to the defined boundary line.
- motion information of blocks predetermined to be spatially adjacent may be derived as candidates for spatial merge mode, and as shown in FIG. 19A, basically, a left block 310, an upper block 311, The upper right block 312, the lower left block 313, and the upper left block 314 may be included.
- the derivation range of the spatial merge mode candidate according to an embodiment of the present invention can be extended, and signaling information such as a separate index or a flag can be transmitted in the encoding apparatus 10.
- FIG. 19 (B) shows the extended merge mode motion information candidate of the current target block.
- the block of the AR position, together with the motion information of the block 311 at the A position among the blocks located at the top of the current target block The motion information of 316 may be extended and used as a spatial merge mode motion information candidate.
- Such an extended case may be applied when the upper block of the current target block is further divided into a plurality of blocks, and thus the A block 311 and the AR block 316 have different motion information.
- the A block or the AR block may be a block finally divided into binary, so that the motion information may be different by a predetermined reference or more.
- the motion information of the expanded AR block is spatial when the motion information of the A block 311 and the AR block 316 is compared and the same. It may be excluded from the merge mode motion information candidate or may not be added to the merge mode motion information candidate list.
- the motion information of the block 318 at the BL location is also expanded. It may be used as a merge mode motion information candidate.
- This extended case may be applied to a case in which the left block of the current target block is further divided into a plurality of blocks, and the L block 310 and the BL block 318 have different motion information.
- the L block or the BL block may be a block finally divided into binaries, and motion information may be different from each other by a predetermined reference or more.
- the motion information of the extended BL block is excluded from the spatial merge mode motion information candidate when the motion information of the L and BL positions is the same. It may not be added to the merge mode motion information candidate list.
- the merge candidate list constructer 2436 constructs a list by deriving a motion candidate from the neighboring block, the order may be set in advance.
- the merge candidate list generator 2436 may obtain motion information from the neighboring block, the merge mode candidate list of the current block in the order of the left block, the upper block, the upper right block, the lower left block, and the upper left block. Can be configured.
- the merge candidate list constructer 2436 additionally derives a temporal co-location motion candidate according to the presence or absence of duplicate motion information in the list to merge the current mode. It is also possible to construct a candidate list.
- 20 is a diagram illustrating a temporal and complex merge mode candidate derivation process according to an exemplary embodiment of the present invention.
- the temporal adjacent co-merge mode candidate derivation unit 2432 is a current target block.
- One temporal motion vector derived from temporal collocated merge candidates may be obtained as the merge mode motion information candidate.
- the temporal adjacent co-location merge mode candidate inducing unit 2432 may identify a block at the same position as the current target block in a reference picture corresponding to the current picture, and is derived from the co-located block.
- One temporal motion vector may be derived as the merge mode motion information candidate.
- the temporal adjacent co-merge mode candidate derivation unit 2432 corresponds to a block for performing current decoding, and thus includes two reference picture lists.
- One reference picture list of 0 and reference picture list 1 may be selected to derive motion information of a collocated block, and the selection information of the reference picture list may be arbitrary flag information (Collcated_from_ref_list_L0_flag). It may be signaled separately.
- the temporal adjacent co-merge mode candidate derivator 2432 derives a temporal neighbor candidate from the reference picture list 0 when the signaled value is true. On the contrary, the temporal adjacent co-merge mode candidate derivator 2432 may derive a temporal prediction candidate (Temporal MVP) from reference picture list 1 when the signaled value is false.
- Temporal MVP temporal prediction candidate
- a merge mode motion information candidate may be derived from a motion vector of a lower right block 421 of a colocated block of a temporal adjacent picture.
- the temporal adjacent co-merge mode candidate derivator 2432 may derive the merge mode motion information candidate from the motion vector of the center position 422. have.
- FIG. 20B illustrates a merge mode candidate derivation of the corresponding block merge mode candidate derivation unit 2434 according to an embodiment of the present invention
- the corresponding block merge mode candidate derivation unit 2434 is based on the current target block.
- the merge mode motion information candidate may be derived from the motion information of the block of the corresponding position determined corresponding to the position of the current block of the adjacent reference picture, which may be referred to as an enhanced temporal merge mode motion candidate predictor (ATMVP).
- ATMVP enhanced temporal merge mode motion candidate predictor
- the corresponding location may be derived using motion information derived from spatially adjacent blocks of the current block according to a predefined rule.
- a plurality of motion vectors in units of sub-blocks derived from corresponding position blocks may exist, and according to an embodiment of the present invention, corresponding blocks
- the merge mode candidate derivator 2434 may determine a temporal neighboring motion vector TEMPORAL VECTOR derived from the target block as the corresponding block merge mode candidate.
- the merge mode candidate list constructing unit 2436 may firstly insert candidates obtained from the corresponding block merge mode candidate deriving unit 2434 into the list.
- FIG. 20 (C) shows at least one of spatially adjacent motion information candidates corresponding to the same position block in a time-adjacent picture of the current target block, based on a boundary line divided by the quad tree and the binary tree structure.
- the composite merge mode candidate derivation process of deriving the merge mode candidate from the motion information of the block is shown.
- the composite merge mode candidate derivator 2435 may select the merge mode candidate from a motion vector or a sub-block unit motion vector derived from a spatially adjacent block based on a position of a current block among blocks of a temporally adjacent picture. Can be induced. This may be referred to as a spatiotemporal merge mode motion information candidate (STMVP).
- STMVP spatiotemporal merge mode motion information candidate
- the composite merge mode candidate derivator 2435 is configured to derive motion information of the first sub-block 440 of the current block, in which the left sub-block 442 and the upper sub-block 441 are spatially adjacent to each other.
- the merge candidates may be derived according to a complex operation using the motion vector average value or the median value of the sub-block 443 of the co-located block.
- an average value or a median value of motion vectors of one or more remaining subblocks except for the corresponding subblock may be derived as the composite merge candidate. It may be.
- the merge mode motion information decoder 243 may generate new motion information by combining the merge mode differential motion information encoded by the encoding apparatus 10 with the merge candidate, and the generated motion information may be added to the merge mode list. Can be added.
- the merge mode differential motion information may include additional distance information and direction information corresponding to the merge candidate.
- the merge mode motion information decoder 243 may generate new motion information using motion information of one of the merge mode candidate lists and prediction parameter information such as decoded MVD information.
- the prediction parameter information may be offset information including distance information and direction information.
- the merge mode motion information decoder 243 may generate new motion information by combining it with the previously selected merge candidate and add it to the merge candidate list.
- the distance information may be indicated by a preset table, and index information corresponding thereto may indicate the distance information.
- Merge_MV_Cand TempMV + (Merge_MVD_Dis * Merge_MVD_Dir);
- new motion information (Merge_MVCand) using one of the motion information derived from the merge candidate list may be generated.
- signaling information indicating that additional new motion information should be generated using motion information of the previously configured merge candidate list may be signaled from the encoding apparatus 10, and may be indicated by a flag such as Merge_MVD_Flag.
- Merge_MVD_Flag When Merge_MVD_Flag is true, Offset parameters Merge_MVD_Distance_Index and Merge_MVD_Dir_Index may be indicated, and their values may be indicated by separate table indexes.
- merge mode motion information decoder 243 may derive the actual difference signal value using the Merge_MVD_Distance_Index and the scaling information derived from the header information.
- Merge_MVD_Dir_index may be direction information and may include four direction information.
- the merge candidate list construction unit 2436 may calculate average merge candidate motion information to determine one of candidates added to the merge candidate list.
- the merge candidate list constructing unit 2436 performs a merge mode candidate derivation process, but the current merge candidate list size is the maximum size of the merge candidate list ( If less than MaxNumMergeCand), the average merge candidate motion information may be generated and inserted into the list.
- the merge candidate list constructer 2436 may calculate the average motion vector value AVG_MV using one or more motion information obtained from the previously configured merge candidate list.
- MV_Cand0 MergeCandidateList [0];
- MV_Cand1 MergeCandidateList [1]
- Merge_AVG_MV (MV_Cand0 + MV_Cand1) / 2;
- the merge candidate list construction unit 2436 may conditionally insert the Merge_AVG_MV generated by the above operation into the merge candidate list as follows.
- MergeCandidateList [i] Merge_AVG_MV; (1 ⁇ i ⁇ Maximum Number of Merge Candidate)
- the sub-block merge mode candidate inducing unit 2435 may include one or more sub-blocks constituting a block at the same position as the current block in the pre-decoded picture that is temporally adjacent to the existing current block.
- the merge mode candidate may be derived from.
- the sub-block merge mode candidate derivation unit 2435 May obtain a merge mode motion information candidate with reference to the subblock.
- FIGS. 22 to 24 are views illustrating a configuration and configuration of a merge mode motion information candidate list according to an embodiment of the present invention.
- Figures are schematic diagrams for explaining the update process.
- the motion compensation predictor 240 may perform merge mode decoding of motion information using the selected merge candidate. It may be (S203).
- the probability information updater 2438 updates the probability information of the merge candidates corresponding to the selected merge candidate index (S205), and the merge candidate list construction unit 2436 orders the merge candidate list according to the updated probability information. Change processing (S207).
- FIG. 22 illustrates an example of a merge mode motion information candidate list constructed according to an embodiment of the present invention.
- the merge candidate list construction unit 2436 may add the merge candidates derived to the candidate list according to the predefined configuration order as described above.
- Each added merge candidate may correspond to derived type information or location information.
- derived spatial information L, AL, AR, BL, BR, etc.
- type information such as ATMVP, STMVP, etc. may be illustrated in the case of other merge candidates as described above.
- location and type information may be considered in determining the priority when constructing each candidate list.
- the candidate list may be configured as a single list integrated as shown in FIG. 22A, and as shown in FIG. 22B, a plurality of lists separated by each type or position (list0, list1, ...) It may be configured as.
- one of a plurality of reference picture lists may be selected according to the characteristic information of the tile group, and the reference picture list selection information may be selected from a decoding apparatus ( 20).
- the decoding apparatus 20 may derive temporally adjacent ATMVP (motion information induced by Temporal Motion Vector prediction) from the same block using the received reference picture list selection information.
- ATMVP may be added to the merge candidate list.
- the ATMVP can be added to the 0th index of the second merge mode list list 1 as shown in FIG. 22 (B).
- the reason for the addition to the 0 th index is that the temporally adjacent ATMVPs in the collocated block are most similar and thus one of the candidates having the highest coding efficiency when constructing the second merge mode list.
- the motion information of the block 310 adjacent to the spatial left side of the current block 300 may be inserted as a candidate first, and then the block adjacent to the spatial top of the current block 300 ( The motion information of 311) may be added as the second candidate.
- ATMVP candidates of the temporal adjacent co-merge mode candidate derivator 2432 may be added, and then the composite merge mode candidates are added.
- the STMVP candidates of the induction unit 2435 are added, the subblock unit candidates of the extended subblock merge mode candidate induction unit 2435 are added, or the spatially adjacent candidates or the corresponding blocks of the spatial merge mode candidate derivation unit 2433 are added.
- Temporal adjacent candidates of the merge mode candidate derivator 2434 may be added.
- the candidate information may be added only when the motion information of each reference block can be referred to.
- the case where the motion information of each reference block is referenceable may mean a case in which the reference block is coded in the inter prediction mode.
- FIG. 23 illustrates a probability information table and list update according to an embodiment of the present invention.
- the encoding apparatus 10 or the decoding apparatus 20 In constructing the merge mode motion information candidate list of the current block, the encoding apparatus 10 or the decoding apparatus 20 according to an embodiment of the present invention initializes the candidate list as shown in FIG. By performing probability update as is performed, the order of list construction can be adaptively changed.
- the candidate list constructing unit 2436 includes respective initial probability values a, b, c, d, e, f,... Corresponding to merge candidates added to the list. ..., n) may be assigned, and the candidate list constructing unit 2436 may form the list sequentially by sorting in descending order according to the probability table.
- the candidate list constructer 2436 may rearrange the order of the list.
- the probability value may be a value of a specific integer form or may be determined according to a selection rate or a generation rate of the target merge candidate.
- the initial probability value may use a predefined value or may be transmitted from the encoding apparatus 10 to the decoding apparatus 20.
- the probability information table may be implemented in various implementations.
- the probability information updater 2438 may update the probability value and the table by using the result value.
- the merge mode candidate list constructer 2436 may be again sorted in descending order.
- the probability information table may be configured as a plurality of individual tables according to the encoding information of the current target block, and the encoding information may include a block size, a partition type, a block depth, and the like. It may include at least one of the information.
- FIG. 24 illustrates a merge mode candidate list initial configuration and a sequential update method according to an embodiment of the present invention.
- the size of a coding tree block may be extended to 256 ⁇ 256, a merge mode candidate list for the extended coding tree block is configured, and probability updates for each coding block in the coding tree block are updated. And update processing can be performed.
- CTB coding tree block
- the merge mode motion candidate list may be derived from a predetermined neighboring block corresponding to the initial block.
- the merge candidate selector 2437 which processes the block N updated in stages, uses the merge mode motion candidate list in which the N-order probability is accumulated from the temporal spatially adjacent or complex derived neighboring blocks, thereby encoding efficiency.
- This optimized merge motion information can be selected.
- the cumulative decoding probability information according to the merge mode selection information may be sequentially accumulated according to a raster scan order, and then, from the current block N, the next N + 1 block, N + 2 block, .. And further sequentially update to the last block (Block End) in the current coding tree block, so that merge mode motion information coding efficiency and accuracy of subsequent processed blocks can be further increased.
- 25 to 27 are diagrams for explaining high level syntax of header information according to an embodiment of the present invention.
- Collocated_from_l0_flag indicates whether the temporal merge mode motion candidate predictor (ATMVP) is derived. If the variable value is 1, ATMVP can be derived from reference picture list 0, and if the value is 0, ATMVP can be derived from reference picture list 1. have.
- ATMVP temporal merge mode motion candidate predictor
- Merge_MVD_Flag described above may indicate that additional new motion information should be generated using motion information of a previously configured merge candidate list, which may be indicated as a tile_group_mmvd_enabled_flag corresponding to a tile group in FIG. 25.
- distance and direction corresponding to each mmvd_flag may be indicated to merge data, respectively.
- the merge mode signaling information may include maximum number of MVP candidate information and may be indicated by a flag such as Max_num_merge_cand, which may be allocated to each subblock.
- the merge mode motion information decoder 243 may predetermine the list size according to the merge mode of the tile group to which the current block belongs by subtracting a predetermined number corresponding to the tile group to which the current block belongs.
- the merge mode motion information decoder 243 may determine whether to encode merge mode motion information of each subblock by parsing separate flag information (merge_subblock_flag). have.
- the merge mode motion information decoder 243 may determine whether the merge mode is encoded in the CIIP mode by using a separate CIIP mode flag (Ciip_flag).
- CIIP mode flag In the case of the CIIP mode, intra or inter prediction may be determined according to the presence or absence of a Most provable mode (MPM) flag, and merge mode may be applied to inter prediction.
- MPM Most provable mode
- inter prediction may be performed by a triangle.
- the merge mode list may be generated, and merge mode information according to the triangular prediction mode may be signaled through merge_triangle_flag, merge_triangle_split_dir (division direction information), and index information.
- the method according to the present invention described above may be stored in a computer-readable recording medium that is produced as a program for execution on a computer, and examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape , Floppy disks, optical data storage devices, and the like, and also include those implemented in the form of carrier waves (eg, transmission over the Internet).
- the computer readable recording medium can be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
- functional programs, codes, and code segments for implementing the method can be easily inferred by programmers in the art to which the present invention belongs.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
본 발명은 영상 처리 방법, 그를 이용한 영상 복호화, 부호화 방법 및 그 장치에 관한 것으로, 보다 구체적으로는 움직임 정보의 복합적 머지 모드 처리를 제공하는 영상 처리 방법, 그를 이용한 영상 복호화, 부호화 방법 및 그 장치에 관한 것이다.The present invention relates to an image processing method, an image decoding and encoding method using the same, and an apparatus thereof, and more particularly, to an image processing method for providing complex merge mode processing of motion information, an image decoding and encoding method using the same, and an apparatus thereof. It is about.
디지털 비디오 기술은 디지털 텔레비전, 디지털 직접 방송 시스템, 무선 방송 시스템, 개인 휴대 정보 단말기 (PDA), 랩탑 또는 데스크탑 컴퓨터, 디지털 카메라, 디지털 레코딩 디바이스, 비디오 게이밍 디바이스, 비디오 게임 콘솔, 셀룰러 또는 위성 라디오 텔레폰 등을 포함하는 광범위의 디지털 비디오 디바이스에 통합적으로 적용될 수 있다. 디지털 비디오 디바이스는 MPEG-2, MPEG-4, 또는 ITU-T H.264/MPEG-4, 파트 10, AVC (Advanced Video Coding), H.265/HEVC (High Efficiency Video Coding) 와 같은 비디오 압축 기술을 구현하여, 디지털 비디오 정보를 보다 효율적으로 송수신한다. 비디오 압축 기술은 공간 예측 및 시간 예측을 수행하여 비디오 시퀀스에 고유한 리던던시를 제거 또는 감소시킨다.Digital video technologies include digital television, digital direct broadcast systems, wireless broadcast systems, personal digital assistants (PDAs), laptop or desktop computers, digital cameras, digital recording devices, video gaming devices, video game consoles, cellular or satellite radio telephones, etc. It can be integratedly applied to a wide range of digital video devices, including. Digital video devices include video compression technologies such as MPEG-2, MPEG-4, or ITU-T H.264 / MPEG-4, Part 10, Advanced Video Coding (AVC), and High Efficiency Video Coding (HVC). By implementing the digital video information transmission and reception more efficiently. Video compression techniques perform spatial prediction and temporal prediction to remove or reduce redundancy inherent in video sequences.
이러한 영상 압축 기술로서, 현재 픽쳐의 이전 또는 이후 픽쳐로부터 현재 픽쳐에 포함된 화소값을 예측하는 화면 간 예측기술, 현재 픽쳐 내의 화소 정보를 이용하여 현재 픽쳐에 포함된 화소값을 예측하는 화면 내 예측 기술, 출현 빈도가 높은 값에 짧은 부호를 할당하고 출현 빈도가 낮은 값에 긴 부호를 할당하는 엔트로피 엔코딩 기술 등 다양한 기술이 존재하고 이러한 영상 압축 기술을 이용해 영상 데이터를 효과적으로 압축하여 전송 또는 저장할 수 있다.Such image compression techniques include an inter prediction technique for predicting pixel values included in a current picture from a picture before or after the current picture, and an intra prediction for predicting pixel values included in a current picture using pixel information in the current picture. There are various technologies such as technology, entropy encoding technology that assigns a short code to a high frequency of appearance and long code to a low frequency of frequency, and it is possible to effectively compress and transmit or store image data using such image compression technology. .
이와 같은 응용에 따라 다양한 해상도, 프레임율 등에 cost-effective하게 대응하기 위해서는, 응용에서 요구되는 성능, 기능에 따라 쉽게 처리 가능한 동영상 복호화 장치를 가지고 있어야 한다.In order to cost-effectively cope with various resolutions, frame rates, etc. according to such applications, a video decoding apparatus that can be easily processed according to the performance and function required for the application must be provided.
예를 들어, 영상 압축 방법에서는 하나의 픽처(picture)를 소정 크기를 가지는 복수의 블록(block)으로 구분하여 부호화를 수행한다. 또한, 압축 효율을 높이기 위해 픽쳐들 사이의 중복도를 제거하는 인터 예측(inter prediction) 및 인트라 예측(intra prediction) 기술을 이용한다.For example, in the image compression method, one picture is divided into a plurality of blocks having a predetermined size and encoding is performed. In addition, inter prediction and intra prediction techniques that remove redundancy between pictures are used to increase compression efficiency.
이 경우, 인트라 예측과 인터 예측을 이용하여 잔차 신호(residual signal)를 만들며, 잔차 신호를 구하는 이유는 잔차 신호를 가지고 코딩을 했을 때 데이터의 양이 작아서 데이터 압축률이 높아지고, 예측이 좋을수록 잔차 신호의 값이 작게 되기 때문이다.In this case, a residual signal is generated by using intra prediction and inter prediction, and the reason for obtaining the residual signal is that when coding with the residual signal, the amount of data is small and the data compression ratio is high, and the better the prediction, the residual signal. This is because the value of becomes small.
인트라 예측 방법은 현재 블록의 주변의 픽셀을 이용하여 현재 블록의 데이터를 예측한다. 실제 값과 예측 값의 차이를 잔차 신호 블록이라고 한다. HEVC의 경우는 인트라 예측 방법이 기존 H.264/AVC에서 사용되던 9개의 예측모드에서 35개의 예측모드로 증가하여 더욱 세분화하여 예측을 한다.The intra prediction method predicts data of the current block by using pixels around the current block. The difference between the actual value and the predicted value is called the residual signal block. In the case of HEVC, the intra prediction method is increased from nine prediction modes used in H.264 / AVC to 35 prediction modes to further refine the prediction.
인터 예측 방법의 경우는 현재 블록을 주변의 픽쳐들 내의 블록들과 비교하여 가장 비슷한 블록을 찾는다. 이때 찾은 블록에 대한 위치정보(Vx, Vy)를 모션 벡터라고 한다. 현재블록과 모션 벡터에 의하여 예측된 예측블록간의 블록내 화소 값들의 차이를 잔차 신호(residual signal) 블록이라고 한다 (motion-compensated residual block).In the case of the inter prediction method, the most similar block is found by comparing the current block with blocks in neighboring pictures. At this time, the position information (Vx, Vy) of the found block is called a motion vector. The difference between pixel values in a block between the current block and the prediction block predicted by the motion vector is called a residual signal block (motion-compensated residual block).
이와 같이 인트라 예측과 인터 예측이 더 세분화 되어 잔차 신호의 데이터 양이 줄어들고 있으나, 동영상의 처리를 위한 연산량은 크게 증가하였다.As the intra prediction and the inter prediction are further subdivided, the amount of data of the residual signal is reduced, but the amount of computation for processing a video has greatly increased.
특히, 영상 부호화 및 복호화를 위한 인트라 및 인터 예측 과정에서, 분할 구조 다분화에 따른 복잡도 증가량과, 예측의 어려움으로 인해, 부호화 효율 저하 뿐만 아니라 디코더 구현 및 병렬 처리 등에 있어서의 어려움이 존재하며, 기존의 예측 방법은 고해상도 영상의 부호화에는 적합하지 않을 수 있다.In particular, in the intra and inter prediction processes for image encoding and decoding, due to the complexity increase due to the division structure division and the difficulty of prediction, not only the encoding efficiency but also the decoder implementation and parallel processing exist. The prediction method may not be suitable for encoding a high resolution image.
본 발명은 상기와 같은 문제점을 해결하기 위한 것으로, 분할 구조의 다양화 및 세분화에 따른 고해상도 영상의 움직임 정보 예측 복호화 및 부호화의 효율을 향상시키기 위한 영상 복호화, 부호화 방법 및 그 장치를 제공하는데 그 목적이 있다.The present invention is to solve the above problems, and to provide an image decoding, encoding method and apparatus for improving the efficiency of motion information prediction decoding and encoding of a high resolution image according to the diversification and segmentation of the partition structure. There is this.
상기와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 영상 처리 방법은, 영상의 픽쳐가 인터 예측(inter prediction) 또는 인트라 예측(intra prediction)이 수행되는 기본 단위인 복수의 코딩 유닛(Coding Unit)들로 분할되고, 상기 픽쳐 또는 상기 분할된 코딩 유닛을 쿼드 트리(quad tree) 및 이진 트리(binary tree) 구조로 분할한 코딩 유닛을 복호화하기 위한 현재 블록을 결정하는 단계; 상기 현재 블록에 대응하여 유도된 하나 이상의 머지 모드 후보자에 따라, 상기 현재 블록의 머지 모드 움직임 정보 예측을 위한 머지 모드 움직임 정보 후보 리스트를 가변적으로 구성하는 단계; 및 상기 머지 모드 움직임 정보 후보 리스트를 이용하여 상기 현재 블록의 머지 모드 움직임 정보 예측 복호화를 수행하는 단계를 포함한다.In an image processing method according to an embodiment of the present invention for solving the above problems, a plurality of coding units in which a picture of an image is a basic unit in which inter prediction or intra prediction is performed Determining a current block for decoding the coding unit divided into the plurality of frames), and the coding unit obtained by dividing the picture or the divided coding unit into a quad tree and a binary tree structure; Variably constructing a merge mode motion information candidate list for predicting merge mode motion information of the current block according to one or more merge mode candidates derived corresponding to the current block; And performing merge mode motion information prediction decoding of the current block by using the merge mode motion information candidate list.
또한, 상기와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 방법은, 영상 복호화 방법에 있어서, 부호화된 비트스트림을 입력받는 단계; 상기 입력된 비트스트림에 대해 역양자화 및 역변환을 수행하여 잔차 블록을 획득하는 단계; 상기 잔차 블록에 대응하여, 영상의 픽쳐가 쿼드 트리 및 이진 트리 구조로 분할된 코딩 유닛을 복호화하기 위한 현재 블록을 결정하는 단계; 상기 현재 블록에 대응하여 유도된 하나 이상의 머지 모드 후보자에 따라, 상기 현재 블록의 머지 모드 움직임 정보 예측을 위한 머지 모드 움직임 정보 후보 리스트를 가변적으로 구성하는 단계; 상기 머지 모드 움직임 정보 후보 리스트를 이용하여 상기 현재 블록의 머지 모드 움직임 정보 예측 복호화를 수행하여 예측 블록을 획득하는 단계; 및 상기 예측 블록과 상기 잔차 블록을 이용하여 영상을 복원하는 단계를 포함한다.In addition, a method according to an embodiment of the present invention for solving the above problems, the image decoding method, comprising: receiving an encoded bitstream; Performing inverse quantization and inverse transformation on the input bitstream to obtain a residual block; Determining a current block for decoding a coding unit having a picture of an image divided into quad tree and binary tree structures corresponding to the residual block; Variably constructing a merge mode motion information candidate list for predicting merge mode motion information of the current block according to one or more merge mode candidates derived corresponding to the current block; Obtaining a prediction block by performing merge mode motion information prediction decoding of the current block by using the merge mode motion information candidate list; And reconstructing an image by using the prediction block and the residual block.
또한, 상기와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 방법은, 영상 부호화 방법에 있어서, 영상의 픽쳐가 쿼드 트리 및 이진 트리 구조로 분할된 복수의 코딩 유닛으로 분할하는 단계; 상기 코딩 유닛을 부호화하기 위한 현재 블록을 결정하는 단계; 상기 현재 블록에 대응하여 유도된 하나 이상의 머지 모드 후보자에 따라, 상기 현재 블록의 머지 모드 움직임 정보 예측을 위한 머지 모드 움직임 정보 후보 리스트를 가변적으로 구성하는 단계; 및 상기 머지 모드 움직임 정보 후보 리스트를 이용한 상기 현재 블록의 머지 모드 움직임 정보 예측 복호화를 수행하여, 예측 블록을 획득하는 단계를 포함한다.In addition, the method according to an embodiment of the present invention for solving the above problems, the image encoding method, comprising: dividing a picture of the image into a plurality of coding units divided into quad tree and binary tree structure; Determining a current block for encoding the coding unit; Variably constructing a merge mode motion information candidate list for predicting merge mode motion information of the current block according to one or more merge mode candidates derived corresponding to the current block; And performing prediction mode decoding of merge mode motion information of the current block by using the merge mode motion information candidate list to obtain a prediction block.
한편, 상기와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 방법은 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램 및 상기 프로그램이 저장되어 컴퓨터가 읽을 수 있는 비 휘발적 기록 매체로 구현될 수 있다.On the other hand, the method according to an embodiment of the present invention for solving the above problems can be implemented as a program for executing the method on a computer and a non-volatile recording medium that is stored in the computer can be read by the computer.
본 발명의 실시 예에 따르면, 머지 모드에 대한 움직임 정보의 효율적 처리를 제공함으로써, 분할 구조의 다양화 및 세분화에 따른 고해상도 영상의 움직임 정보 예측 복호화 및 부호화의 효율을 향상시키기 위한 영상 복호화, 부호화 방법 및 그 장치를 제공할 수 있다.According to an embodiment of the present invention, an image decoding and encoding method for improving the efficiency of motion information prediction decoding and encoding of a high resolution image according to diversification and segmentation of a partition structure by providing efficient processing of motion information for a merge mode And the apparatus.
도 1은 본 발명의 일실시예에 따른 영상 부호화 장치의 구성을 나타내는 블록도이다.1 is a block diagram illustrating a configuration of an image encoding apparatus according to an embodiment of the present invention.
도 2 내지 도 5는 영상을 블록 단위로 분할하여 처리하는 방법에 대한 제1 실시예를 설명하기 위한 도면이다.2 to 5 are diagrams for describing a first exemplary embodiment of a method of dividing and processing an image in block units.
도 6은 영상 부호화 장치에서 인터 예측을 수행하는 방법에 대한 일실시예를 설명하기 위한 블록도이다.6 is a block diagram illustrating an embodiment of a method of performing inter prediction in an image encoding apparatus.
도 7은 본 발명의 일실시예에 따른 영상 복호화 장치의 구성을 나타내는 블록도이다.7 is a block diagram illustrating a configuration of an image decoding apparatus according to an embodiment of the present invention.
도 8은 영상 복호화 장치에서 인터 예측을 수행하는 방법에 대한 일실시예를 설명하기 위한 블록도이다.8 is a block diagram illustrating an embodiment of a method of performing inter prediction in an image decoding apparatus.
도 9는 영상을 블록 단위로 분할하여 처리하는 방법에 대한 제2 실시예를 설명하기 위한 도면이다.FIG. 9 is a diagram for describing a second exemplary embodiment of a method of dividing and processing an image into blocks.
도 10은 영상을 블록 단위로 분할하여 처리하는 방법에 대한 제3 실시예를 설명하기 위한 도면이다.FIG. 10 is a diagram for describing a third embodiment of a method of dividing and processing an image into blocks.
도 11는 코딩 유닛을 이진 트리 구조로 분할하여 변환 유닛을 구성하는 방법에 대한 일실시예를 설명하기 위한 도면이다.FIG. 11 is a diagram for describing an example of a method of configuring a transform unit by dividing a coding unit into a binary tree structure.
도 12는 영상을 블록 단위로 분할하여 처리하는 방법에 대한 제4 실시예를 설명하기 위한 도면이다.FIG. 12 is a diagram for describing a fourth embodiment of a method of dividing and processing an image into blocks.
도 13 내지 도 14는 영상을 블록 단위로 분할하여 처리하는 방법에 대한 또 다른 실시예들을 설명하기 위한 도면들이다.13 to 14 are diagrams for describing still another example of a method of dividing and processing an image into blocks.
도 15 및 도 16은 RDO(Rate distortion Optimization)를 수행하여 변환 유닛의 분할 구조를 결정하는 방법에 대한 실시예들을 설명하기 위한 도면들이다.15 and 16 are diagrams for describing embodiments of a method of determining a partition structure of a transform unit by performing rate distortion optimization (RDO).
도 17은 본 발명의 실시 예에 따른 머지 모드 움직임 정보 복호화부를 보다 구체적으로 설명하기 위한 블록도이다.17 is a block diagram illustrating in more detail the merge mode motion information decoder according to an embodiment of the present invention.
도 18은 본 발명의 실시 예에 따른 머지 모드 후보자 유도 및 후보 리스트 구성 방법을 설명하기 위한 흐름도이다.18 is a flowchart illustrating a merge mode candidate derivation and candidate list construction method according to an embodiment of the present invention.
도 19 내지 도 20은 본 발명의 실시 예에 따른 머지 모드 후보자 유도 방법들을 각 유도 프로세스별로 설명하기 위해 도식화한 도면들이다.19 to 20 are diagrams for explaining merge mode candidate derivation methods according to an embodiment of the present invention for each derivation process.
도 21은 본 발명의 실시 예에 따른 머지 모드 움직임 정보 후보 리스트의 구성 및 업데이트 방법을 설명하기 위한 흐름도이다.21 is a flowchart illustrating a method of constructing and updating a merge mode motion information candidate list according to an embodiment of the present invention.
도 22 내지 도 24는 본 발명의 실시 예에 따른 머지 모드 움직임 정보 후보 리스트의 구성 및 갱신 프로세스를 설명하기 위해 도식화한 도면들이다.22 to 24 are diagrams for explaining a configuration and update process of a merge mode motion information candidate list according to an embodiment of the present invention.
도 25 내지 도 27은 본 발명의 실시 예에 따른 헤더 정보의 하이 레벨 신택스를 설명하기 위해 도식화한 도면들이다.25 to 27 are diagrams for explaining high level syntax of header information according to an embodiment of the present invention.
이하, 도면을 참조하여 본 발명의 실시 형태에 대하여 구체적으로 설명한다. 본 명세서의 실시 예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.EMBODIMENT OF THE INVENTION Hereinafter, embodiment of this invention is described concretely with reference to drawings. In describing the embodiments of the present specification, when it is determined that a detailed description of a related well-known configuration or function may obscure the gist of the present specification, the detailed description thereof will be omitted.
어떤 구성 요소가 다른 구성 요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 아울러, 본 발명에서 특정 구성을 "포함"한다고 기술하는 내용은 해당 구성 이외의 구성을 배제하는 것이 아니며, 추가적인 구성이 본 발명의 실시 또는 본 발명의 기술적 사상의 범위에 포함될 수 있음을 의미한다. When a component is said to be "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that another component may be present in between. Should be. In addition, the content described as "include" a specific configuration in the present invention does not exclude a configuration other than the configuration, it means that additional configuration may be included in the scope of the technical idea of the present invention or the present invention.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
또한 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.In addition, the components shown in the embodiments of the present invention are shown independently to represent different characteristic functions, and do not mean that each component is made of separate hardware or one software component unit. In other words, each component is included in each component for convenience of description, and at least two of the components may be combined into one component, or one component may be divided into a plurality of components to perform a function. Integrated and separate embodiments of the components are also included within the scope of the present invention without departing from the spirit of the invention.
또한, 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.In addition, some of the components may not be essential components for performing essential functions in the present invention, but may be optional components for improving performance. The present invention can be implemented including only the components essential for implementing the essentials of the present invention except for the components used for improving performance, and the structure including only the essential components except for the optional components used for improving performance. Also included in the scope of the present invention.
도 1은 본 발명의 일실시예에 따른 영상 부호화 장치의 구성을 블록도로 도시한 것으로, 영상 부호화 장치(10)는 픽쳐 분할부(110), 변환부(120), 양자화부(130), 스캐닝부(131), 엔트로피 부호화부(140), 인트라 예측부(150), 인터 예측부(160), 역양자화부(135), 역변환부(125), 후처리부(170), 픽쳐 저장부(180), 감산부(190) 및 가산부(195)를 포함한다.1 is a block diagram illustrating a configuration of an image encoding apparatus according to an embodiment of the present invention. The
도 1을 참조하면, 픽쳐 분할부(110)는 입력되는 비디오 신호를 분석하여 픽쳐를 코딩 유닛으로 분할하여 예측 모드를 결정하고, 상기 코딩 유닛별로 예측 유닛의 크기를 결정한다.Referring to FIG. 1, the
또한, 픽쳐 분할부(110)는 부호화할 예측 유닛을 예측 모드(또는 예측 방법)에 따라 인트라 예측부(150) 또는 인터 예측부(160)로 보낸다. 또한, 픽쳐 분할부(110)는 부호화할 예측 유닛을 감산부(190)로 보낸다.In addition, the
여기서, 영상의 픽쳐(picture)는 복수의 슬라이스로 구성되고, 슬라이스는 픽쳐를 분할하는 기본 단위인 복수의 코딩 트리 유닛(Coding Tree Unit: CTU)들로 분할될 수 있다.Here, a picture of an image may be composed of a plurality of slices, and the slice may be divided into a plurality of coding tree units (CTUs) which are basic units for dividing a picture.
또한, 픽쳐는 타일 그룹으로 구성될 수도 있으며, 타일 그룹으로 구성될 경우, 타일 그룹(Tile Group)은 하나 또는 그 이상의 상기 타일(Tile)들로 구성될 수 있다. 이 때, 각 타일들은 상기 CTU들로 분할될 수 있다. 여기서, 타일 그룹관련 부호화 정보는, 타일 그룹 헤더를 통해 시그널링될 수 있다. 복수의 타일 그룹이 존재할 경우에는, 타일 그룹 식별 정보(Tile Group ID)로 구분될 수 있고, 서로 다른 타일 그룹 간에는 부호화 옵션이 선택 적응적으로 적용될 수도 있다.Also, a picture may be configured as a tile group, and when configured as a tile group, a tile group may be configured with one or more tiles. At this time, each tile may be divided into the CTUs. Here, the tile group related encoding information may be signaled through a tile group header. When a plurality of tile groups exist, they may be divided into tile group identification information, and encoding options may be selectively and adaptively applied between different tile groups.
상기 코딩 트리 유닛은 인터 예측(inter prediction) 또는 인트라 예측(intra prediction)이 수행되는 기본 단위인 하나 또는 2 이상의 코딩 유닛(Coding Unit: CU)들로 분할될 수 있다.The coding tree unit may be divided into one or two coding units (CUs), which are basic units on which inter prediction or intra prediction is performed.
코딩 유닛(CU)은 예측이 수행되는 기본 단위인 하나 또는 그 이상의 예측 유닛(Prediction unit: PU)들로 분할될 수 있다.The coding unit (CU) may be divided into one or more prediction units (PUs), which are basic units on which prediction is performed.
이 경우, 부호화 장치(10)는 상기 분할된 코딩 유닛(CU)들 각각에 대해 인터 예측과 인트라 예측 중 어느 하나를 예측 방법으로 결정하나, 각각의 예측 유닛(PU)에 대해 서로 다르게 예측 블록을 생성할 수 있다.In this case, the
한편, 코딩 유닛(CU)은 잔차 블록(residual block)에 대한 변환이 수행되는 기본 단위인 하나 또는 2 이상의 변환 유닛(Transform Unit: TU)들로 분할될 수 있다.Meanwhile, the coding unit CU may be divided into one or two transform units (TUs), which are basic units for transforming a residual block.
이 경우, 픽쳐 분할부(110)는 상기와 같이 분할된 블록 단위(예를 들어, 예측 유닛(PU) 또는 변환 유닛(TU))로 영상 데이터를 감산부(190)에 전달할 수 있다.In this case, the
도 2를 참조하면, 최대 256x256 픽셀 크기를 가지는 코딩 트리 유닛(CTU)는 쿼드 트리(quad tree) 구조로 분할되어, 정사각형의 형태를 가지는 4개의 코딩 유닛(CU)들로 분할될 수 있다.Referring to FIG. 2, a coding tree unit (CTU) having a maximum size of 256 × 256 pixels may be divided into a quad tree structure and divided into four coding units (CUs) having a square shape.
상기 정사각형의 형태를 가지는 4개의 코딩 유닛(CU)들은 각각 쿼드 트리 구조로 재 분할될 수 있으며, 상기와 같이 쿼드 트리 구조로 분할되는 코딩 유닛(CU)의 깊이(Depth)는 0부터 3 중 어느 하나의 정수 값을 가질 수 있다.The four coding units (CUs) having the square shape may be re-divided into quad tree structures, respectively, and the depth of the coding units CU divided into quad tree structures as described above may be any one of 0 to 3. It can have one integer value.
코딩 유닛(CU)은 예측 모드에 따라 하나 또는 2 이상의 예측 유닛(PU)들로 분할될 수 있다.The coding unit CU may be divided into one or two or more prediction units (PUs) according to the prediction mode.
인트라 예측 모드의 경우, 코딩 유닛(CU)의 크기가 2Nx2N 일 때, 예측 유닛(PU)은 도 3의 (a)에 도시된 2Nx2N 또는 도 3의 (b)에 도시된 NxN의 크기를 가질 수 있다.In the case of the intra prediction mode, when the size of the coding unit CU is 2Nx2N, the prediction unit PU may have a size of 2Nx2N shown in FIG. 3A or NxN shown in FIG. 3B. have.
한편, 인터 예측 모드의 경우, 코딩 유닛(CU)의 크기가 2Nx2N 일 때, 예측 유닛(PU)은 도 4의 (a)에 도시된 2Nx2N, 도 4의 (b)에 도시된 2NxN, 도 4의 (c)에 도시된 Nx2N, 도 4의 (d)에 도시된 NxN, 도 4의 (e)에 도시된 2NxnU, 도 4의 (f)에 도시된 2NxnD, 도 4의 (g)에 도시된 nLx2N 및 도 4의 (h)에 도시된 nRx2N 중 어느 하나의 크기를 가질 수 있다.Meanwhile, in the inter prediction mode, when the size of the coding unit CU is 2Nx2N, the prediction unit PU is 2Nx2N shown in FIG. 4A, 2NxN shown in FIG. 4B, and FIG. 4. Nx2N shown in (c) of FIG. 4, NxN shown in (d) of FIG. 4, 2NxnU shown in (e) of FIG. 4, 2NxnD shown in (f) of FIG. 4, shown in (g) of FIG. It may have a size of any one of nLx2N and nRx2N shown in (h) of FIG.
도 5를 참조하면, 코딩 유닛(CU)는 쿼드 트리(quad tree) 구조로 분할되어, 정사각형의 형태를 가지는 4개의 변환 유닛(TU)들로 분할될 수 있다.Referring to FIG. 5, the coding unit CU may be divided into a quad tree structure and divided into four transform units TUs having a square shape.
상기 정사각형의 형태를 가지는 4개의 변환 유닛(TU)들은 각각 쿼드 트리 구조로 재 분할될 수 있으며, 상기와 같이 쿼드 트리 구조로 분할되는 변환 유닛(TU)의 깊이(Depth)는 0부터 3 중 어느 하나의 정수 값을 가질 수 있다.The four transform units (TUs) having a square shape may be re-divided into quad tree structures, and the depth of the transform units (TUs) divided into quad tree structures as described above may be any one of 0 to 3. It can have one integer value.
여기서, 코딩 유닛(CU)이 인터 예측 모드인 경우, 해당 코딩 유닛(CU)으로부터 분할된 예측 유닛(PU)와 변환 유닛(TU)은 서로 독립적인 분할 구조를 가질 수 있다.Here, when the coding unit CU is in the inter prediction mode, the prediction unit PU and the transform unit TU split from the coding unit CU may have a partition structure that is independent of each other.
코딩 유닛(CU)이 인트라 예측 모드인 경우, 해당 코딩 유닛(CU)으로부터 분할된 변환 유닛(TU)은 예측 유닛(PU)의 크기보다 클 수 없다.When the coding unit CU is in the intra prediction mode, the transform unit TU split from the coding unit CU cannot be larger than the size of the prediction unit PU.
또한, 상기와 같이 분할되는 변환 유닛(TU)은 최대 64x64 픽셀 크기를 가질 수 있다.In addition, the transform unit TU divided as described above may have a maximum size of 64x64 pixels.
변환부(120)는 입력된 예측 유닛(PU)의 원본 블록과 인트라 예측부(150) 또는 인터 예측부(160)에서 생성된 예측 블록 사이의 잔차 신호인 잔차 블록을 변환하며, 상기 변환은 변환 유닛(TU)을 기본 단위로 하여 수행될 수 있다.The
상기 변환 과정에서 예측 모드(intra or inter)에 따라 서로 다른 변환 매트릭스가 결정될 수 있으며, 인트라 예측의 잔차 신호는 인트라 예측 모드에 따라 방향성을 가지므로 인트라 예측 모드에 따라 적응적으로 변환 매트릭스가 결정될 수 있다.In the transformation process, different transform matrices may be determined according to a prediction mode (intra or inter), and since the residual signal of intra prediction has a direction according to the intra prediction mode, the transform matrix may be adaptively determined according to the intra prediction mode. have.
변환 단위는 2개(수평, 수직)의 1차원 변환 매트릭스에 의해 변환될 수 있으며, 예를 들어 인터 예측의 경우에는 미리 결정된 1개의 변환 매트릭스가 결정될 수 있다.The transform unit may be transformed by two (horizontal and vertical) one-dimensional transform matrices. For example, in the case of inter prediction, one predetermined transform matrix may be determined.
한편, 인트라 예측의 경우, 인트라 예측 모드가 수평인 경우에는 잔차 블록이 수직방향으로의 방향성을 가질 확률이 높아지므로, 수직방향으로는 DCT 기반의 정수 매트릭스를 적용하고, 수평방향으로는 DST 기반 또는 KLT 기반의 정수 매트릭스를 적용한다. 인트라 예측 모드가 수직인 경우에는 수직방향으로는 DST 기반 또는 KLT 기반의 정수 매트릭스를, 수평 방향으로는 DCT 기반의 정수 매트릭스를 적용할 수 있다.On the other hand, in the case of intra prediction, when the intra prediction mode is horizontal, the probability of the residual block having the directionality in the vertical direction increases, so a DCT-based integer matrix is applied in the vertical direction, and DST-based or in the horizontal direction. Apply KLT-based integer matrix. When the intra prediction mode is vertical, an integer matrix based on DST or KLT may be applied in the vertical direction and a DCT based integer matrix in the horizontal direction.
또한, DC 모드의 경우에는 양방향 모두 DCT 기반 정수 매트릭스를 적용할 수 있다.In addition, in the DC mode, a DCT based integer matrix may be applied in both directions.
그리고, 인트라 예측의 경우, 변환 유닛(TU)의 크기에 기초하여 변환 매트릭스가 적응적으로 결정될 수도 있다.In the case of intra prediction, a transform matrix may be adaptively determined based on the size of a transform unit (TU).
양자화부(130)는 상기 변환 매트릭스에 의해 변환된 잔차 블록의 계수들을 양자화하기 위한 양자화 스텝 사이즈를 결정하며, 양자화 스텝 사이즈는 미리 정해진 크기 이상의 양자화 유닛별로 결정될 수 있다.The
양자화 유닛의 크기는 8x8 또는 16x16일 수 있으며, 양자화부(130)는 양자화 스텝 사이즈 및 예측 모드에 따라 결정되는 양자화 매트릭스를 이용하여 변환 블록의 계수들을 양자화한다.The size of the quantization unit may be 8x8 or 16x16, and the
또한, 양자화부(130)는 현재 양자화 유닛의 양자화 스텝 사이즈 예측자로서 현재 양자화 유닛에 인접한 양자화 유닛의 양자화 스텝 사이즈를 이용할 수 있다.In addition, the
양자화부(130)는 현재 양자화 유닛의 좌측 양자화 유닛, 상측 양자화 유닛, 좌상측 양자화 유닛 순서로 검색하여 1개 또는 2개의 유효한 양자화 스텝 사이즈를 이용하여 현재 양자화 유닛의 양자화 스텝 사이즈 예측자를 생성할 수 있다.The
예를 들어, 양자화부(130)는 상기 순서로 검색된 유효한 첫번째 양자화 스텝 사이즈를 양자화 스텝 사이즈 예측자로 결정하거나, 상기 순서로 검색된 유효한 2개의 양자화 스텝 사이즈의 평균값을 양자화 스텝 사이즈 예측자로 결정하거나, 또는 1개의 양자화 스텝 사이즈만이 유효한 경우에는 이를 양자화 스텝 사이즈 예측자로 결정할 수 있다.For example, the
상기 양자화 스텝 사이즈 예측자가 결정되면, 양자화부(130)는 현재 양자화 유닛의 양자화 스텝 사이즈와 양자화 스텝 사이즈 예측자 사이의 차분값을 엔트로피 부호화부(140)로 전송한다.When the quantization step size predictor is determined, the
한편, 현재 코딩 유닛의 좌측 코딩 유닛, 상측 코딩 유닛, 좌상측 코딩 유닛 모두가 존재하지 않거나. 또는 최대 코딩 유닛 내의 부호화 순서 상으로 이전에 존재하는 코딩 유닛이 존재할 수 있다.On the other hand, the left coding unit, the upper coding unit, the upper left coding unit of the current coding unit does not all exist. Or there may be a coding unit previously present in the coding order within the largest coding unit.
따라서, 현재 코딩 유닛에 인접한 양자화 유닛들과 상기 최대 코딩 유닛 내에서는 부호화 순서상 바로 이전의 양자화 유닛의 양자화 스텝 사이즈가 후보자가 될 수 있다.Accordingly, candidates may be quantization step sizes of the quantization units adjacent to the current coding unit and the quantization unit immediately before the coding order within the maximum coding unit.
이 경우, 1) 현재 코딩 유닛의 좌측 양자화 유닛, 2) 현재 코딩 유닛의 상측 양자화 유닛, 3) 현재 코딩 유닛의 좌상측 양자화 유닛, 4) 부호화 순서상 바로 이전의 양자화 유닛 순서로 우선순위가 설정될 수 있다. 상기 순서는 바뀔 수 있고, 상기 좌상측 양자화 유닛은 생략될 수도 있다.In this case, priority is set in the order of 1) the left quantization unit of the current coding unit, 2) the upper quantization unit of the current coding unit, 3) the upper left quantization unit of the current coding unit, and 4) the quantization unit immediately preceding the coding order. Can be. The order may be reversed and the upper left quantization unit may be omitted.
한편, 상기와 같이 양자화된 변환 블록은 역양자화부(135)와 스캐닝부(131)로 전달된다.Meanwhile, the transform block quantized as described above is transferred to the
스캐닝부(131)는 양자화된 변환 블록의 계수들을 스캐닝하여 1차원의 양자화 계수들로 변환하며, 이 경우 양자화 후의 변환 블록의 계수 분포가 인트라 예측 모드에 의존적일 수 있으므로 스캐닝 방식은 인트라 예측 모드에 따라 결정될 수 있다.The
또한, 계수 스캐닝 방식은 변환 단위의 크기에 따라 달리 결정될 수도 있고, 상기 스캔 패턴은 방향성 인트라 예측 모드에 따라 달라질 수 있으며, 이 경우 양자화 계수들의 스캔 순서는 역방향으로 스캔될 수 있다.Further, the coefficient scanning scheme may be determined differently according to the size of the transform unit, and the scan pattern may vary according to the directional intra prediction mode, in which case the scanning order of the quantization coefficients may be scanned in the reverse direction.
상기 양자화된 계수들이 복수의 서브셋(sub-set)들로 분할된 경우, 각각의 서브셋 내의 양자화 계수들에 동일한 스캔 패턴이 적용될 수 있으며, 서브셋 간의 스캔 패턴은 지그재그 스캔 또는 대각선 스캔이 적용될 수 있다.When the quantized coefficients are divided into a plurality of subsets, the same scan pattern may be applied to the quantization coefficients in each subset, and a zigzag scan or a diagonal scan may be applied to the scan patterns between the subsets.
한편, 상기 스캔 패턴은 DC를 포함하는 메인 서브셋으로부터 순방향으로 잔여 서브셋들로 스캔하는 것이 바람직하나, 그 역방향도 가능하다.Meanwhile, the scan pattern is preferably scanned in the forward direction from the main subset including DC to the remaining subsets, but the reverse direction is also possible.
또한, 서브셋 내의 양자화된 계수들의 스캔 패턴과 동일하게 서브셋 간의 스캔 패턴을 설정할 수도 있으며, 서브셋 간의 스캔 패턴은 인트라 예측 모드에 따라 결정될 수 있다.In addition, a scan pattern between subsets may be set to be identical to a scan pattern of quantized coefficients in a subset, and the scan pattern between subsets may be determined according to an intra prediction mode.
한편, 부호화 장치(10)는 상기 변환 유닛(PU) 내에서 0이 아닌 마지막 양자화 계수의 위치 및 각 서브셋 내의 0이 아닌 마지막 양자화 계수의 위치를 나타낼 수 있는 정보를 비트스트림에 포함시켜 복호화 장치(20)로 전송할 수 있다.Meanwhile, the
역양자화부(135)는 상기와 같이 양자화된 양자화 계수를 역양자화하며, 역변환부(125)는 변환 유닛(TU) 단위로 역변환을 수행하여 상기 역양자화된 변환 계수를 공간 영역의 잔차 블록으로 복원할 수 있다.The
가산기(195)는 상기 역변환부(125)에 의해 복원된 잔차 블록과 인트라 예측부(150) 또는 인터 예측부(160)로부터의 수신된 예측 블록을 합하여 복원 블록을 생성할 수 있다.The
또한, 후처리부(170)는 복원된 픽쳐에 발생하는 블록킹 효과의 제거하기 위한 디블록킹(deblocking) 필터링 과정, 화소 단위로 원본 영상과의 차이 값을 보완하기 위한 샘플 적응적 오프셋(Sample Adaptive Offset : SAO) 적용 과정 및 코딩 유닛으로 원본 영상과의 차이 값을 보완하기 위한 적응적 루프 필터링(Adaptive Loof Filtering : ALF) 과정을 수행할 수 있다.In addition, the
디블록킹 필터링 과정은 미리 정해진 크기 이상의 크기를 갖는 예측 유닛(PU) 또는 변환 유닛(TU)의 경계에 적용될 수 있다.The deblocking filtering process may be applied to the boundary of the prediction unit (PU) or transform unit (TU) having a size of a predetermined size or more.
예를 들어, 디블록킹 필터링 과정은, 필터링할 경계(boundary)를 결정하는 단계, 상기 경계에 적용할 경계 필터링 강도(bounary filtering strength)를 결정하는 단계, 디블록킹 필터의 적용 여부를 결정하는 단계, 상기 디블록킹 필터를 적용할 것으로 결정된 경우, 상기 경계에 적용할 필터를 선택하는 단계를 포함할 수 있다.For example, the deblocking filtering process may include determining a boundary to filter, determining a boundary filtering strength to be applied to the boundary, determining whether to apply a deblocking filter, If it is determined to apply the deblocking filter, the method may include selecting a filter to be applied to the boundary.
한편, 상기 디블록킹 필터의 적용 여부는 i) 상기 경계 필터링 강도가 0보다 큰지 여부 및 ii) 상기 필터링할 경계에 인접한 2개의 블록(P 블록, Q블록) 경계 부분에서의 화소값들이 변화 정도를 나타내는 값이 양자화 파라미터에 의해 결정되는 제1 기준값보다 작은지 여부에 의해 결정될 수 있다.On the other hand, whether the deblocking filter is applied depends on whether i) the boundary filtering intensity is greater than 0 and ii) the degree of change of pixel values at the boundary portions of two blocks (P block, Q block) adjacent to the boundary to be filtered. The value represented may be determined by whether the value is smaller than the first reference value determined by the quantization parameter.
상기 필터는 적어도 2개 이상인 것이 바람직하다. 블록 경계에 위치한 2개의 화소들간의 차이값의 절대값이 제2 기준값보다 크거나 같은 경우에는 상대적으로 약한 필터링을 수행하는 필터를 선택한다.It is preferable that the said filter is at least 2 or more. When the absolute value of the difference between two pixels positioned at the block boundary is greater than or equal to the second reference value, a filter that performs relatively weak filtering is selected.
상기 제2 기준값은 상기 양자화 파라미터 및 상기 경계 필터링 강도에 의해 결정된다.The second reference value is determined by the quantization parameter and the boundary filtering intensity.
또한, 샘플 적응적 오프셋(SAO) 적용 과정은 디블록킹 필터가 적용된 영상 내의 화소와 원본 화소 간의 차이값(distortion)을 감소시키기 위한 것으로, 픽쳐 또는 슬라이스 단위로 샘플 적응적 오프셋(SAO) 적용 과정을 수행할지 여부가 결정될 수 있다.In addition, the sample adaptive offset (SAO) application process is to reduce the distortion (distortion) between the pixel and the original pixel in the image to which the deblocking filter is applied, the sample adaptive offset (SAO) application process in the unit of picture or slice. Whether to perform may be determined.
픽쳐 또는 슬라이스는 복수의 오프셋 영역들로 분할될 수 있고, 각 오프셋 영역별로 오프셋 타입이 결정될 수 있으며, 상기 오프셋 타입은 미리 정해진 개수(예를 들어, 4개)의 에지 오프셋 타입과 2개의 밴드 오프셋 타입을 포함할 수 있다.The picture or slice may be divided into a plurality of offset regions, and an offset type may be determined for each offset region, and the offset type may be a predetermined number of edge offset types (eg, four) and two band offsets. It can include a type.
예를 들어, 오프셋 타입이 에지 오프셋 타입일 경우, 각 화소가 속하는 에지 타입을 결정하여 이에 대응하는 오프셋을 적용하며, 상기 에지 타입은 현재 화소와 인접하는 2개의 화소값의 분포를 기준으로 결정될 수 있다.For example, when the offset type is an edge offset type, an edge type to which each pixel belongs is determined and an offset corresponding thereto is applied, and the edge type may be determined based on a distribution of two pixel values adjacent to the current pixel. have.
적응적 루프 필터링(ALF) 과정은 디블록킹 필터링 과정 또는 적응적 오프셋 적용 과정을 거친 복원된 영상과 원본 영상을 비교한 값을 기초로 필터링을 수행할 수 있다.The adaptive loop filtering (ALF) process may perform filtering based on a value obtained by comparing a reconstructed image and an original image that have undergone a deblocking filtering process or an adaptive offset application process.
픽쳐 저장부(180)는 후처리된 영상 데이터를 후처리부(170)로부터 입력받아 픽쳐(picture) 단위로 영상을 복원하여 저장하며, 픽쳐는 프레임 단위의 영상이거나 필드 단위의 영상일 수 있다.The
인터 예측부(160)는 픽쳐 저장부(180)에 저장된 적어도 하나 이상의 참조 픽쳐를 이용하여 움직임 추정을 수행하고, 참조 픽쳐를 나타내는 참조 픽쳐 인덱스 및 움직임 벡터를 결정할 수 있다.The
이 경우, 결정된 참조 픽쳐 인덱스 및 움직임 벡터에 따라, 픽쳐 저장부(180)에 저장된 다수의 참조 픽쳐들 중 움직임 추정에 이용된 참조 픽쳐로부터, 부호화하고자 하는 예측 유닛에 대응하는 예측 블록이 추출될 수 있다.In this case, a prediction block corresponding to a prediction unit to be encoded may be extracted from a reference picture used for motion estimation among a plurality of reference pictures stored in the
인트라 예측부(150)는 현재 예측 유닛이 포함되는 픽처 내부의 재구성된 화소값을 이용하여 인트라 예측 부호화를 수행할 수 있다.The
인트라 예측부(150)는 예측 부호화할 현재 예측 유닛을 입력받아 현재 블록의 크기에 따라 미리 설정된 개수의 인트라 예측 모드 중에 하나를 선택하여 인트라 예측을 수행할 수 있다.The
인트라 예측부(150)는 인트라 예측 블록을 생성하기 위해 참조 화소를 적응적으로 필터링하며, 참조 화소가 이용 가능하지 않은 경우 이용 가능한 참조 화소들을 이용하여 참조 화소들을 생성할 수 있다.The
그리고, 엔트로피 부호화부(140)는 양자화부(130)에 의해 양자화된 양자화 계수, 인트라 예측부(150)로부터 수신된 인트라 예측 정보, 인터 예측부(160)로부터 수신된 움직임 정보 등을 엔트로피 부호화할 수 있다.The
도 6은 부호화 장치(10)에서 인터 예측을 수행하는 구성에 대한 일실시예를 블록도로 도시한 것으로, 도시된 인터 예측 부호화기는 움직임 정보 결정부(161), 움직임 정보 부호화 모드 결정부(162), 움직임 정보 부호화부(163), 예측 블록 생성부(164), 잔차 블록 생성부(165), 잔차 블록 부호화부(166) 및 멀티플렉서(167)를 포함하여 구성될 수 있다.FIG. 6 is a block diagram illustrating an example of a configuration for performing inter prediction in the
도 6을 참조하면, 움직임 정보 결정부(161)는 현재 블록의 움직임 정보를 결정하며, 움직임 정보는 참조 픽쳐 인덱스와 움직임 벡터를 포함하고, 참조 픽쳐 인덱스는 이전에 부호화되어 복원된 픽쳐 중 어느 하나를 나타낼 수 있다.Referring to FIG. 6, the
현재 블록이 단방향 인터 예측 부호화되는 경우에는 리스트 0(L0)에 속하는 참조 픽쳐들 중의 어느 하나를 나타내며, 현재 블록이 양방향 예측 부호화되는 경우에는 리스트 0(L0)의 참조 픽쳐들 중 하나를 나타내는 참조 픽쳐 인덱스와 리스트 1(L1)의 참조 픽쳐들 중의 하나를 나타내는 참조 픽쳐 인덱스를 포함할 수 있다.When the current block is unidirectional inter prediction coded, it represents one of the reference pictures belonging to list 0 (L0), and when the current block is bidirectional predictively coded, it is a reference picture indicating one of the reference pictures of list 0 (L0). It may include an index and a reference picture index indicating one of the reference pictures of the list 1 (L1).
또한, 현재 블록이 양방향 예측 부호화되는 경우에는 리스트 0과 리스트 1을 결합하여 생성된 복합 리스트(LC)의 참조 픽쳐들 중의 1개 또는 2개의 픽쳐를 나타내는 인덱스를 포함할 수 있다.In addition, when the current block is bidirectional predictively coded, the current block may include an index indicating one or two pictures of reference pictures of the composite list LC generated by combining the
움직임 벡터는 각각의 참조픽쳐 인덱스가 나타내는 픽쳐 내의 예측 블록의 위치를 나타내며, 상기 움직임 벡터는 화소 단위(정수 단위) 또는 서브 화소 단위일 수 있다.The motion vector indicates a position of a prediction block in a picture indicated by each reference picture index, and the motion vector may be in pixel units (integer units) or sub pixel units.
예를 들어, 상기 움직임 벡터는 1/2, 1/4, 1/8 또는 1/16 화소의 해상도를 가질 수 있으며, 움직임 벡터가 정수단위가 아닐 경우 예측 블록은 정수 단위의 화소들로부터 생성될 수 있다.For example, the motion vector may have a resolution of 1/2, 1/4, 1/8 or 1/16 pixels, and if the motion vector is not an integer unit, the prediction block may be generated from pixels of an integer unit. Can be.
움직임 정보 부호화 모드 결정부(162)는 현재 블록의 움직임 정보에 대한 부호화 모드를 스킵 모드, 머지 모드 및 AMVP 모드 중 어느 하나로 결정할 수 있다.The motion information encoding
스킵 모드는 현재 블록의 움직임 정보와 동일한 움직임 정보를 갖는 스킵 후보자가 존재하고, 잔차 신호가 0인 경우에 적용되며, 상기 스킵 모드는 예측 유닛(PU)인 현재 블록이 코딩 유닛(CU)과 크기가 같을 때 적용될 수 있다.The skip mode is applied when there are skip candidates having the same motion information as the motion information of the current block and the residual signal is 0. The skip mode is that the current block, which is the prediction unit PU, has a size equal to that of the coding unit CU. Can be applied when
머지 모드는 현재 블록의 움직임 정보와 동일한 움직임 정보를 갖는 머지 후보자가 존재할 때 적용되며, 상기 머지 모드는 현재 블록이 코딩 유닛(CU)과 크기가 다르거나, 크기가 같을 경우에는 잔차 신호가 존재하는 경우에 적용된다. 한편, 머지 후보자와 스킵 후보자는 동일할 수 있다.The merge mode is applied when there is a merge candidate having the same motion information as the motion information of the current block, and the merge mode includes a residual signal when the current block has a different size or the same size as the coding unit CU. Applies in the case. Meanwhile, the merge candidate and the skip candidate may be the same.
AMVP 모드는 스킵 모드 및 머지 모드가 적용되지 않을 때 적용되며, 현재 블록의 움직임 벡터와 가장 유사한 움직임 벡터를 갖는 AMVP 후보자를 AMVP 예측자로 선택할 수 있다.The AMVP mode is applied when the skip mode and the merge mode are not applied, and an AMVP candidate having a motion vector most similar to the motion vector of the current block may be selected as an AMVP predictor.
움직임 정보 부호화부(163)는 움직임 정보 부호화 모드 결정부(162)에 의해 결정된 방식에 따라 움직임 정보를 부호화할 수 있다.The
예를 들어, 움직임 정보 부호화부(163)는 움직임 정보 부호화 모드가 스킵 모드 또는 머지 모드일 경우에는 머지 움직임 벡터 부호화 과정을 수행하며, AMVP 모드일 경우에는 AMVP 부호화 과정을 수행할 수 있다.For example, the
예측 블록 생성부(164)는 현재 블록의 움직임 정보를 이용하여 예측 블록을 생성하며, 움직임 벡터가 정수 단위일 경우 참조 픽쳐 인덱스가 나타내는 픽쳐 내의 움직임 벡터가 나타내는 위치에 대응하는 블록을 복사하여 현재 블록의 예측 블록을 생성한다.The
한편, 움직임 벡터가 정수 단위가 아닌 경우, 예측 블록 생성부(164)는 참조 픽쳐 인덱스가 나타내는 픽쳐 내의 정수 단위 화소들로부터 예측 블록의 화소들을 생성할 수 있다.Meanwhile, when the motion vector is not an integer unit, the
이 경우, 휘도 화소에 대해 8탭의 보간 필터를 사용하여 예측 화소가 생성되며, 색차 화소에 대해서는 4탭 보간 필터를 사용하여 예측 화소가 생성될 수 있다.In this case, the prediction pixel may be generated using an 8-tap interpolation filter for the luminance pixel, and the prediction pixel may be generated using a 4-tap interpolation filter for the chrominance pixel.
잔차 블록 생성부(165)는 현재 블록과 현재 블록의 예측 블록을 이용하여 잔차 블록을 생성하며, 현재 블록의 크기가 2Nx2N인 경우 현재 블록과 현재 블록에 대응하는 2Nx2N 크기의 예측 블록을 이용하여 잔차 블록을 생성할 수 있다.The
한편, 예측에 이용되는 현재 블록의 크기가 2NxN 또는 Nx2N인 경우, 2Nx2N을 구성하는 2개의 2NxN 블록 각각에 대한 예측 블록을 구한 후, 상기 2개의 2NxN 예측 블록을 이용하여 2Nx2N 크기의 최종 예측 블록이 생성될 수 있다.On the other hand, when the size of the current block used for prediction is 2NxN or Nx2N, after obtaining the prediction block for each of the two 2NxN blocks constituting the 2Nx2N, the last prediction block having a size of 2Nx2N using the two 2NxN prediction block is Can be generated.
또한, 상기 2Nx2N 크기의 예측 블록을 이용하여 2Nx2N 크기의 잔차 블록이 생성될 수도 있으며, 2NxN 크기를 가지는 2개의 예측 블록들의 경계 부분의 불연속성을 해소하기 위해 경계 부분의 픽셀들에 대해 오버랩 스무딩이 적용될 수 있다.In addition, a 2Nx2N sized residual block may be generated using the 2Nx2N sized prediction block, and overlap smoothing is applied to the pixels of the boundary part to eliminate discontinuity of the boundary parts of two prediction blocks having 2NxN size. Can be.
잔차 블록 부호화부(166)는 상기 잔차 블록을 하나 이상의 변환 유닛(TU)들로 분할하여, 각각의 변환 유닛(TU)이 변환 부호화, 양자화 및 엔트로피 부호화될 수 있다.The
잔차 블록 부호화부(166)는 인터 예측 방법에 의해 생성된 잔차 블록을 정수기반 변환 매트릭스를 이용하여 변환할 수 있으며, 상기 변환 매트릭스는 정수기반 DCT 매트릭스일 수 있다.The
한편, 잔차 블록 부호화부(166)는 변환 매트릭스에 의해 변환된 잔차 블록의 계수들을 양자화하기 위해 양자화 매트릭스를 이용하며, 상기 양자화 매트릭스는 양자화 파라미터에 의해 결정될 수 있다.Meanwhile, the
상기 양자화 파라미터는 미리 정해진 크기 이상의 코딩 유닛(CU) 별로 결정되며, 현재 코딩 유닛(CU)이 상기 미리 정해진 크기보다 작은 경우 상기 미리 정해진 크기 내의 코딩 유닛(CU)들 중 부호화 순서상 첫번째 코딩 유닛(CU)의 양자화 파라미터만을 부호화하고 나머지 코딩 유닛(CU)의 양자화 파라미터는 상기 파라미터와 동일하므로 부호화하지 않을 수 있다.The quantization parameter is determined for each coding unit CU having a predetermined size or more, and when the current coding unit CU is smaller than the predetermined size, the first coding unit in the coding order among the coding units CU within the predetermined size ( Since only the quantization parameter of the CU) is encoded and the quantization parameter of the remaining coding unit CU is the same as the above parameter, it may not be encoded.
또한, 상기 양자화 파라미터 및 예측 모드에 따라 결정되는 양자화 매트릭스를 이용하여 상기 변환 블록의 계수들이 양자화될 수 있다.In addition, coefficients of the transform block may be quantized using a quantization matrix determined according to the quantization parameter and the prediction mode.
상기 미리 정해진 크기 이상의 코딩 유닛(CU) 별로 결정되는 양자화 파라미터는 현재 코딩 유닛(CU)에 인접한 코딩 유닛(CU)의 양자화 파라미터를 이용하여 예측 부호화될 수 있다.The quantization parameter determined for each coding unit CU having a predetermined size or more may be predictively encoded using the quantization parameter of the coding unit CU adjacent to the current coding unit CU.
현재 코딩 유닛(CU)의 좌측 코딩 유닛(CU), 상측 코딩 유닛(CU) 순서로 검색하여 유효한 1개 또는 2개의 유효한 양자화 파라미터를 이용하여 현재 코딩 유닛(CU)의 양자화 파라미터 예측자를 생성할 수 있다.A quantization parameter predictor of the current coding unit CU may be generated by searching in the order of the left coding unit CU and the upper coding unit CU of the current coding unit CU using one or two valid quantization parameters. have.
예를 들어, 상기 순서로 검색된 유효한 첫번째 양자화 파라미터를 양자화 파라미터 예측자로 결정할 수 있으며, 또한 좌측 코딩 유닛(CU), 부호화 순서상 바로 이전의 코딩 유닛(CU) 순으로 검색하여 유효한 첫번째 양자화 파라미터를 양자화 파라미터 예측자로 결정할 수 있다.For example, the first valid quantization parameter found in the above order may be determined as a quantization parameter predictor, and the left first coding unit (CU) is searched in order of the coding unit immediately before the coding order to quantize the first valid quantization parameter. Can be determined by the parameter predictor.
양자화된 변환 블록의 계수들은 스캐닝되어 1차원의 양자화 계수들로 변환되며, 스캐닝 방식은 엔트로피 부호화 모드에 따라 다르게 설정될 수 있다.The coefficients of the quantized transform block are scanned and converted into one-dimensional quantization coefficients, and the scanning scheme may be set differently according to the entropy encoding mode.
예를 들어, CABAC으로 부호화될 경우 인터 예측 부호화된 양자화 계수들은 미리 정해진 하나의 방식(지그재그, 또는 대각선 방향으로의 래스터 스캔)으로 스캐닝될 수 있으며, CAVLC으로 부호화될 경우 상기 방식과 다른 방식으로 스캐닝될 수 있다.For example, inter prediction coded quantization coefficients may be scanned in one predetermined manner (zigzag or diagonal raster scan) when encoded by CABAC, and may be scanned differently from the above method when encoded by CAVLC. Can be.
예를 들어, 스캐닝 방식이 인터의 경우에는 지그재그, 인트라의 경우에는 인트라 예측 모드에 따라 결정될 수 있으며, 계수 스캐닝 방식은 변환 단위의 크기에 따라 상이하게 결정될 수도 있다.For example, the scanning method may be determined according to zigzag in case of inter, the intra prediction mode in case of intra, and the coefficient scanning method may be determined differently according to the size of a transform unit.
한편, 상기 스캔 패턴은 방향성 인트라 예측 모드에 따라 달라질 수 있으며, 양자화 계수들의 스캔 순서는 역방향으로 스캔될 수 있다.Meanwhile, the scan pattern may vary according to the directional intra prediction mode, and the scanning order of the quantization coefficients may be scanned in the reverse direction.
멀티플렉서(167)는 상기 움직임 정보 부호화부(163)에 의해 부호화된 움직임 정보들과 상기 잔차 블록 부호화부(166)에 의해 부호화된 잔차 신호들을 다중한다.The
상기 움직임 정보는 부호화 모드에 따라 달라질 수 있으며, 예를 들어 스킵 또는 머지일 경우에는 예측자를 나타내는 인덱스만을 포함하고, AMVP일 경우 현재 블록의 참조 픽쳐 인덱스, 차분 움직임 벡터 및 AMVP 인덱스를 포함할 수 있다.The motion information may vary according to an encoding mode. For example, in case of skip or merge, the motion information may include only an index indicating a predictor, and in the case of AMVP, the motion information may include a reference picture index, a differential motion vector, and an AMVP index of the current block. .
이하, 도 1에 도시된 인트라 예측부(150)의 동작에 대한 일실시예를 상세히 설명하기로 한다.Hereinafter, an embodiment of the operation of the
먼저, 인트라 예측부(150)는 픽쳐 분할부(110)로부터 예측 모드 정보 및 예측 유닛(PU)의 크기를 수신하며, 예측 유닛(PU)의 인트라 예측 모드를 결정하기 위해 참조 화소를 픽쳐 저장부(180)로부터 읽어들일 수 있다.First, the
인트라 예측부(150)는 이용 가능하지 않은 참조 화소가 존재하는지 여부를 검토하여 참조 화소 생성 여부를 판단하며, 상기 참조 화소들은 현재 블록의 인트라 예측 모드를 결정하는데 사용될 수 있다.The
현재 블록이 현재 픽쳐의 상측 경계에 위치하는 경우에는 현재 블록의 상측에 인접한 화소들이 정의되지 않고, 현재 블록이 현재 픽쳐의 좌측 경계에 위치하는 경우에는 현재 블록의 좌측에 인접한 화소들이 정의되지 않으며, 상기 화소들은 이용 가능한 화소들이 아닌 것으로 판단될 수 있다.If the current block is located at the upper boundary of the current picture, pixels adjacent to the upper side of the current block are not defined. If the current block is located at the left boundary of the current picture, pixels adjacent to the left of the current block are not defined. It may be determined that the pixels are not available pixels.
또한, 현재 블록이 슬라이스 경계에 위치하여 슬라이스의 상측 또는 좌측에 인접하는 화소들이 먼저 부호화되어 복원되는 화소들이 아닌 경우에도 이용 가능한 화소들이 아닌 것으로 판단될 수 있다.In addition, even when the current block is located at the slice boundary and pixels adjacent to the upper or left side of the slice are not pixels that are first encoded and reconstructed, it may be determined that the pixels are not usable pixels.
상기와 같이 현재 블록의 좌측 또는 상측에 인접한 화소들이 존재하지 않거나, 미리 부호화되어 복원된 화소들이 존재하지 않는 경우, 이용 가능한 화소들만을 이용하여 현재 블록의 인트라 예측 모드가 결정될 수도 있다.As described above, when there are no pixels adjacent to the left side or the upper side of the current block or there are no pre-coded and reconstructed pixels, the intra prediction mode of the current block may be determined using only the available pixels.
한편, 현재 블록의 이용 가능한 참조 화소들을 이용하여 이용 가능하지 않은 위치의 참조 화소가 생성될 수도 있으며, 예를 들어 상측 블록의 화소들이 이용 가능하지 않은 경우 좌측 화소들의 일부 또는 전부를 이용하여 상측 화소들을 생성할 수 있고, 그 역으로도 가능하다.Meanwhile, reference pixels at positions that are not available may be generated using the available reference pixels of the current block. For example, when the pixels of the upper block are not available, the upper pixels may be used using some or all of the left pixels. Can be generated and vice versa.
즉, 이용 가능하지 않은 위치의 참조 화소로부터 미리 정해진 방향으로 가장 가까운 위치의 이용 가능한 참조 화소를 복사하여 참조 화소가 생성되거나, 미리 정해진 방향에 이용 가능한 참조 화소가 존재하지 않는 경우 반대 방향의 가장 가까운 위치의 이용 가능한 참조 화소를 복사하여 참조 화소가 생성될 수 있다.That is, the reference pixel is generated by copying the available reference pixel at the position closest to the predetermined direction from the reference pixel at the position not available, or when the reference pixel is not available in the predetermined direction, the closest in the opposite direction. The reference pixel can be generated by copying the available reference pixel at the location.
한편, 현재 블록의 상측 또는 좌측 화소들이 존재하는 경우에도 상기 화소들이 속하는 블록의 부호화 모드에 따라 이용 가능하지 않은 참조 화소로 결정될 수 있다.Meanwhile, even when the upper or left pixels of the current block exist, it may be determined as a reference pixel that is not available according to the encoding mode of the block to which the pixels belong.
예를 들어, 현재 블록의 상측에 인접한 참조 화소가 속하는 블록이 인터 부호화되어 복원된 블록일 경우, 상기 화소들을 이용 가능하지 않은 화소들로 판단할 수 있다.For example, when a block to which a reference pixel adjacent to an upper side of the current block belongs is a block that is inter-coded and reconstructed, the pixels may be determined as not available pixels.
이 경우, 현재 블록에 인접한 블록이 인트라 부호화되어 복원된 블록에 속하는 화소들을 이용하여 이용 가능한 참조 화소들이 생성될 수 있으며, 부호화 장치(10)가 부호화 모드에 따라 이용 가능한 참조 화소를 판단한다는 정보를 복호화 장치(20)로 전송한다.In this case, reference pixels usable may be generated using pixels belonging to a block in which a block adjacent to the current block is intra-encoded, and the
인트라 예측부(150)는 상기 참조 화소들을 이용하여 현재 블록의 인트라 예측 모드를 결정하며, 현재 블록에 허용 가능한 인트라 예측 모드의 수는 블록의 크기에 따라 달라질 수 있다.The
예를 들어, 현재 블록의 크기가 8x8, 16x16, 32x32인 경우에는 34개의 인트라 예측 모드가 존재할 수 있고, 현재 블록의 크기가 4x4인 경우에는 17개의 인트라 예측 모드가 존재할 수 있다.For example, if the size of the current block is 8x8, 16x16, 32x32, there may be 34 intra prediction modes. If the size of the current block is 4x4, there may be 17 intra prediction modes.
상기 34개 또는 17개의 인트라 예측 모드는 적어도 하나 이상의 비방향성 모드(비 directional 모드)와 복수개의 방향성 모드들(directional 모드s)로 구성될 수 있다.The 34 or 17 intra prediction modes may be configured of at least one non-directional mode (non-directional mode) and a plurality of directional modes.
하나 이상의 비방향성 모드는 DC 모드 및/또는 플래너(planar) 모드일수 있다. DC 모드 및 플래너모드가 비방향성 모드로 포함되는 경우에는, 현재 블록의 크기에 관계없이 35개의 인트라 예측 모드가 존재할 수도 있다.One or more non-directional modes may be DC mode and / or planar mode. When the DC mode and the planner mode are included in the non-directional mode, there may be 35 intra prediction modes regardless of the size of the current block.
이 경우, 2개의 비방향성 모드(DC 모드 및 플래너 모드)와 33개의 방향성 모드가 포함될 수 있다.In this case, two non-directional modes (DC mode and planner mode) and 33 directional modes may be included.
플래너 모드의 경우, 현재 블록의 우하측(bottom-right)에 위치하는 적어도 하나의 화소값(또는 상기 화소값의 예측값, 이하 제1 참조값이라 함)과 참조 화소들을 이용하여 현재 블록의 예측 블록이 생성된다.In the planner mode, the prediction block of the current block is formed by using at least one pixel value (or a prediction value of the pixel value, hereinafter referred to as a first reference value) and reference pixels positioned at the bottom-right side of the current block. Is generated.
본 발명의 일실시예에 따른 영상 복호화 장치의 구성은 도 1 내지 도 6을 참조하여 설명한 영상 부호화 장치(10)의 구성으로부터 도출될 수 있으며, 예를 들어 도 1 내지 도 6을 참조하여 설명한 바와 같은 영상 부호화 방법의 과정들을 역으로 수행함으로써 영상을 복호화할 수 있다.The configuration of an image decoding apparatus according to an embodiment of the present invention may be derived from the configuration of the
도 7은 본 발명의 일실시예에 따른 동영상 복호화 장치의 구성을 블록도로 도시한 것으로, 복호화 장치(20)는 엔트로피 복호화부(210), 역양자화/역변환부(220), 가산기(270), 디블록킹 필터(250), 픽쳐 저장부(260), 인트라 예측부(230), 움직임 보상 예측부(240) 및 인트라/인터전환 스위치(280)를 구비한다.7 is a block diagram illustrating a configuration of a video decoding apparatus according to an embodiment of the present invention. The
엔트로피 복호화부(210)는, 영상 부호화 장치(10)에서 부호화된 비트 스트림을 입력받아 복호화하여 인트라 예측 모드 인덱스, 움직임 정보, 양자화 계수 시퀀스 등으로 분리하며, 복호화된 움직임 정보를 움직임 보상 예측부(240)로 전달한다.The
또한, 엔트로피 복호화부(210)는 인트라 예측 모드 인덱스를 인트라 예측부(230)와 역양자화/역변환부(220)로 전달하여, 역양자화 계수 시퀀스를 역양자화/역변환부(220)로 전달할 수 있다.In addition, the
역양자화/역변환부(220)는 상기 양자화 계수 시퀀스를 2차원 배열의 역양자화 계수로 변환하며, 상기 변환을 위해 복수의 스캐닝 패턴들 중 하나를 선택할 수 있으며 예를 들어 현재 블록의 예측 모드(즉, 인트라 예측 또는 인터 예측)와 인트라 예측 모드에 기초하여 스캐닝 패턴을 선택할 수 있다.The inverse quantization /
역양자화/역변환부(220)는 2차원 배열의 역양자화 계수에 대해 복수의 양자화 매트릭스들 중에서 선택된 양자화 매트릭스를 적용하여 양자화 계수를 복원한다.The inverse quantization /
한편, 복원하고자 하는 현재 블록의 크기에 따라 서로 다른 양자화 매트릭스가 적용되며, 동일 크기의 블록에 대해서도 상기 현재 블록의 예측 모드 및 인트라 예측 모드 중 적어도 하나에 기초하여 양자화 매트릭스가 선택될 수 있다.Meanwhile, different quantization matrices are applied according to the size of the current block to be reconstructed, and a quantization matrix may be selected based on at least one of the prediction mode and the intra prediction mode of the current block for the same size block.
역양자화/역변환부(220)는 상기 복원된 양자화 계수를 역변환하여 잔차 블록을 복원하며, 상기 역변환 과정은 변환 유닛(TU)을 기본 단위로 하여 수행될 수 있다.The inverse quantization /
가산기(270)는 역양자화/역변환부(220)에 의해 복원된 잔차 블록과 인트라 예측부(230) 또는 움직임 보상 예측부(240)에 의해 생성되는 예측 블록을 합하여 영상 블록을 복원한다.The
디블록킹 필터(250)는 가산기(270)에 의해 생성된 복원 영상에 디블록킹 필터 처리를 수행하여, 양자화 과정에 따른 영상 손실에 기인하는 디블록킹 아티펙트를 감소시킬 수 있다.The
픽쳐 저장부(260)는 디블록킹 필터(250)에 의해 디블록킹 필터 처리가 수행된 로컬 복호 영상을 저장하기 위한 프레임 메모리이다.The
인트라 예측부(230)는 엔트로피 복호화부(210)로부터 수신된 인트라 예측 모드 인덱스에 기초하여 현재 블록의 인트라 예측 모드를 복원하고, 복원된 인트라 예측 모드에 따라 예측 블록을 생성한다.The
움직임 보상 예측부(240)는 움직임 벡터 정보에 기초하여 픽쳐 저장부(260)에 저장된 픽쳐로부터 현재 블록에 대한 예측 블록을 생성하며, 소수 정밀도의 움직임 보상이 적용될 경우 선택된 보간 필터를 적용하여 예측 블록을 생성할 수 있다.The
인트라/인터 전환 스위치(280)는 부호화 모드에 기초하여 인트라 예측부(230)와 움직임 보상 예측부(240)의 어느 하나에서 생성된 예측 블록을 가산기(270)에 제공할 수 있다.The intra / inter switch 280 may provide the
도 8는 영상 복호화 장치(20)에서 인터 예측을 수행하는 구성에 대한 일실시예를 블록도로 도시한 것으로, 인터 예측 복호화기는 디멀티플렉서(241), 움직임 정보 부호화 모드 판단부(242), 머지 모드 움직임 정보 복호화부(243), AMVP 모드 움직임 정보 복호화부(244), 예측블록 생성부(245), 잔차 블록 복호화부(246) 및 복원블록 생성부(247)를 포함한다. 여기서, 머지 모드 움직임 정보 복호화부(243), AMVP 모드 움직임 정보 복호화부(244)는 움직임 정보 복호화부(248)에 포함될 수 있다.FIG. 8 is a block diagram illustrating an example of a configuration of performing inter prediction in the
도 8을 참조하면, 디-멀티플렉서(241)는 수신된 비트스트림으로부터 현재 부호화된 움직임 정보와 부호화된 잔차 신호들을 역다중화하여, 역다중화된 움직임 정보를 움직임 정보 부호화 모드 판단부(242)로 전송하고, 역다중화된 잔차신호를 잔차블록 복호화부(246)로 전송할 수 있다.Referring to FIG. 8, the de-multiplexer 241 demultiplexes the currently encoded motion information and the encoded residual signals from the received bitstream, and transmits the demultiplexed motion information to the motion information encoding
움직임 정보 부호화 모드 판단부(242)는 현재 블록의 움직임 정보 부호화 모드를 판단하며, 수신된 비트스트림의 skip_flag가 1의 값을 갖는 경우 현재 블록의 움직임 정보 부호화 모드가 스킵 부호화 모드로 부호화된 것으로 판단할 수 있다.The motion information encoding
움직임 정보 부호화 모드 판단부(242)는 수신된 비트스트림의 skip_flag가 0의 값을 갖고, 디-멀티블렉서(241)로부터 수신된 움직임 정보가 머지 인덱스만을 갖는 경우, 현재 블록의 움직임 정보 부호화 모드가 머지 모드로 부호화된 것으로 판단할 수 있다.If the skip_flag of the received bitstream has a value of 0 and the motion information received from the de-multiplexer 241 has only a merge index, the motion information encoding
또한, 움직임 정보 부호화 모드 판단부(242)는 수신된 비트스트림의 skip_flag가 0의 값을 갖고, 디멀티블렉서(241)로부터 수신된 움직임 정보가 참조 픽쳐 인덱스와 차분 움직임 벡터와 AMVP인덱스를 갖는 경우, 현재 블록의 움직임 정보 부호화 모드가 AMVP 모드로 부호화된 것으로 판단할 수 있다.In addition, the motion information encoding
머지 모드 움직임 정보 복호화부(243)는 움직임 정보 부호화 모드 판단부(242)가 현재 블록의 움직임 정보 부호화 모드를 스킵 또는 머지 모드로 판단한 경우에 활성화되며, AMVP 모드 움직임 정보 복호화부(244)는 움직임 정보 부호화 모드 판단부(242)가 현재 블록의 움직임 정보 부호화 모드를 AMVP 모드로 판단한 경우에 활성화될 수 있다.The merge mode
예측블록 생성부(245)는 머지 모드 움직임 정보 복호화부(243) 또는 AMVP 모드 움직임 정보 복호화부(244)에 의해 복원된 움직임 정보를 이용하여 현재 블록의 예측 블록을 생성한다.The
움직임 벡터가 정수 단위일 경우, 참조 픽쳐 인덱스가 나타내는 픽쳐 내의 움직임 벡터가 나타내는 위치에 대응하는 블록을 복사하여 현재 블록의 예측 블록이 생성될 수 있다.When the motion vector is an integer unit, the prediction block of the current block may be generated by copying a block corresponding to the position indicated by the motion vector in the picture indicated by the reference picture index.
한편, 움직임 벡터가 정수 단위가 아닐 경우, 참조 픽쳐 인덱스가 나타내는 픽쳐 내의 정수 단위 화소들로부터 예측 블록의 화소들이 생성되며, 이 경우 휘도 화소의 경우에는 8탭의 보간 필터를 사용하고 색차 화소의 경우 4탭 보간 필터를 사용하여 예측 화소가 생성될 수 있다.On the other hand, when the motion vector is not an integer unit, pixels of the prediction block are generated from integer unit pixels in the picture indicated by the reference picture index. In this case, an interpolation filter of 8 taps is used for a luminance pixel and a chrominance pixel is used. Predictive pixels may be generated using a 4-tap interpolation filter.
잔차 블록 복호화부(246)는 잔차 신호를 엔트로피 복호화하고, 엔트로피 복호화된 계수들을 역스캐닝하여 2차원의 양자화된 계수 블록을 생성하며, 역스캐닝 방식은 엔트로피 복호화 방식에 따라 달라질 수 있다.The
예를 들어, CABAC 기반으로 복호화된 경우 대각선 방향의 래스터 역스캔 방식으로, CAVLC 기반으로 복호화된 경우에는 지그재그 역스캔 방식으로 상기 역스캐닝 방식이 적용될 수 있다. 또한, 예측 블록의 크기에 따라 상기 역스캐닝 방식이 상이하게 결정될 수도 있다.For example, when the CABAC-based decoding is performed, the reverse scanning method may be applied in a diagonal raster inverse scan manner and in the case of the CAVLC-based decoding in a zigzag inverse scanning manner. In addition, the inverse scanning scheme may be determined differently according to the size of the prediction block.
잔차블록 복호화부(246)는 상기와 같이 생성된 계수블록을 역양자화 매트릭스를 이용하여 역양자화하며, 상기 양자화 매트릭스를 유도하기 위해 양자화 파리미터를 복원할 수 있다. 여기서, 양자화 스텝 사이즈는 미리 정해진 크기 이상의 코딩 유닛별로 복원될 수 있다.The
잔차블록 복호화부(260)는 상기 역양자화된 계수 블록을 역변환하여 잔차블록을 복원한다.The
복원블록 생성부(270)는 상기 예측블록 생성부(250)에 의해 생성된 예측 블록과 상기 잔차블록 복호화부(260)에 의하여 생성된 잔차 블록을 더하여 복원 블록을 생성한다.The reconstruction
이하, 현재 블록을 인트라 예측을 통해 복원하는 과정에 대한 일실시예를 도 7을 다시 참조하여 설명한다.Hereinafter, an embodiment of a process of reconstructing the current block through intra prediction will be described with reference to FIG. 7 again.
먼저, 수신된 비트스트림으로부터 현재 블록의 인트라 예측 모드가 복호화되며, 그를 위해 엔트로피 복호화부(210)는 복수의 인트라 예측 모드 테이블들 중 하나를 참조하여 현재 블록의 제1 인트라 예측 모드 인덱스를 복원할 수 있다.First, the intra prediction mode of the current block is decoded from the received bitstream, and for this purpose, the
상기 복수의 인트라 예측 모드 테이블들 부호화 장치(10)와 복호화 장치(20)가 공유하는 테이블로서, 현재 블록에 인접한 복수 블록들에 대한 인트라 예측 모드의 분포에 따라 선택된 어느 하나의 테이블이 적용될 수 있다.As the table shared by the plurality of intra prediction mode
예를 들어, 현재 블록의 좌측 블록의 인트라 예측 모드와 현재 블록의 상측 블록의 인트라 예측 모드가 동일하면 제1 인트라 예측 모드 테이블을 적용하여 현재 블록의 제 1 인트라 예측 모드 인덱스를 복원하고, 동일하지 않으면 제2 인트라 예측 모드 테이블을 적용하여 현재 블록의 제 1 인트라 예측 모드 인덱스를 복원할 수 있다.For example, if the intra prediction mode of the left block of the current block and the intra prediction mode of the upper block of the current block are the same, the first intra prediction mode index of the current block is restored by applying the first intra prediction mode table, and not the same. Otherwise, the second intra prediction mode table may be applied to restore the first intra prediction mode index of the current block.
또 다른 예로써, 현재 블록의 상측 블록과 좌측 블록의 인트라 예측 모드가 모두 방향성 예측 모드(directional intra prediction 모드)일 경우, 상기 상측 블록의 인트라 예측 모드의 방향과 상기 좌측 블록의 인트라 예측 모드의 방향이 소정 각도 이내이면 제 1 인트라 예측 모드 테이블을 적용하여 현재 블록의 제 1 인트라 예측 모드 인덱스를 복원하고, 소정 각도를 벗어나면 제2 인트라 예측 모드 테이블을 적용하여 현재 블록의 제 1 인트라 예측 모드 인덱스를 복원할 수도 있다.As another example, when the intra prediction modes of the upper block and the left block of the current block are both the directional intra prediction mode, the direction of the intra prediction mode of the upper block and the direction of the intra prediction mode of the left block. If within this predetermined angle, the first intra prediction mode index is restored by applying the first intra prediction mode table, and if outside the predetermined angle, the first intra prediction mode index is applied by applying the second intra prediction mode table. You can also restore.
엔트로피 복호화부(210)는 복원된 현재 블록의 제1 인트라 예측 모드 인덱스를 인트라 예측부(230)로 전송한다.The
제1 인트라 예측 모드를 인덱스를 수신한 인트라 예측부(230)는, 상기 인덱스가 최소값을 가질 경우(즉, 0일 경우), 현재 블록의 최대 가능 모드를 현재 블록의 인트라 예측 모드로 결정할 수 있다.The
한편, 인트라 예측부(230)는, 상기 인덱스가 0 이외의 값을 가질 경우, 현재 블록의 최대 가능 모드가 나타내는 인덱스와 상기 제1 인트라 예측 모드 인덱스를 비교하고, 비교 결과 상기 제1 인트라 예측 모드 인덱스가 상기 현재 블록의 최대 가능 모드가 나타내는 인덱스보다 작지 않으면 상기 제1 인트라 예측 모드 인덱스에 1을 더한 제2 인트라 예측 모드 인덱스에 대응하는 인트라 예측 모드를 현재 블록의 인트라 예측 모드로 결정하고, 그렇지 않으면 상기 제1 인트라 예측 모드 인덱스에 대응하는 인트라 예측 모드를 현재 블록의 인트라 예측 모드로 결정할 수 있다.Meanwhile, when the index has a value other than 0, the
현재 블록에 허용 가능한 인트라 예측 모드는 적어도 하나 이상의 비방향성 모드(비 directional 모드)와 복수 개의 방향성 모드들(directional 모드s)로 구성될 수 있다.The intra prediction mode allowable for the current block may consist of at least one non-directional mode (non-directional mode) and a plurality of directional modes.
하나 이상의 비방향성 모드는 DC 모드 및/또는 플래너(planar) 모드일수 있다. 또한, DC 모드와 플래너 모드 중 어느 하나가 적응적으로 상기 허용 가능한 인트라 예측 모드 셋에 포함될 수 있다.One or more non-directional modes may be DC mode and / or planar mode. In addition, either DC mode or planner mode may be adaptively included in the allowable intra prediction mode set.
이를 위해, 픽쳐 헤더 또는 슬라이스 헤더에 상기 허용 가능한 인트라 예측 모드 셋에 포함되는 비방향성 모드를 특정하는 정보가 포함될 수 있다.To this end, information specifying the non-directional mode included in the allowable intra prediction mode set may be included in the picture header or the slice header.
다음으로, 인트라 예측부(230)는 인트라 예측 블록을 생성하기 위해, 참조 화소들을 픽쳐 저장부(260)로터 읽어들이고, 이용 가능하지 않은 참조 화소가 존재하는지 여부를 판단한다.Next, the
상기 판단은 현재 블록의 복호된 인트라 예측 모드를 적용하여 인트라 예측 블록을 생성하는데 이용되는 참조 화소들의 존재 여부에 따라 행해질 수도 있다.The determination may be performed according to the presence or absence of reference pixels used to generate the intra prediction block by applying the decoded intra prediction mode of the current block.
다음으로, 인트라 예측부(230)는 참조 화소를 생성할 필요가 있을 경우에는 미리 복원된 이용 가능한 참조 화소들을 이용하여 이용 가능하지 않은 위치의 참조 화소들을 생성할 수 있다.Next, when it is necessary to generate the reference pixel, the
이용 가능하지 않은 참조 화소에 대한 정의 및 참조 화소의 생성 방법은 도 1에 따른 인트라 예측부(150)에서의 동작과 동일할 수 있으나, 현재 블록의 복호화된 인트라 예측 모드에 따라 인트라 예측 블록을 생성하는데 이용되는 참조 화소들이 선택적으로 복원될 수도 있다.Definition of a reference pixel that is not available and a method of generating the reference pixel may be the same as the operation of the
또한, 인트라 예측부(230)는 예측 블록을 생성하기 위해 참조 화소들에 필터를 적용할지 여부를 판단하며, 즉 현재 블록의 인트라 예측 블록을 생성하기 위하여 참조 화소들에 대해 필터링을 적용할지 여부를 상기 복호된 인트라 예측 모드 및 현재 예측 블록의 크기에 기초하여 결정할 수 있다.In addition, the
블록킹 아티펙트의 문제는 블록의 크기가 커질수록 커지므로, 블록의 크기가 커질수록 참조 화소를 필터링하는 예측모드의 수를 증가시킬 수 있으나, 블록이 소정 크기보다 커지는 경우 평탄한 영역으로 볼 수 있으므로 복잡도 감소를 위해 참조 화소를 필터링하지 않을 수도 있다.The problem of blocking artifacts is that the larger the block size is, the larger the block size can increase the number of prediction modes for filtering the reference pixels, but if the block is larger than the predetermined size can be seen as a flat area, the complexity is reduced The reference pixel may not be filtered for.
상기 참조 화소에 필터 적용이 필요하다고 판단된 경우, 인트라 예측부(230)는 필터를 이용하여 상기 참조 화소들을 필터링한다.If it is determined that the filter is required to be applied to the reference pixel, the
상기한 참조 화소들 간의 단차의 차이 정도에 따라 적어도 2개 이상의 필터를 적응적으로 적용할 수도 있다. 상기 필터의 필터계수는 대칭적인 것이 바람직하다.At least two or more filters may be adaptively applied according to the degree of difference between the steps between the reference pixels. The filter coefficient of the filter is preferably symmetrical.
또한, 상기한 2개 이상의 필터가 현재 블록의 크기에 따라 적응적으로 적용될 수도 있으며, 필터를 적용할 경우 크기가 작은 블록에 대해서는 대역폭이 좁은 필터가, 크기가 큰 블록들에 대해서는 대역폭이 넓은 필터가 적용될 수도 있다.In addition, the above two filters may be adaptively applied according to the size of the current block. When the filter is applied, a narrow bandwidth filter is used for a small block, and a wide bandwidth filter is used for a large block. May be applied.
DC 모드의 경우에는 참조 화소들의 평균값으로 예측 블록이 생성되므로 필터를 적용할 필요가 없으며, 상이 수직 방향으로 연관성(correlation)이 있는 수직 모드에서는 참조 화소에 필터를 적용할 필요가 없고, 영상이 수평 방향으로 연관성이 있는 수평 모드에서도 참조 화소에 필터를 적용할 필요가 없을 수 있다.In the DC mode, since the prediction block is generated with the average value of the reference pixels, there is no need to apply a filter. In the vertical mode where the correlation is in the vertical direction, the filter does not need to be applied to the reference pixel, and the image is horizontal. It may not be necessary to apply a filter to the reference pixel even in a horizontal mode that is correlated in the direction.
이와 같이, 필터링의 적용 여부는 현재 블록의 인트라 예측 모드와도 연관성이 있으므로, 현재 블록의 인트라 예측 모드 및 예측 블록의 크기에 기초하여 참조 화소를 적응적으로 필터링할 수 있다.As described above, whether filtering is applied is also related to the intra prediction mode of the current block, and thus, the reference pixel may be adaptively filtered based on the intra prediction mode of the current block and the size of the prediction block.
다음으로, 인트라 예측부(230)는 상기 복원된 인트라 예측 모드에 따라 참조 화소 또는 필터링된 참조 화소들을 이용하여 예측 블록을 생성하며, 상기 예측 블록의 생성은 부호화 장치(10)에서의 동작과 동일할 수 있으므로, 그에 대한 상세한 설명은 생략하기로 한다.Next, the
인트라 예측부(230)는 상기 생성된 예측 블록을 필터링할지 여부를 판단하며, 상기 필터링 여부는 슬라이스 헤더 또는 부호화 유닛 헤더에 포함된 정보를 이용하거나 또는 현재 블록의 인트라 예측 모드에 따라 결정될 수 있다.The
상기 생성된 예측 블록을 필터링할 것으로 판단할 경우, 인트라 예측부(230)는 현재 블록에 인접한 이용 가능한 참조 화소들을 이용하여 생성된 예측 블록의 특정 위치의 화소를 필터링하여 새로운 화소를 생성할 수 있다.When determining that the generated prediction block is to be filtered, the
예를 들어, DC 모드에서는 예측 화소들 중 참조 화소들과 접하는 예측 화소는 상기 예측 화소와 접하는 참조 화소를 이용하여 필터링될 수 있다.For example, in the DC mode, a prediction pixel in contact with reference pixels among the prediction pixels may be filtered using a reference pixel in contact with the prediction pixel.
따라서, 예측 화소의 위치에 따라 1개 또는 2개의 참조 화소를 이용하여 예측 화소가 필터링되며, DC 모드에서의 예측 화소의 필터링은 모든 크기의 예측 블록에 적용할 수 있다.Therefore, the prediction pixels are filtered using one or two reference pixels according to the positions of the prediction pixels, and the filtering of the prediction pixels in the DC mode may be applied to the prediction blocks of all sizes.
한편, 수직 모드에서는 예측 블록의 예측 화소들 중 좌측 참조 화소와 접하는 예측 화소들은 상기 예측블록을 생성하는데 이용되는 상측 화소 이외의 참조 화소들을 이용하여 변경될 수 있다.Meanwhile, in the vertical mode, prediction pixels in contact with the left reference pixel among the prediction pixels of the prediction block may be changed by using reference pixels other than the upper pixel used to generate the prediction block.
마찬가지로, 수평 모드에서는 생성된 예측 화소들 중 상측 참조 화소와 접하는 예측 화소들은 상기 예측블록을 생성하는데 이용되는 좌측 화소 이외의 참조 화소들을 이용하여 변경될 수 있다.Similarly, in the horizontal mode, the prediction pixels in contact with the upper reference pixel among the generated prediction pixels may be changed using reference pixels other than the left pixel used to generate the prediction block.
이와 같은 방식으로 복원된 현재 블록의 예측 블록과 복호화한 현재 블록의 잔차 블록을 이용하여 현재 블록이 복원될 수 있다.In this manner, the current block may be reconstructed using the prediction block of the current block reconstructed and the residual block of the decoded current block.
도 9는 영상을 블록 단위로 분할하여 처리하는 방법에 대한 제2 실시예를 설명하기 위한 도시한 것이다.FIG. 9 illustrates a second exemplary embodiment of a method of dividing and processing an image into blocks.
도 9를 참조하면, 최대 256x256 픽셀 크기를 가지는 코딩 트리 유닛(CTU)은 먼저 쿼드 트리(quad tree) 구조로 나뉘어, 정사각형의 형태를 가지는 4개의 코딩 유닛(CU)들로 분할될 수 있다.Referring to FIG. 9, a coding tree unit (CTU) having a maximum size of 256 × 256 pixels may be first divided into a quad tree structure and divided into four coding units (CUs) having a square shape.
여기서, 상기 쿼드 트리 구조로 분할된 코딩 유닛들 중 적어도 하나는 이진 트리(binary tree) 구조로 나뉘어, 직사각형의 형태를 가지는 2개의 코딩 유닛(CU)들로 재 분할될 수 있다.Here, at least one of the coding units divided into the quad tree structure may be divided into a binary tree structure and re-divided into two coding units (CUs) having a rectangular shape.
한편, 상기 쿼드 트리 구조로 분할된 코딩 유닛들 중 적어도 하나는 쿼드 트리 구조로 나뉘어, 정사각형의 형태를 가지는 4개의 코딩 유닛(CU)들로 재 분할될 수도 있다.Meanwhile, at least one of the coding units divided into the quad tree structure may be divided into a quad tree structure and re-divided into four coding units (CUs) having a square shape.
그리고 상기 이진 트리 구조로 재 분할된 코딩 유닛들 중 적어도 하나는 이진 트리 구조로 다시 나뉘어, 정사각형 또는 직사각형의 형태를 가지는 2개의 코딩 유닛(CU)들로 분할될 수 있다.At least one of the coding units re-divided into the binary tree structure may be divided into two binary tree structures and divided into two coding units (CUs) having a square or rectangular shape.
한편, 상기 쿼드 트리 구조로 재 분할된 코딩 유닛들 중 적어도 하나는 쿼드 트리 구조 또는 이진 크리 구조로 다시 나뉘어, 정사각형 또는 직사각형의 형태를 가지는 코딩 유닛(CU)들로 분할될 수도 있다.Meanwhile, at least one of the coding units re-divided into the quad tree structure may be divided into a quad tree structure or a binary tree structure and divided into coding units (CUs) having a square or rectangular shape.
상기와 같이 이진 트리 구조로 분할되어 구성된 코딩 블록(Coding Block : CB)들은, 더 이상 분할되지 않고, 예측 및 변환에 이용될 수 있다. 즉, 도 9에 도시된 바와 같은 코딩 블록(CB)에 속하는 예측 유닛(PU)과 변환 유닛(TU)의 크기는, 해당 코딩 블록(CB)의 크기와 동일할 수 있다.As described above, coding blocks (CBs) formed by dividing into a binary tree structure are no longer divided and may be used for prediction and transformation. That is, the sizes of the prediction unit PU and the transform unit TU belonging to the coding block CB as shown in FIG. 9 may be equal to the size of the coding block CB.
상기와 같이 쿼드 트리 구조로 분할된 코딩 유닛은 도 3 및 도 4를 참조하여 설명한 바와 같은 방법을 이용하여 하나 또는 2 이상의 예측 유닛(PU)들로 분할될 수 있다.The coding unit split into the quad tree structure as described above may be split into one or two prediction units (PUs) using the method described with reference to FIGS. 3 and 4.
또한, 상기와 같이 쿼드 트리 구조로 분할된 코딩 유닛은 도 5를 참조하여 설명한 바와 같은 방법을 이용하여 하나 또는 2 이상의 변환 유닛(TU)들로 분할될 수 있으며, 상기 분할된 변환 유닛(TU)은 최대 64x64 픽셀 크기를 가질 수 있다.In addition, the coding unit divided into the quad tree structure as described above may be divided into one or more transform units (TUs) by using the method as described with reference to FIG. 5, and the divided transform units (TU) May have a maximum size of 64x64 pixels.
그리고, 영상을 블록 단위로 분할하여 처리하기 위해 사용되는 신택스(syntax) 구조는 분할 정보를 flag를 이용하여 나타낼 수 있다. 예를 들어, 코딩 유닛(CU)의 분할 여부는 split_cu_flag를 이용하여 나타내어 지며, 이진 트리를 이용하여 분할되는 코딩 유닛(CU)의 깊이는 binary_depth를 이용하여 나타내어질 수 있다. 또한, 코딩 유닛(CU)이 이진 트리 구조로 분할되는지 여부는 별도의 binary_split_flag로 나타내어 질 수도 있다.The syntax structure used to divide and process an image in block units may indicate the partition information using a flag. For example, whether to split the coding unit CU may be indicated using split_cu_flag, and the depth of the coding unit CU split using the binary tree may be indicated using binary_depth. In addition, whether the coding unit (CU) is divided into a binary tree structure may be represented by a separate binary_split_flag.
도 9를 참조하여 설명한 바와 같은 방법에 의해 분할된 블록들(예를 들어, 코딩 유닛(CU), 예측 유닛(PU) 및 변환 유닛(TU))에 대해 도 1 내지 도 8을 참조하여 설명한 바와 같은 방법들이 적용됨으로써, 영상에 대한 부호화 및 복호화가 수행될 수 있다.Blocks divided by the method as described with reference to FIG. 9 (eg, a coding unit (CU), a prediction unit (PU), and a transform unit (TU)) have been described with reference to FIGS. 1 to 8. By applying the same methods, encoding and decoding on an image may be performed.
이하에서는, 도 10 내지 도 15를 참조하여, 코딩 유닛(CU)을 하나 또는 2 이상의 변환 유닛(TU)들로 분할하는 방법에 대한 또 다른 실시예들을 설명하기로 한다.Hereinafter, other embodiments of a method of dividing a coding unit (CU) into one or more transform units (TUs) will be described with reference to FIGS. 10 to 15.
본 발명의 실시예에 따르면, 코딩 유닛(CU)은 이진 트리 구조로 나뉘어 잔차 블록에 대한 변환이 수행되는 기본 단위인 변환 유닛(TU)들로 분할될 수 있다.According to an embodiment of the present invention, the coding unit CU may be divided into a binary tree structure and divided into transform units (TUs) which are basic units for transforming a residual block.
도 10을 참조하면, 이진 트리 구조로 분할되어 Nx2N 또는 2NxN의 크기를 가지는 직사각형의 코딩 블록들(CB0, CB1) 중 적어도 하나는, 다시 이진 트리 구조로 나뉘어, NxN의 크기를 가지는 정사각형의 변환 유닛들(TU0, TU1)로 분할될 수 있다.Referring to FIG. 10, at least one of rectangular coding blocks CB0 and CB1 divided into a binary tree structure and having a size of Nx2N or 2NxN is divided into a binary tree structure again, and has a square transform unit having a size of NxN. Can be divided into TU0 and TU1.
상기한 바와 같이, 블록 기반의 영상 부호화 방법은, 예측, 변환, 양자화 및 엔트로피 부호화 단계들을 수행할 수 있다.As described above, the block-based image encoding method may perform prediction, transform, quantization, and entropy encoding steps.
상기 예측 단계에서는, 현재 부호화를 수행하는 블록과 기존의 부호화된 영상 또는 주변 영상을 참조하여 예측 신호를 생성하며, 이를 통해 현재 블록과의 차분 신호를 계산할 수 있다.In the prediction step, a prediction signal may be generated by referring to a block currently performing encoding and an existing coded image or a neighboring image, and thus a difference signal between the current block and the current block may be calculated.
한편, 변환 단계에서는, 상기 차분 신호를 입력으로 하여 다양한 변환 함수를 이용하여 변환을 수행하며, 상기 변환된 신호는 DC 계수와 AC 계수들로 분류되 에너지 집중(Energy compaction)되어 부호화 효율이 향상될 수 있다.On the other hand, in the transforming step, the difference signal is input, and the transform is performed using various transform functions. The transformed signal is classified into DC coefficients and AC coefficients and is energy compacted to improve encoding efficiency. Can be.
또한, 양자화 단계에서는 변환 계수(Transform coefficient)들을 입력으로 양자화가 수행하며, 이후 양자화된 신호에 대해 엔트로피 부호화가 수행됨으로써 영상이 부호화될 수 있다.In addition, in the quantization step, quantization may be performed by inputting transform coefficients, and then an image may be encoded by performing entropy encoding on the quantized signal.
한편, 영상 복호화 방법은 상기와 같은 부호화 과정의 역순으로 진행되며, 영상의 화질 왜곡 현상이 양자화 단계에서 발생할 수 있다.On the other hand, the image decoding method is performed in the reverse order of the above encoding process, the image quality distortion may occur in the quantization step.
부호화 효율을 향상시키면서 화질 왜곡 현상을 줄이기 위한 방법으로서, 변환 단계에서 입력으로 들어오는 차분 신호의 분포 및 영상의 특징에 따라 변환 유닛(TU)의 크기 또는 모양과 적용되는 변환 함수 종류를 다양하게 할 수 있다.As a method for reducing image distortion while improving encoding efficiency, the size or shape of a transform unit (TU) and the type of transform function to be applied may be varied according to the distribution of the differential signal input to the input and the characteristics of the image in the conversion step. have.
예를 들어, 예측 단계에서 블록 기반 움직임 추정 과정을 통해 현재 블록과 유사한 블록을 찾는 경우, SAD(Sum of Absolute Difference) 또는 MSE(Mean Square error) 등과 같은 코스트(cost) 측정 방법을 이용하여, 차분 신호의 분포는 영상의 특성에 따라 다양한 형태로 생길 수 있다.For example, when a block-based motion estimation process is used to find a block similar to the current block, a difference is measured using a cost measurement method such as a sum of absolute difference (SAD) or mean square error (MSE). The signal distribution may occur in various forms according to the characteristics of the image.
그에 따라, 다양한 차분 신호의 분포에 기초해 선택적으로 변환 유닛(CU)의 크기 또는 모양을 결정하여 변환을 수행함으로써, 효과적인 부호화가 수행될 수 있다.Accordingly, effective encoding can be performed by selectively determining the size or shape of the transform unit CU based on the distribution of various differential signals to perform the transform.
예를 들어, 임의의 코딩 블록(CBx) 에서 차분 신호가 발생하는 경우, 해당 코딩 블록(CBx)을 이진 트리 구조로 나누어 2개의 변환 유닛(TU)들로 분할함으로써 효과적인 변환이 수행되도록 할 수 있다. DC 값은 일반적으로 입력 신호의 평균값을 나타낸다고 말할 수 있으므로, 차분 신호가 변환 과정의 입력으로 수신되는 경우, 코딩 블록(CBx)을 2개의 변환 유닛(TU)들로 분할함으로써 효과적으로 DC 값을 나타낼 수 있다.For example, when a differential signal is generated in any coding block CBx, an effective transform may be performed by dividing the coding block CBx into a binary tree structure and dividing it into two transform units (TUs). . The DC value can generally be said to represent the average value of the input signal, so that when the differential signal is received at the input of the conversion process, the DC value can be effectively represented by dividing the coding block (CBx) into two transform units (TUs). have.
도 11을 참조하면, 2Nx2N의 크기를 가지는 정사각형의 코딩 유닛(CU0)이 이진 트리 구조로 나뉘어, Nx2N 또는 2NxN의 크기를 가지는 직사각형의 변환 유닛들(TU0, TU1)로 분할될 수 있다.Referring to FIG. 11, a square coding unit CU0 having a size of 2N × 2N may be divided into a binary tree structure and divided into rectangular transform units TU0 and TU1 having a size of N × 2N or 2N × N.
본 발명의 또 다른 실시예에 따르면, 상기한 바와 같이 코딩 유닛(CU)을 이진 트리 구조로 분할하는 단계를 2회 이상 반복해 수행하여, 복수의 변환 유닛(TU)들로 분할할 수 있다.According to another embodiment of the present invention, as described above, the step of dividing the coding unit (CU) into a binary tree structure may be repeated two or more times to divide the coding unit (CU) into a plurality of transform units (TUs).
도 12를 참조하면, Nx2N의 크기를 가지는 직사각형의 코딩 블록(CB1)을 이진 트리 구조로 분할하고, 상기 분할된 NxN의 크기를 가지는 블록을 다시 이진 트리 구조로 분할하여 N/2xN 또는 NxN/2의 크기를 가지는 직사각형의 블록을 구성한 후, 상기 N/2xN 또는 NxN/2의 크기를 가지는 블록을 다시 이진 트리 구조로 분할하여 N/2xN/2의 크기를 가지는 정사각형의 변환 유닛들(TU1, TU2, TU4, TU5)로 분할할 수 있다.Referring to FIG. 12, a rectangular coding block CB1 having a size of Nx2N is divided into a binary tree structure, and a block having a size of the divided NxN is further divided into a binary tree structure to N / 2xN or NxN / 2. After configuring a rectangular block having a size of N, the block having a size of N / 2xN or NxN / 2 is divided into a binary tree structure again to square transform units having a size of N / 2 × N / 2 (TU1, TU2) , TU4, TU5).
도 13을 참조하면, 2Nx2N의 크기를 가지는 정사각형의 코딩 블록(CB0)을 이진 트리 구조로 분할하고, 상기 분할된 Nx2N의 크기를 가지는 블록을 다시 이진 트리 구조로 분할하여 NxN의 크기를 가지는 정사각형의 블록을 구성한 후, 상기 NxN의 크기를 가지는 블록을 다시 이진 트리 구조로 분할하여 N/2xN의 크기를 가지는 직사각형의 변환 유닛들(TU1, TU2)로 분할할 수 있다.Referring to FIG. 13, a square coding block CB0 having a size of 2Nx2N is divided into a binary tree structure, and a block having a size of Nx2N is further divided into a binary tree structure to have a square having a size of NxN. After constructing the block, the block having the size of NxN may be further divided into a binary tree structure and divided into rectangular transform units TU1 and TU2 having the size of N / 2xN.
도 14를 참조하면, 2NxN의 크기를 가지는 직사각형의 코딩 블록(CB0)을 이진 트리 구조로 분할하고, 상기 분할된 NxN의 크기를 가지는 블록을 다시 쿼드 트리 구조로 분할하여 N/2xN/2의 크기를 가지는 정사각형의 변환 유닛들(TU1, TU2, TU3, TU4)로 분할할 수 있다.Referring to FIG. 14, a rectangular coding block CB0 having a size of 2N × N is divided into a binary tree structure, and a block having the size of divided NxN is further divided into a quad tree structure to have a size of N / 2 × N / 2. Square units may be divided into TU1, TU2, TU3, and TU4.
도 10 내지 도 14를 참조하여 설명한 바와 같은 방법에 의해 분할된 블록들(예를 들어, 코딩 유닛(CU), 예측 유닛(PU) 및 변환 유닛(TU))에 대해 도 1 내지 도 8을 참조하여 설명한 바와 같은 방법들이 적용됨으로써, 영상에 대한 부호화 및 복호화가 수행될 수 있다.See FIGS. 1 through 8 for blocks divided by the method as described with reference to FIGS. 10 through 14 (eg, coding unit (CU), prediction unit (PU), and transform unit (TU)). By applying the methods as described above, encoding and decoding on an image may be performed.
이하에서는, 본 발명에 따른 부호화 장치(10)가 블록 분할 구조를 결정하는 방법에 대한 실시예들에 대해 설명한다.Hereinafter, embodiments of a method of determining, by the
영상 부호화 장치(10)에 구비된 픽쳐 분할부(110)는 미리 설정된 순서에 따라 RDO(Rate distortion Optimization)를 수행하여, 상기한 바와 같이 분할 가능한 코딩 유닛(CU), 예측 유닛(PU) 및 변환 유닛(TU)의 분할 구조를 결정할 수 있다.The
예를 들어, 블록 분할 구조를 결정하기 위해, 픽쳐 분할부(110)는 RDO-Q(Rate distortion Optimization- Quantization)를 수행하면서 비트레이트(bitrate)와 디스토션(distortion) 측면에서 최적의 블록 분할 구조를 결정할 수 있다. For example, to determine the block division structure, the
도 15를 참조하면, 코딩 유닛(CU)이 2Nx2N 픽셀 크기의 형태를 가지는 경우, (a)에 도시된 2Nx2N 픽셀 크기, (b)에 도시된 NxN 픽셀 크기, (c)에 도시된 Nx2N 픽셀 크기, (d)에 도시된 2NxN 픽셀 크기의 변환 유닛(PU) 분할 구조 순서로 RDO를 수행하여 변환 유닛(PU)의 최적 분할 구조를 결정할 수 있다.Referring to FIG. 15, when the coding unit CU has a form of 2Nx2N pixel size, the 2Nx2N pixel size shown in (a), the NxN pixel size shown in (b), and the Nx2N pixel size shown in (c) , RD may be performed in the order of transform unit (PU) partition structure of 2N × N pixel size shown in (d) to determine an optimal partition structure of the transform unit PU.
도 16을 참조하면, 코딩 유닛(CU)이 Nx2N 또는 2NxN 픽셀 크기의 형태를 가지는 경우, (a)에 도시된 Nx2N(또는, 2NxN)의 픽셀 크기, (b)에 도시된 NxN의 픽셀 크기, (c)에 도시된 N/2xN(또는, NxN/2)와 NxN의 픽셀 크기, (d)에 도시된 N/2xN/2, N/2xN 및 NxN의 픽셀 크기, (e)에 도시된 N/2xN의 픽셀 크기의 변환 유닛(PU) 분할 구조 순서로 RDO를 수행하여 변환 유닛(PU)의 최적 분할 구조를 결정할 수 있다.Referring to FIG. 16, when the coding unit CU has a form of Nx2N or 2NxN pixel size, the pixel size of Nx2N (or 2NxN) shown in (a), the pixel size of NxN shown in (b), N / 2xN (or NxN / 2) and NxN pixel sizes shown in (c), N / 2xN / 2, N / 2xN and NxN pixel sizes shown in (d), N shown in (e) An RDO may be performed in a transform unit (PU) partition structure order of a pixel size of 2 × N to determine an optimal partition structure of the transform unit PU.
상기에서는 RDO(Rate distortion Optimization)를 수행하여 블록 분할 구조가 결정되는 것을 예로 들어 본 발명의 블록 분할 방법을 설명하였으나, 픽쳐 분할부(110)는 SAD(Sum of Absolute difference) 또는 MSE(Mean Square Error)를 이용하여 블록 분할 구조를 결정함으로써 복잡도를 저감시키면서도 적절한 효율을 유지할 수 있다.In the above, the block division method of the present invention has been described with an example in which a block division structure is determined by performing RDO (Rate distortion Optimization). However, the
이하에서는 본 발명의 실시 예에 따른 머지 모드 처리를 제공하는 영상 처리 방법 및 이에 따른 부호화 및 복호화 방법에 대하여 보다 구체적으로 설명하도록 한다.Hereinafter, an image processing method for providing merge mode processing and an encoding and decoding method according to the embodiment of the present invention will be described in detail.
머지 모드 처리는 움직임 정보를 이용한 인터 예측시 현재 블록과 인접한 블록의 움직임 정보를 병합 처리함으로써, 코딩 효율을 높이기 위한 처리이나 본 발명의 실시 예에 따른 코딩 유닛이 전술한 바와 같이, 쿼드 트리 및 바이너리 트리 구조로 복합 분할됨에 따라, 비효율적으로 처리될 가능성이 있다.The merge mode process merges the motion information of the current block and the adjacent block during inter prediction using the motion information, so that the coding unit according to the embodiment of the present invention or the coding unit according to an embodiment of the present invention performs quadtree and binary processing. As it is complexly divided into a tree structure, it may be processed inefficiently.
따라서, 본 발명의 실시 예에 따른 머지 모드 움직임 정보 복호화부(243)는 머지 모드 움직임 정보 복호화에 있어서 머지 후보자를 선택하기 위한 머지 모드 움직임 정보 후보 리스트를 구성하는 경우, 상기 현재 블록에 대응하여 유도된 하나 이상의 머지 모드 후보자에 따라, 상기 현재 블록의 머지 모드 움직임 정보 예측을 위한 머지 모드 움직임 정보 후보 리스트를 가변적으로 구성함으로써, 복합 분할된 블록 구조에 대한 적응적 처리에 따른 부호화 효율 향상을 제공할 수 있다.Accordingly, when the merge mode
머지 모드 움직임 정보 후보 리스트를 구성하기 위한 가변적이고 적응적인 변수로는 시간적 인접성 및 공간적 인접성과, 각 블록 크기, 분할 형태, 부호화기에서 시그널링된 움직임 정보, 부호화기에서 시그널링된 후보 리스트 구성 정보 또는 블록의 컨텍스트 정보 중 적어도 하나가 예시될 수 있으며, 머지 모드 움직임 정보 복호화부(243)는 복합적인 머지 모드 움직임 정보 후보 리스트 구성 프로세스와, 확률 기반 업데이트 프로세스 및 이를 이용한 누적 움직임 예측자 후보 연산 프로세스를 추가로 제공함으로써, 부호화 및 복호화 효율을 향상시킬 수 있다.Variable and adaptive variables for constructing the merge mode motion information candidate list include temporal and spatial adjacency, each block size, partition type, motion information signaled by the encoder, candidate list configuration information signaled by the encoder, or context of a block. At least one of the information may be exemplified, and the merge mode
도 17은 본 발명의 실시 예에 따른 머지 모드 움직임 정보 복호화부를 보다 구체적으로 설명하기 위한 블록도이다.17 is a block diagram illustrating in more detail the merge mode motion information decoder according to an embodiment of the present invention.
도 17을 참조하면, 본 발명의 실시 예에 따른 머지 모드 움직임 정보 복호화부(243)는, 머지 타입 분류부(2431), 시간인접 동일 위치 머지 모드 후보자 유도부(2432), 공간적 머지 모드 후보자 유도부(2433), 대응 블록 머지 모드 후보자 유도부(2434), 복합 머지 모드 후보자 유도부(2435), 서브 블록 머지 모드 후보자 유도부(2439), 머지 후보 리스트 구성부(2436), 머지 후보자 선택부(2437) 및 확률 정보 업데이트부(2438)를 포함한다. Referring to FIG. 17, the merge mode
다만, 도 17에서 도시한 후보들에 국한되지 않으며, 머지 후보의 종류는 상기 시간적, 공간적으로 인접한 블록의 블록 단위 혹은 서브-블록 단위 후보 외에도 상기 인접한 블록들의 움직임 정보를 이용하여 수식을 통하여 계산된 형태의 움직임 정보들 또한 포괄적으로 지칭한다.However, the merge candidate is not limited to the candidates shown in FIG. 17, and the type of the merge candidate is calculated through equations using motion information of the adjacent blocks in addition to the block unit or sub-block unit candidates of the temporally and spatially adjacent blocks. Motion information is also referred to generically.
본 발명의 실시 예에 따른 머지 모드 움직임 정보 복호화부(243)는 복합화된 분할 구조에 따라 세분화된 타입별로, 머지 모드 움직임 정보를 적응적으로 유도할 수 있으며, 유도된 머지 모드 움직임 정보는 머지 후보 리스트 구성부(2436)에서 구성된 머지 모드 움직임 정보 후보 리스트에 삽입될 수 있다. 또한, 상기 각 타입에 따른 머지 모드 움직임 정보 후보 리스트 내 우선순위가 결정될 수 있다.The merge mode
이를 위해, 머지 타입 분류부(2431)는 현재 블록에 대응하는 머지 타입을 결정하고, 머지 타입에 따른 머지 모드 유도 프로세스를 결정할 수 있다.To this end, the merge type classifier 2431 may determine a merge type corresponding to the current block and determine a merge mode derivation process according to the merge type.
머지 타입 정보는 현재 블록에 대한 머지 모드 부호화 효율에 따라 결정될 수 있으며, 복호화시에는 현재 블록에 대응하여 시그널링된 헤더 정보로부터 획득될 수 있다.The merge type information may be determined according to the merge mode encoding efficiency for the current block, and may be obtained from header information signaled corresponding to the current block during decoding.
이를 위해, 복호화 장치(20)는 머지 모드 및 타입 정보에 대응하여 별도 시그널링된 인덱스 또는 플래그를 파싱할 수 있다. 또한, 움직임 벡터 예측자(MVP) 정보 및 이에 대응하는 부가 움직임 정보(Motion information)가 시그널링되어 상기 머지 모드 움직임 정보가 유도될 수도 있다.To this end, the
예를 들어, 상기 머지 모드에 대응하여 시그널링된 정보는, 현재 블록의 공간적, 시간적 또는 복합적으로 인접한 병합 대상 블록 후보 중 하나의 병합 대상 블록의 위치를 나타내거나, 인덱스 정보를 나타낼 수 있다.For example, the information signaled corresponding to the merge mode may indicate the position of one merge target block among spatial, temporal or complex adjacent merge target block candidates of the current block, or may indicate index information.
또한, 상기 머지 모드에 대응하여 부호화된 움직임 정보는, 현재 블록의 공간적, 시간적 또는 복합적으로 인접한 병합 대상 블록 후보 중 하나의 병합 대상 블록의 코딩 블록 단위 기반 움직임 정보일 수 있으며, 시그널링 정보는 이러한 움직임 정보의 인덱스 정보를 나타낼 수도 있다.In addition, the motion information encoded in response to the merge mode may be coding block unit-based motion information of one merge target block among spatial, temporal or complex neighboring merge target block candidates of the current block, and the signaling information may be such a motion. It may also indicate index information of the information.
보다 상세하게, 머지 모드에 대응하여 시그널링되는 머지 모드 정보는 헤더(Header) 정보에 포함될 수 있다. 헤더 정보는 Sequence Parameter Set(SPS) 헤더 또는 타일 그룹 헤더(Tile group header) 등이 예시될 수 있고, 헤더 정보에는 머지 모드 리스트의 크기 정보 등이 포함되거나, 타일 그룹 타입에 따라 머지 모드 리스트를 이용한 화면 내 예측 기법을 수행할지 여부 등을 나타낼 수 있다.In more detail, the merge mode information signaled corresponding to the merge mode may be included in the header information. The header information may include a Sequence Parameter Set (SPS) header or a tile group header, and the header information may include size information of a merge mode list or a merge mode list according to a tile group type. It may indicate whether to perform intra prediction.
보다 상세하게, 상기 머지 타입 분류부(2431)는 SPS 헤더 또는 타일 그룹 헤더로부터, 현재 블록에 대해 사용 가능한 머지 모드 정보를 결정할 수 있고, 상기 결정을 위해, 부호화 장치(10)로부터 시그널링된 머지 모드 정보를 파싱할 수 있다.In more detail, the merge type classifier 2431 may determine, from the SPS header or the tile group header, merge mode information available for the current block, and for the determination, the merge mode signaled from the
이에 따라, 머지 모드 움직임 정보 복호화부(243)는 타일 그룹 또는 슬라이스의 타입 정보(I / B / P)에 따라, 복수의 머지 모드 후보 구성 프로세스 중 적어도 하나를 선택적으로 수행할 수 있다.Accordingly, the merge mode
예를 들어, 머지 모드 움직임 정보 복호화부(243)는 B 또는 P 타입의 타일 그룹 내 코딩 블록에 대응하는 화면 간 예측 복호화를 위해, 머지 모드 후보 리스트를 선택적으로 구성할 수 있다. 복호화할 코딩 블록이 속한 타일 그룹이 B 타입인 경우, 양방향 예측을 통한 화면 간 예측이 가능할 수 있으므로, 머지 모드 움직임 정보 복호화부(243)는 머지 모드 시그널링 정보로부터 별도의 참조 픽쳐 리스트 선택 정보를 추가로 파싱하여, 머지 후보 리스트에 추가될 추가 움직임 예측 후보(MVP) 인덱스 정보를 유도할 수 있다.For example, the merge mode
또한, 복호화할 코딩 블록이 속한 타일 그룹의 타입 정보가 I 타입인 경우, 머지 모드 움직임 정보 복호화부(243)는, 머지 모드로 부호화된 움직임 정보를 복호화하여 머지 후보 리스트를 구성할 수 있으며, 머지 후보 리스트는 화면 내 예측 모드를 이용한 복호화에 사용될 수 있다. In addition, when the type information of the tile group to which the coding block to be decoded belongs is I type, the merge mode
여기서, 머지 모드 후보 리스트의 크기는 머지 모드 타입 또는 타일 그룹 별로 지정될 수 있으며, 서로 다른 크기를 가질 수도 있다. 예를 들어, 머지 모드 후보 리스트 크기는 타일 그룹 헤더에 포함된 머지 모드 시그널링 정보를 통해 유도될 수 있다. 머지 모드 시그널링 정보는 최대 머지 후보 구성 개수(Maximum number of MVP candidate) 정보를 포함할 수 있으며, 머지 모드 움직임 정보 복호화부(243)는 현재 블록이 속한 타일 그룹에 대응하는 일정 개수를 차감하여, 현재 블록이 속한 타일 그룹의 머지 모드에 따른 리스트 크기를 사전 결정할 수 있다.Here, the size of the merge mode candidate list may be specified for each merge mode type or tile group and may have different sizes. For example, the merge mode candidate list size may be derived through merge mode signaling information included in the tile group header. The merge mode signaling information may include maximum number of MVP candidate information, and the merge mode
코딩 블록 단위(CU)에 대응하여 시그널링되는 부호화 모드 시그널링 정보는, 블록의 Skip 모드 플래그 정보(CU_Skip_Flag), 예측 모드 정보(Pred_mode_flag, Pred_mode_ibc_flag) 및 머지 모드 플래그 정보(Merge_flag) 중 적어도 하나를 포함할 수 있으며, 각 플래그 정보는 예측 모드의 타입 및 구성을 나타낼 수 있다.The encoding mode signaling information signaled in correspondence to the coding block unit (CU) may include at least one of skip mode flag information (CU_Skip_Flag), prediction mode information (Pred_mode_flag, Pred_mode_ibc_flag), and merge mode flag information (Merge_flag) of the block. Each flag information may indicate the type and configuration of the prediction mode.
예를 들어, 현재 블록이 머지 모드로 부호화된 경우 머지 모드 플래그(Merge_Flag)의 값이 참일 수 있으며, 머지 후보 리스트 구성부(2436)는 복수의 머지 후보자 유도부들 중 선택된 유도브의 프로세스에에 따라 머지 모드 후보 리스트를 구성할 수 있다.For example, when the current block is encoded in the merge mode, the value of the merge mode flag (Merge_Flag) may be true, and the merge candidate list constructer 2436 may be configured according to the process of the induced derivative selected from the plurality of merge candidate derivators. Merge mode candidate list can be constructed.
그리고, 머지 모드 움직임 정보 복호화부(243)는, 최종적으로 구성된 머지 모드 후보 리스트에서 선택된 머지 모드 후보 움직임 정보와, 이에 대응하는 현재 블록의 부가 움직임 정보를 복호화하여, 현재 블록의 머지 모드 움직임 정보를 결정할 수 있다.The merge mode
또한, 상기 부가 움직임 정보는 현재 블록의 예측 수행에 따라 발생되는 차분 움직임 정보를 나타낼 수 있으며, 예를 들어, 상기 부가 움직임 정보는 MVD (Motion Vector Difference) 또는 참조 인덱스(Reference Index) 정보, 또는 이들의 조합으로 연산된 값을 포함할 수 있다.In addition, the additional motion information may indicate differential motion information generated according to the prediction of the current block. For example, the additional motion information may include MVD (Motion Vector Difference) or Reference Index information, or these. It may include a value calculated by a combination of.
머지 타입 분류부(2431)에서 결정된 머지 모드 후보자 유도 프로세스에 따라, 각 머지 모드 후보자를 유도하는 유도부가 선택적으로 동작할 수 있다.According to the merge mode candidate derivation process determined by the merge type classifier 2431, a derivation unit for deriving each merge mode candidate may selectively operate.
상기 머지 타입 분류부(2431)에서는 현재 블록의 머지 타입을 분류하는 시그널링 정보를 이용하여 현재 블록에 대한 머지 타입을 결정한다. 이때, 상기 현재 블록의 머지 타입에 대한 일 실시예로써 공간적 머지 타입과 시간적 머지 타입으로 분류할 수 있다. 혹은, 또 다른 실시예로써 블록 단위 머지 타입과 서브-블록 단위 머지 타입으로 분류할 수 있다.The merge type classifier 2431 determines a merge type for the current block by using signaling information for classifying the merge type of the current block. In this case, as an embodiment of the merge type of the current block, it may be classified into a spatial merge type and a temporal merge type. Alternatively, as another embodiment, the method may be classified into a block unit merge type and a sub-block unit merge type.
이때, 상기 서브-블록은 현재 블록을 다수개의 블록으로 분할하는 블록 단위를 의미하며, 상기 서브-블록 단위 머지 타입은 각 서브-블록 단위로 움직임 벡터를 머지 (병합)하여 사용하는 경우를 의미한다.In this case, the sub-block refers to a block unit for dividing the current block into a plurality of blocks, and the sub-block unit merge type refers to a case in which a motion vector is merged and used in each sub-block unit. .
시간인접 동일 위치 머지 모드 후보자 유도부(2432)는, 상기 현재 블록과 시간적으로 인접한 기 복호화된 픽쳐 내 상기 현재 블록의 위치와 동일 위치의 블록의 움직임 정보로부터, 상기 머지 모드 후보자를 유도한다.A temporal adjacent co-location merge mode
공간적 머지 모드 후보자 유도부(2433)는, 상기 현재 블록과 상기 쿼드 트리 및 상기 이진 트리 구조에 의해 분할된 경계선을 기준으로 공간적으로 인접한 적어도 하나의 블록의 움직임 정보로부터 상기 머지 모드 후보자를 유도한다.The spatial merge mode candidate derivator 2433 derives the merge mode candidate from motion information of at least one spatially adjacent block based on a boundary line divided by the current block, the quad tree, and the binary tree structure.
대응 블록 머지 모드 후보자 유도부(2434)는, 상기 현재 블록과 시간적으로 인접한 기 복호화된 픽쳐 내, 상기 현재 블록의 위치에 대응하여 결정된 대응 위치의 블록의 움직임 정보로부터, 상기 머지 모드 후보자를 유도한다.The corresponding block merge
복합 머지 모드 후보자 유도부(2435)는, 상기 현재 블록과 시간적으로 인접한 기 복호화된 픽쳐 내, 상기 현재 블록과 동일 위치의 블록에 대해, 상기 쿼드 트리 및 상기 이진 트리 구조에 의해 분할된 경계선을 기준으로 공간적으로 인접한, 적어도 하나의 블록의 움직임 정보로부터 상기 머지 모드 후보자를 유도한다.The composite merge
서브 블록 머지 모드 후보자 유도부(2439)는 상기 현재 블록과 시간적으로 인접한 기 복호화된 픽쳐 내, 상기 현재 블록의 위치와 동일 위치의 블록을 구성하는 하나 이상의 서브 블록으로부터 상기 머지 모드 후보자를 유도한다.The sub-block merge
그리고, 머지 후보 리스트 구성부(2436)는, 머지 타입 분류에 따라 유도된 하나 이상의 머지 모드 후보자를 이용하여, 머지 모드 움직임 정보 후보 리스트를 구성한다.The merge candidate list forming unit 2436 constructs a merge mode motion information candidate list by using one or more merge mode candidates derived according to the merge type classification.
이에 따라, 머지 후보 리스트 구성부(2436)는 시간인접 동일 위치 머지 모드 후보자, 공간적 머지 모드 후보자, 대응 블록 머지 모드 후보자, 복합 머지 모드 후보자 및 서브 블록 머지 모드 후보자 중 적어도 하나의 후보자를 이용하여 상기 머지 모드 움직임 정보 후보 리스트를 구성할 수 있다.Accordingly, the merge candidate list constructer 2436 uses the at least one candidate of a temporally adjacent co-location merge mode candidate, a spatial merge mode candidate, a corresponding block merge mode candidate, a composite merge mode candidate, and a sub block merge mode candidate. A merge mode motion information candidate list may be constructed.
여기서, 상기 머지 모드 움직임 정보 후보 리스트는, 머지 모드 움직임 정보 후보자가 미리 설정된 우선 순위에 따라 인덱싱된 하나 이상의 움직임 정보 어레이를 포함할 수 있다.Here, the merge mode motion information candidate list may include one or more arrays of motion information indexed by the merge mode motion information candidates according to a preset priority.
예를 들어, 상기 머지 모드 움직임 정보 후보 리스트 구성의 우선 순위는 머지 모드의 타입 정보 분류에 따라 결정될 수 있으며, 머지 후보 리스트 구성부(2436)는 상기 타입 정보에 따라 분류된 하나 이상의 머지 모드 움직임 정보 후보 리스트를 구성할 수 있다. 상기 타입 정보 분류는 공간적 머지 타입 정보 및 시간적 머지 타입 정보를 포함할 수 있다.For example, the priority of the merge mode motion information candidate list construction may be determined according to the type information classification of the merge mode, and the merge candidate list construction unit 2436 may include one or more merge mode motion information classified according to the type information. The candidate list can be constructed. The type information classification may include spatial merge type information and temporal merge type information.
이에 따라, 머지 모드 움직임 정보 후보 리스트는 각 타입 정보에 대응하여 각각의 후보 리스트로서 생성되거나, 통합된 하나의 머지 모드 움직임 정보 후보 리스트로서 생성될 수 있다.Accordingly, the merge mode motion information candidate list may be generated as each candidate list corresponding to each type information or as one merged mode motion information candidate list.
또한, 머지 후보자 선택부(2437)는 시간적 인접성 및 공간적 인접성과, 각 블록 크기, 분할 형태 등의 가변적이고 적응적인 변수와, 부호화 장치(10)로부터 시그널링된 머지 모드 시그널링 정보를 이용하여, 현재 블록의 머지 후보자를 선택할 수 있다.In addition, the merge candidate selector 2437 uses the current block using temporal and spatial adjacency, variable and adaptive variables such as each block size and partition type, and merge mode signaling information signaled from the
예를 들어, 머지 후보자 선택부(2437)는 복호화 할 블록의 블록 크기 정보를 이용하여, 머지 모드 후보를 선택할 수 있다.For example, the merge candidate selector 2437 may select a merge mode candidate using block size information of a block to be decoded.
또한, 예를 들어, 머지 후보자 선택부(2437)는 복호화 할 블록의 블록 크기 정보를 이용하여, 선택할 머지 모드 후보자의 머지 타입을 결정할 수 있다. 머지 후보자 선택부(2437)는 복호화할 블록의 가로 및 세로의 최소 크기가 모두 일정 크기(예를 들어 8) 이상일 경우에, 서브 블록 머지 플래그 정보를 파싱하여, 서브 블록 머지 모드 후보자를 현재 블록의 머지 후보자로 선택할지 여부를 결정할 수 있다.Also, for example, the merge candidate selector 2437 may determine the merge type of the merge mode candidate to be selected by using the block size information of the block to be decoded. The merge candidate selector 2437 parses the sub-block merge flag information when the horizontal and vertical minimum sizes of the block to be decoded are equal to or greater than a predetermined size (for example, 8), thereby selecting the sub-block merge mode candidates from the current block. It may be decided whether to select as a merge candidate.
또한, 머지 모드 움직임 정보 복호화부(243)는, 복호화할 블록의 크기가 64x64 이상이면서, 128 x 128 보다 작을 때, 화면 간 예측 모드와 화면 내 예측 모드의 결합 모드(CIIP, Combined Intra and Inter prediction)에 대응한 부호화 정보를 추가로 파싱하며, 파싱된 부호화 정보에 기초하여 현재 블록의 머지 후보자를 선택하고, 머지 모드 복호화를 수행할 수 있다. In addition, the merge mode
예를 들어, 현재 복호화할 부호화 블록에 대응하여, 화면 간 예측 및 화면 내 예측 결합 모드를 지원하는 결합 모드 부호화가 수행되었을 수 있다. 이 경우, 머지 모드 움직임 정보 복호화부(243)는, 복호화할 블록의 블록 분할 형태가 수직 또는 수평 분할된 코딩 블록인지 판단하고, 수직 또는 수평 분할된 경우에는 머지 모드 정보를 화면 내 예측 모드 정보로부터 획득하여 머지 모드 복호화를 수행할 수 있다. 이러 한 방식의 머지 모드 복호화를 나타내는 별도의 플래그가 시그널링될 수 있으며, 머지 모드 움직임 정보 복호화부(243)는 시그널링된 별도의 플래그(CIIP 모드 플래그, Ciip_flag) 값과 블록 분할 형태 및 블록 크기 정보에 따라 전술한 바와 같은 머지 모드 복호화를 수행할 수 있다. 만약, 블록 크기 및 분할 형태가 상이한 경우 화면 간 예측에 따른 움직임 정보 예측 복호화가 별도로 수행될 수 있다.For example, combined mode encoding may be performed to support inter-picture prediction and intra-picture prediction combining mode in response to a coding block to be currently decoded. In this case, the merge mode
한편, 머지 후보자 선택부(2437)는 상기 머지 모드 움직임 정보 후보 리스트로부터 상기 현재 블록에 대응하는 머지 후보자를 선택할 수 있다.The merge candidate selector 2437 may select a merge candidate corresponding to the current block from the merge mode motion information candidate list.
이에 따라, 예측 블록 생성부(245)는 상기 머지 후보자를 이용하여, 상기 현재 블록의 움직임 정보 예측 복호화를 수행함에 따라 예측 블록을 생성할 수 있다.Accordingly, the
그리고, 확률 정보 업데이트부(2438)는 상기 선택된 머지 후보자를 이용하여, 상기 머지 모드 움직임 정보 후보 리스트의 후보 리스트별 확률 정보를 업데이트할 수 있다.The probability information updater 2438 may update probability information for each candidate list of the merge mode motion information candidate list by using the selected merge candidate.
여기서, 상기 업데이트된 머지 모드 움직임 정보 후보 리스트는, 상기 현재 블록과 상기 머지 모드에 의해 병합된 다음 블록의 머지 모드 움직임 정보 후보 리스트로 이용될 수 있다.Here, the updated merge mode motion information candidate list may be used as a merge mode motion information candidate list of the next block merged by the current block and the merge mode.
또한, 상기 확률 정보 업데이트부(2438)는 도24와 같이 픽쳐 내 슬라이스 , 타일 그룹 또는 타일 그룹 내 타일에대응하여 기 복호화된 움직임 정보를 누적 관리 및 업데이트하여, 현재 블록의 움직임 정보 유도에 이용되도록 할 수 있다.In addition, the probability information updater 2438 accumulates and updates previously decoded motion information corresponding to slices in a picture, a tile group, or a tile in a tile group, as shown in FIG. 24, to be used for deriving motion information of the current block. can do.
보다 구체적으로, 기 복호화된 움직임 정보는 움직임 벡터(Motion Vector) 등이 예시될 수 있고, 현재 블록의 움직임 후보(Motion vector candidate) 중 하나로 이용될 수 있다.More specifically, the previously decoded motion information may include a motion vector and the like, and may be used as one of motion vector candidates of the current block.
이를 위해, 확률 정보 업데이트부(2438) 는 별도의 가상 움직임 후보 리스트(VMVCL, Virtual Motion Vector Candidate list)를 구성할 수 있다. VMVCL은 해당 코딩 블록이 위치한 타일 그룹, 타일 단위 또는 스캔 오더에 따라, 해당 타일 및 타일 그룹 내 CTU들의 행 단위 또는 열 단위 중 하나로 초기화 될 수 있다.To this end, the probability information updater 2438 may construct a separate virtual motion candidate list (VMVCL). The VMVCL may be initialized to one of a row unit or a column unit of CTUs in the tile and the tile group according to the tile group, tile unit, or scan order in which the corresponding coding block is located.
또한, 상기 가상 움직임 후보 리스트는 복호화를 수행할수록 업데이트 되는 특성을 가지며, 그 리스트를 구성하는 MV Candidate의 수는 가변적으로 변경될 수 있다. 가상 움직임 후보 리스트는 FIFO 알고리즘 등에 따라 구축될 수 있으며, 가상 움직임 후보 리스트의 움직임 정보는 현재 블록의 머지 모드 예측 후보 리스트(Merge mode candidate list)의 후보에 추가되어 현재 블록의 움직임 예측에 사용될 수 있다. In addition, the virtual motion candidate list has a characteristic of being updated as decoding is performed, and the number of MV Candidates included in the list may be variably changed. The virtual motion candidate list may be constructed according to a FIFO algorithm or the like, and the motion information of the virtual motion candidate list may be added to a candidate of the merge mode candidate list of the current block and used for motion prediction of the current block. .
도 18은 본 발명의 실시 예에 따른 머지 모드 후보자 유도 및 후보 리스트 구성 방법을 설명하기 위한 흐름도이다.18 is a flowchart illustrating a merge mode candidate derivation and candidate list construction method according to an embodiment of the present invention.
도 18을 참조하면, 본 발명의 실시 예에 따른 머지 모드 움직임 정보 복호화부(243)는, 먼저 머지 타입 분류부(2431)에서 머지 타입 정보를 식별하며(S101), 머지 타입 정보에 대응하는 머지 모드 후보자 유도 프로세스를 결정한다(S103).Referring to FIG. 18, the merge mode
이에 따라, 결정된 머지 모드 후보자 유도 프로세스에 의해, 각 유도부(2432, 2433, 2434, 2345, 2436)중 결정된 유도부는 머지 모드 움직임 정보 후보자를 획득한다(S105).Accordingly, by the determined merge mode candidate derivation process, the derived unit of each of the
여기서, 유도 프로세스의 결정은 머지 타입에 따라 사전 결정되거나, 머지 타입에 대해 미리 설정된 우선 순위에 따라 순차적으로 결정될 수 있다. 예를 들어, 시간인접 동일 위치 머지 모드 후보자 유도부(2432)는 복합 머지 모드 후보자 유도부(2435)보다 우선적으로 머지 모드 후보자를 유도하도록 우선 순위가 설정될 수 있다.Here, the determination of the derivation process may be predetermined according to the merge type or sequentially determined according to the priority set in advance for the merge type. For example, the temporal adjacent co-merge
그리고, 머지 후보 리스트 구성부(2436)는 획득된 머지 모드 후보자의 타입 및 리스트 내 우선 순위에 따라, 상기 하나 이상의 머지 모드 움직임 정보 후보 리스트를 구성한다(S107).The merge candidate list constructing unit 2436 constructs the one or more merge mode motion information candidate lists according to the type of the merge mode candidate and the priority in the list (S107).
도 19 내지 도 20은 본 발명의 실시 예에 따른 머지 모드 후보자 유도 방법들을 각 유도 프로세스별로 설명하기 위해 도식화한 도면들이다.19 to 20 are diagrams for explaining merge mode candidate derivation methods according to an embodiment of the present invention for each derivation process.
도 19는 현재 블록에 대응하는 공간적 머지 모드 후보자 유도부(2433)의 공간적 머지 모드 후보자 결정 방법을 설명하기 위한 도면들이다.19 is a diagram for describing a method of determining a spatial merge mode candidate of the spatial merge mode candidate derivator 2433 corresponding to the current block.
도 19를 참조하면, 현재 블록(CURRENT BLOCK)에 대응하여 상기 현재 블록과 시간적으로 인접한 기 복호화된 픽쳐 내, 상기 현재 블록과 동일 위치의 블록에 대해, 상기 쿼드 트리 및 상기 이진 트리 구조에 의해 분할된 경계선을 기준으로 공간적으로 인접한, 적어도 하나의 블록의 움직임 정보로부터 상기 머지 모드 후보자가 유도될 수 있다.Referring to FIG. 19, a block having the same position as the current block in a pre-decoded picture temporally adjacent to the current block corresponding to a current block is divided by the quad tree and the binary tree structure. The merge mode candidate may be derived from the motion information of at least one block that is spatially adjacent to the defined boundary line.
이와 같이, 공간적으로 인접하도록 사전 결정된 블록들의 움직임 정보는 공간적 머지 모드 후보자로서 유도될 수 있으며, 도 19(A)에 도시된 바와 같이, 기본적으로는 좌측 블록(310), 상단 블록(311), 우상단 블록(312), 좌하단 블록(313), 및 좌상단 블록(314)을 포함할 수 있다. As such, motion information of blocks predetermined to be spatially adjacent may be derived as candidates for spatial merge mode, and as shown in FIG. 19A, basically, a
또한, 본 발명의 실시 예에 따른 공간적 머지 모드 후보자의 유도 범위가 확장될 수 있으며, 이에 대하여 부호화 장치(10)에서 별도 인덱스 또는 플래그와 같은 시그널링 정보가 전송될 수 있다.In addition, the derivation range of the spatial merge mode candidate according to an embodiment of the present invention can be extended, and signaling information such as a separate index or a flag can be transmitted in the
즉, 도 19(B)는 현재 대상 블록의 확장된 머지 모드 움직임 정보 후보자를 나타내는 것으로, 현재 대상 블록의 상단에 위치하는 블록 중 A 위치의 블록(311)의 움직임 정보와 더불어, AR 위치의 블록(316)의 움직임 정보가 확장되어 공간적 머지 모드 움직임 정보 후보자로서 이용될 수 있다. That is, FIG. 19 (B) shows the extended merge mode motion information candidate of the current target block. The block of the AR position, together with the motion information of the
이러한 확장 케이스는, 현재 대상 블록의 상단 블록이 다수개의 블록으로 더 분할되고, 이에 따라 A 블록(311)과 AR 블록(316)이 서로 다른 움직임 정보를 가지는 경우에 적용될 수 있다. 예를 들어, A 블록 또는 AR블록은 바이너리로 최종 분할된 블록일 수 있어, 움직임 정보가 일정 기준 이상 상이할 수 있다.Such an extended case may be applied when the upper block of the current target block is further divided into a plurality of blocks, and thus the
다만, 현재 대상 블록의 상단 블록이 다수개의 블록으로 분할되지 않는 경우에는, 상기 A 블록(311)과 AR 블록(316)위치의 움직임 정보를 비교하여 동일한 경우, 확장된 AR 블록의 움직임 정보는 공간적 머지 모드 움직임 정보 후보자에서 제외되거나, 머지 모드 움직임 정보 후보 리스트에 추가되지 않을 수 있다.However, when the upper block of the current target block is not divided into a plurality of blocks, the motion information of the expanded AR block is spatial when the motion information of the
한편, 도 19(B)에 도시된 바와 같이, 현재 대상 블록의 좌측에 위치하는 블록 중 L 위치의 블록(310)의 움직임 정보와 더불어, BL 위치의 블록(318)의 움직임 정보 또한 확장된 공간적 머지 모드 움직임 정보 후보자로 이용될 수 있다.Meanwhile, as shown in FIG. 19B, in addition to the motion information of the
본 확장 케이스는 현재 대상 블록의 좌측 블록이 다수개의 블록으로 더 분할되고, L 블록(310)과 BL 블록(318)이 서로 다른 움직임 정보를 가지는 경우에 적용될 수 있다. 예를 들어, L 블록 또는 BL 블록은 바이너리로 최종 분할된 블록일 수 있으며, 움직임 정보가 일정 기준이상 서로 상이할 수 있다.This extended case may be applied to a case in which the left block of the current target block is further divided into a plurality of blocks, and the L block 310 and the BL block 318 have different motion information. For example, the L block or the BL block may be a block finally divided into binaries, and motion information may be different from each other by a predetermined reference or more.
다만, 현재 대상 블록의 좌측 블록이 다수개의 블록으로 분할되지 않는 경우에는, 상기 L과 BL 위치의 움직임 정보를 비교하여 동일한 경우, 확장된 BL 블록의 움직임 정보는 공간적 머지 모드 움직임 정보 후보자에서 제외되거나, 머지 모드 움직임 정보 후보 리스트에 추가되지 않을 수 있다.However, when the left block of the current target block is not divided into a plurality of blocks, the motion information of the extended BL block is excluded from the spatial merge mode motion information candidate when the motion information of the L and BL positions is the same. It may not be added to the merge mode motion information candidate list.
이와 같이, 머지 후보 리스트 구성부(2436)가 상기 이웃한 블록으로부터 움직임 후보를 유도하여 리스트를 구성할 때, 그 순서는 미리 설정될 수 있다.As such, when the merge candidate list constructer 2436 constructs a list by deriving a motion candidate from the neighboring block, the order may be set in advance.
일 예로, 머지 후보 리스트 구성부(2436)는 주변 블록으로부터 움직임 정보를 가져올 수 있을 경우, 좌측 블록, 상단 블록, 우측 상단 블록, 좌측 하단 블록, 좌측 상단 블록의 순서로 현재 블록의 머지 모드 후보 리스트를 구성할 수 있다.For example, when the merge candidate list generator 2436 may obtain motion information from the neighboring block, the merge mode candidate list of the current block in the order of the left block, the upper block, the upper right block, the lower left block, and the upper left block. Can be configured.
또한, 머지 후보 리스트 구성부(2436)는 공간적으로 이웃한 블록에서의 움직임 정보 유도를 수행한 이후, 리스트 내 중복 움직임 정보 존재 여부에 따라, 추가적으로 시간적 동일 위치 움직임 후보를 유도하여 현재 블록의 머지 모드 후보 리스트를 구성할 수도 있다.In addition, after the merge candidate list construction unit 2436 performs motion information derivation on a spatially neighboring block, the merge candidate list constructer 2436 additionally derives a temporal co-location motion candidate according to the presence or absence of duplicate motion information in the list to merge the current mode. It is also possible to construct a candidate list.
한편, 도 20은 본 발명의 실시 예에 따른 시간적 및 복합적 머지 모드 후보자 유도 프로세스를 설명하기 위한 도면들이다.20 is a diagram illustrating a temporal and complex merge mode candidate derivation process according to an exemplary embodiment of the present invention.
도 20(A)는 시간인접 동일 위치 머지 모드 후보자 유도부(2432)의 머지 모드 후보자 유도 방식을 나타내는 것으로서, 본 발명의 실시 예에 따르면, 시간인접 동일 위치 머지 모드 후보자 유도부(2432)는 현재 대상 블록의 시간인접 동일 위치의 후보자로부터(Temporal collocated merge candidates) 유도되는 하나의 시간적 움직임 벡터를 상기 머지 모드 움직임 정보 후보자로서 획득할 수 있다.20 (A) illustrates a method of deriving a merge mode candidate of the temporal adjacent co-merge mode
예를 들어, 시간인접 동일 위치 머지 모드 후보자 유도부(2432)는 현재 픽쳐에 대응하는 참조 픽쳐에서, 현재 대상 블록과 동일한 위치의 블록을 식별할 수 있으며, 상기 동일 위치 블록(collocated block)으로부터 유도되는 하나의 시간적 움직임 벡터(temporal motion vector)가 머지 모드 움직임 정보 후보자로서 유도될 수 있다. For example, the temporal adjacent co-location merge mode
본 발명에 일 실시 예에 따른 일 예로써, 타일 그룹의 특성이 B(양방향 인 경우, 시간인접 동일 위치 머지 모드 후보자 유도부(2432)는 현재 복호화를 수행하는 블록에 대응하여, 2개의 참조 픽쳐 리스트 0과 참조 픽쳐 리스트 1 중 하나의 참조 픽쳐 리스트를 선택하여, 동일 위치 블록(collocated block)의 움직임 정보를 유도할 수 있다. 이 때, 참조 픽쳐 리스트의 선택 정보는 임의의 플래그 정보(Collcated_from_ref_list_L0_flag)로 별도로 시그널링될 수 있다.As an example according to an embodiment of the present disclosure, when the characteristic of the tile group is B (two-way), the temporal adjacent co-merge mode
시간인접 동일 위치 머지 모드 후보자 유도부(2432)는 시그널링된 값이 참이면 참조 픽쳐 리스트 0에서 시간인접 예측 후보자(Temporal MVP)를 유도한다. 이와 반대로, 시간인접 동일 위치 머지 모드 후보자 유도부(2432)는 시그널링된 값이 거짓인 경우, 참조 픽쳐 리스트 1에서 시간적 예측 후보자(Temporal MVP)를 유도할 수 있다. The temporal adjacent co-merge
예를 들어, 도 20(A)에서는 시간 인접 픽쳐의 동일 위치 블록(collocated block)의 우하단 블록(421)의 모션 벡터로부터 머지 모드 움직임 정보 후보자가 유도될 수 있다. For example, in FIG. 20A, a merge mode motion information candidate may be derived from a motion vector of a lower
한편, 시간인접 동일 위치 머지 모드 후보자 유도부(2432)는 그 우하단 블록(421)에서 모션 벡터가 유도되지 않는 경우에는 그 중심위치(422)의 모션 벡터로부터 상기 머지 모드 움직임 정보 후보자를 유도할 수도 있다.Meanwhile, if the motion vector is not derived in the lower
한편, 도 20(B)는 본 발명의 실시 예에 따른 대응 블록 머지 모드 후보자 유도부(2434)의 머지 모드 후보자 유도를 도시한 것으로, 대응 블록 머지 모드 후보자 유도부(2434)는 현재 대상 블록의 시간적으로 인접한 참조 픽쳐의 상기 현재 블록의 위치에 대응하여 결정된 대응 위치의 블록의 움직임 정보로부터 머지 모드 움직임 정보 후보자를 유도할 수 있으며, 이를 향상된 시간적 머지 모드 움직임 후보예측자(ATMVP)라고 부를 수 있다. 이때, 상기 대응 위치는 미리 정의된 규칙에 따라, 현재 블록의 공간적으로 인접한 블록들로부터 유도되는 움직임 정보를 이용하여 해당 대응 위치를 유도할 수 있다.Meanwhile, FIG. 20B illustrates a merge mode candidate derivation of the corresponding block merge mode
예를 들어, 도 20(B)와 같이, 대응 위치 블록에서 유도되는 하위 블록(서브 블록, Sub-block) 단위의 다수개의 모션 벡터가 존재할 수 있으며, 본 발명의 일 실시예에 따르면, 대응 블록 머지 모드 후보자 유도부(2434)는 상기 대상 블록으로부터 유도된 시간인접 움직임 벡터(TEMPORAL VECTOR)를 대응 블록 머지 모드 후보자로서 결정할 수 있다.For example, as shown in FIG. 20B, a plurality of motion vectors in units of sub-blocks derived from corresponding position blocks may exist, and according to an embodiment of the present invention, corresponding blocks The merge
여기서, 머지 모드 후보 리스트 구성부(2436)는 현재 대상 블록의 머지 모드 후보 리스트 구성에 있어서, 상기 대응 블록 머지 모드 후보자 유도부(2434)로부터 획득된 후보자를 가장 우선적으로 리스트에 삽입할 수 있다.Here, in the merge mode candidate list structure of the current target block, the merge mode candidate list constructing unit 2436 may firstly insert candidates obtained from the corresponding block merge mode
한편, 도 20(C)는 현재 대상 블록의 시간 인접한 픽쳐 내 동일 위치 블록에 대응하는 움직임 정보 후보자 중, 상기 쿼드 트리 및 상기 이진 트리 구조에 의해 분할된 경계선을 기준으로 공간적으로 인접한, 적어도 하나의 블록의 움직임 정보로부터 상기 머지 모드 후보자를 유도하는 복합 머지 모드 후보자 유도 처리를 나타낸다.20 (C) shows at least one of spatially adjacent motion information candidates corresponding to the same position block in a time-adjacent picture of the current target block, based on a boundary line divided by the quad tree and the binary tree structure. The composite merge mode candidate derivation process of deriving the merge mode candidate from the motion information of the block is shown.
도 20(C)와 같이 복합 머지 모드 후보자 유도부(2435)는 시간 인접한 픽쳐 의 블록 중 현재 블록의 위치를 기준으로 공간적으로 인접한 블록으로부터 유도되는 움직임 벡터 또는 서브 블록 단위 움직임 벡터로부터 상기 머지 모드 후보자를 유도할 수 있다. 이를, 시공간적 머지 모드 움직임 정보 후보자(STMVP)라고 부를 수 있다.As shown in FIG. 20C, the composite merge
또한, 복합 머지 모드 후보자 유도부(2435)는 상기 현재 블록의 첫번째 서브 블록(440)의 움직임 정보를 유도하기 위하여, 공간적으로 인접한 블록 중 좌측 서브 블록(442)과 상단 서브 블록(441), 시간적으로(temporally) 인접한 동일위치 블록(co-located block)의 서브 블록(443)의 움직임 정보(motion vector) 평균 값 또는 중간값을 사용하여, 머지 후보자를 복합 연산에 따라 유도할 수도 있다.In addition, the composite merge
다만, 상기 공간적 및 시간적으로 인접한 서브 블록 중 참조 불가능한 서브 블록이 존재할 경우, 해당 서브 블록을 제외한 하나 이상의 나머지 서브 블록의 움직임 정보(motion vector)의 평균 값 또는 중간 값이 상기 복합 머지 후보자로 유도될 수도 있다.However, when there is a non-referenced subblock among the spatially and temporally adjacent subblocks, an average value or a median value of motion vectors of one or more remaining subblocks except for the corresponding subblock may be derived as the composite merge candidate. It may be.
한편, 머지 모드 움직임 정보 복호화부(243)는, 부호화 장치(10)로부터 부호화된 머지 모드 차분 움직임 정보를 머지 후보자와 결합하여 새로운 움직임 정보를 생성할 수 있으며, 생성된 움직임 정보는 머지 모드 리스트에 추가될 수 있다. 여기서, 상기 머지 모드 차분 움직임 정보는, 머지 후보자에 대응하는 추가적인 거리 정보 및 방향 정보를 포함할 수 있다.Meanwhile, the merge mode
예를 들어, 머지 모드 움직임 정보 복호화부(243)는 머지 모드 후보 리스트 중 하나의 움직임 정보와, 복호화된 MVD 정보와 같은 예측 파라미터 정보를 이용하여 새로운 움직임 정보를 생성할 수 있다.For example, the merge mode
보다 상세하게, 예측 파라미터 정보는 거리(Distance) 정보 및 방향 정보(Direction)를 포함하는 오프셋 정보일 수 있다. 머지 모드 움직임 정보 복호화부(243)는 기 선택된 머지 후보자에 이를 결합하여 새로운 움직임 정보를 생성하고, 이를 머지 후보 리스트에 추가할 수 있다. In more detail, the prediction parameter information may be offset information including distance information and direction information. The merge mode
여기서, 상기 거리 정보는 미리 설정된 테이블에 의해 지시될 수 있으며, 이에 대응하는 인덱스 정보가 상기 거리 정보를 나타낼 수도 있다.The distance information may be indicated by a preset table, and index information corresponding thereto may indicate the distance information.
예를 들어, 상기 새로 생성된 움직임 정보를 머지 움직임 정보를 Merge_MV 라 하고, 머지 모드 리스트는 MergeCandidateList [i] (i = 0, 쪋, Maximum number of mergecandidate)로 하며, 오프셋 정보의 거리 정보는 Merge_MVD_Dis, 방향 정보는 Merge_MVD_Dir 로 나타낼 때, For example, the newly generated motion information is called merge motion information as Merge_MV, and the merge mode list is MergeCandidateList [i] (i = 0, 쪋, Maximum number of mergecandidate), and the distance information of the offset information is Merge_MVD_Dis, When direction information is represented by Merge_MVD_Dir,
TempMV = MergeCandidateList [ 0 ]; 또는 TempMV = MergeCandidateList [0]; or
TempMV = MergeCandidateList [ 1 ]; TempMV = MergeCandidateList [1];
Merge_MV_Cand = TempMV + (Merge_MVD_Dis * Merge_MVD_Dir);Merge_MV_Cand = TempMV + (Merge_MVD_Dis * Merge_MVD_Dir);
을 수행하여, 머지 후보 리스트에서 유도한 움직임 정보 중 하나를 이용한 새로운 움직임 정보(Merge_MVCand)를 생성할 수 있다. Next, new motion information (Merge_MVCand) using one of the motion information derived from the merge candidate list may be generated.
또한, 기 구성된 머지 후보 리스트의 움직임 정보를 이용하여, 추가적인 신규 움직임 정보를 생성하여야 함을 나타내는 시그널링 정보가 부호화 장치(10)로부터 시그널링될 수 있으며, 예를 들어 Merge_MVD_Flag와 같은 플래그로 지시될 수 있다. Merge_MVD_Flag가 참인 경우, Offset 파라미터인 Merge_MVD_Distance_Index와 Merge_MVD_Dir_Index가 지시될 수 있으며, 별도 의 테이블 인덱스에 의해 그 값이 지시될 수 있다. In addition, signaling information indicating that additional new motion information should be generated using motion information of the previously configured merge candidate list may be signaled from the
또한, 머지 모드 움직임 정보 복호화부(243)는, Merge_MVD_Distance_Index와, 헤더 정보로부터 유도되는 스케일링 정보를 이용하여, 실제 차분 신호 값을 유도할 수도 있다. Merge_MVD_Dir_index는 방향 정보일 수 있으며, 각각 4개의 방향 정보를 포함할 수 있다.In addition, the merge mode
한편, 머지 후보 리스트 구성부(2436)는, 머지 후보 리스트에 추가되는 후보자(Candidate) 중 하나를 결정하기 위해, 평균 머지 후보 움직임 정보를 연산할 수 있다.Meanwhile, the merge candidate list construction unit 2436 may calculate average merge candidate motion information to determine one of candidates added to the merge candidate list.
예를 들어, 머지 후보 리스트 구성부(2436)는 현재 복호화할 코딩 유닛의 머지 후보 리스트를 구성함에 있어, 복수의 머지 모드 후보자 유도 프로세스를 수행했음에도, 현재 머지 후보 리스트 크기가 머지 후보 리스트 최대 크기(MaxNumMergeCand)보다 작을 경우 경우, 상기 평균 머지 후보 움직임 정보를 생성하여 상기 리스트에 삽입할 수 있다.For example, in constructing a merge candidate list of a coding unit to be currently decoded, the merge candidate list constructing unit 2436 performs a merge mode candidate derivation process, but the current merge candidate list size is the maximum size of the merge candidate list ( If less than MaxNumMergeCand), the average merge candidate motion information may be generated and inserted into the list.
이를 위해, 머지 후보 리스트 구성부(2436)는 기 구성된 머지 후보 리스트로부터 획득되는 하나 이상의 움직임 정보를 이용하여, 그 평균 움직임 벡터 값(AVG_MV)를 계산할 수 있다. To this end, the merge candidate list constructer 2436 may calculate the average motion vector value AVG_MV using one or more motion information obtained from the previously configured merge candidate list.
MV_Cand0 = MergeCandidateList [0];MV_Cand0 = MergeCandidateList [0];
MV_Cand1 = MergeCandidateList [1];MV_Cand1 = MergeCandidateList [1];
Merge_AVG_MV = ( MV_Cand0 + MV_Cand1 ) / 2;Merge_AVG_MV = (MV_Cand0 + MV_Cand1) / 2;
따라서, 머지 후보 리스트 구성부(2436)는 상기 연산에 의해 생성된 Merge_AVG_MV를 아래와 같이 머지 후보 리스트에 조건부로 삽입할 수 있다.Accordingly, the merge candidate list construction unit 2436 may conditionally insert the Merge_AVG_MV generated by the above operation into the merge candidate list as follows.
MergeCandidateList [ i ] = Merge_AVG_MV;(1 < i < Maximum Number of Merge Candidate) MergeCandidateList [i] = Merge_AVG_MV; (1 <i <Maximum Number of Merge Candidate)
한편, 도 20(D)와 같이, 서브 블록 머지 모드 후보자 유도부(2435)는 기 현재 블록과 시간적으로 인접한 기 복호화된 픽쳐 내, 상기 현재 블록의 위치와 동일 위치의 블록을 구성하는 하나 이상의 서브 블록으로부터 상기 머지 모드 후보자를 유도할 수 있다.Meanwhile, as shown in FIG. 20D, the sub-block merge mode
도 20(D)를 참조하면, 현재 대상 블록의 시간 인접한 참조 픽처의 동일 위치 블록으로부터 유도되는 서브-블록 단위의 다수개의 움직임 정보(motion vector)가 존재할 수 있으며, 서브 블록 머지 모드 후보자 유도부(2435)는 상기 서브 블록을 참조하여 머지 모드 움직임 정보 후보자를 획득할 수 있다.Referring to FIG. 20 (D), there may be a plurality of motion vectors in units of sub-blocks derived from co-located blocks of temporally adjacent reference pictures of the current target block, and the sub-block merge mode candidate derivation unit 2435 ) May obtain a merge mode motion information candidate with reference to the subblock.
도 21은 본 발명의 실시 예에 따른 머지 모드 움직임 정보 후보 리스트의 구성 및 업데이트 방법을 설명하기 위한 흐름도이며, 도 22 내지 도 24는 본 발명의 실시 예에 따른 머지 모드 움직임 정보 후보 리스트의 구성 및 갱신 프로세스를 설명하기 위해 도식화한 도면들이다.21 is a flowchart illustrating a method of constructing and updating a merge mode motion information candidate list according to an embodiment of the present invention, and FIGS. 22 to 24 are views illustrating a configuration and configuration of a merge mode motion information candidate list according to an embodiment of the present invention. Figures are schematic diagrams for explaining the update process.
도 21을 참조하면, 머지 후보자 선택부(2437)에서 머지 후보자 리스트로부터 머지 후보자가 선택되면(S201), 움직임 보상 예측부(240)에서는 상기 선택된 머지 후보자를 이용한 움직임 정보의 머지 모드 복호화를 수행할 수 있다(S203).Referring to FIG. 21, when a merge candidate is selected from the merge candidate list in the merge candidate selector 2437 (S201), the
이후, 확률 정보 업데이트부(2438)는 선택된 머지 후보자 인덱스에 대응하는 머지 후보자의 확률 정보를 업데이트하며(S205), 머지 후보 리스트 구성부(2436)는 업데이트된 확률 정보에 따라 머지 후보자 리스트의 순서를 변경 처리한다(S207).Thereafter, the probability information updater 2438 updates the probability information of the merge candidates corresponding to the selected merge candidate index (S205), and the merge candidate list construction unit 2436 orders the merge candidate list according to the updated probability information. Change processing (S207).
도 22는 본 발명의 일 실시예에 따라 구성된 머지 모드 움직임 정보 후보 리스트의 예시한 것이다.22 illustrates an example of a merge mode motion information candidate list constructed according to an embodiment of the present invention.
현재 블록의 머지 모드 움직임 정보 후보 리스트를 구성함에 있어, 머지 후보 리스트 구성부(2436)는 전술한 바와 같이 상기 미리 정의된 구성 순서에 따라, 후보 리스트에 유도된 머지 후보자를 추가할 수 있다. 각 추가된 머지 후보자는 유도된 타입 정보 또는 위치 정보에 대응할 수 있다. 예를 들어, 공간적 머지 후보자의 경우 유도된 위치 정보(L, AL, AR, BL, BR 등)가 예시될 수 있으며, 다른 머지 후보자의 경우에도 전술한 바와 같이 ATMVP, STMVP 등의 타입 정보가 예시될 수 있으며, 각 후보 리스트 구성 시 이와 같은 위치 및 타입 정보가 우선 순위 결정에 고려될 수 있다.In constructing the merge mode motion information candidate list of the current block, the merge candidate list construction unit 2436 may add the merge candidates derived to the candidate list according to the predefined configuration order as described above. Each added merge candidate may correspond to derived type information or location information. For example, derived spatial information (L, AL, AR, BL, BR, etc.) may be illustrated in the case of a spatial merge candidate, and type information such as ATMVP, STMVP, etc. may be illustrated in the case of other merge candidates as described above. Such location and type information may be considered in determining the priority when constructing each candidate list.
또한, 후보 리스트는 도 22(A)와 같이 통합된 단일의 리스트로서 구성될 수 있으며, 도 22(B) 와 같이, 각 타입 또는 위치별로 분리된 복수의 리스트(list0, list1, ...)로 구성될 수도 있다.In addition, the candidate list may be configured as a single list integrated as shown in FIG. 22A, and as shown in FIG. 22B, a plurality of lists separated by each type or position (list0, list1, ...) It may be configured as.
부호화 장치(10)에서는 현재 블록과 공간적으로 인접한 블록에서 움직임 정보를 참조할 때, 타일 그룹의 특성 정보에 따라, 복수의 참조 픽쳐 리스트 중 하나를 선택할 수 있으며, 참조 픽쳐 리스트 선택 정보는 복호화 장치(20)로 전달될 수 있다.In the
복호화 장치(20)에서는 전달받은 참조 픽쳐 리스트 선택 정보를 이용하여, 동일 위치 블록(Collocated block)에서 시간적으로 인접한 ATMVP(Temporal Motion Vector prediction에 의해 유도된 움직임 정보)를 유도할 수 있으며, 상기 유도된 ATMVP는 머지 후보 리스트에 추가될 수 있다.The
이에 따라, 머지 후보 리스트 구성부(2436)가 복수의 머지 리스트를 구성할 때, 도 22(B)와 같이 ATMVP를 제2 머지 모드 리스트(list 1)의 0번째 인덱스에 추가할 수 있다. 0번째 인덱스에 추가된 이유는, 동일 위치 블록(Collocated block)에서 시간적으로 인접한 ATMVP가 가장 유사하여 추가적인 제2 머지 모드 리스트 구성시 부호화 효율이 가장 높은 후보 중 하나이기 때문이다.Accordingly, when the merge candidate list forming unit 2436 constructs a plurality of merge lists, the ATMVP can be added to the 0th index of the second merge
한편, 우선 순위의 예로서, 현재 블록(300)의 공간적 좌측에 인접한 블록(310)의 움직임 정보가 가장 먼저 후보자로 삽입될 수 있으며, 다음으로 현재 블록(300)의 공간적으로 상단에 인접한 블록(311)의 움직임 정보가 두 번째 후보로 추가될 수 있다. 이후, 상기 두 가지 공간적으로 인접한 공간적 머지 모드 후보자 유도부(2433)의 후보들을 list에 추가한 이후, 시간인접 동일 위치 머지 모드 후보자 유도부(2432)의 ATMVP 후보자들이 추가될 수 있으며, 이후 복합 머지 모드 후보자 유도부(2435)의 STMVP 후보자들이 추가된 이후, 확장된 서브 블록 머지 모드 후보자 유도부(2435)의 서브 블록 단위 후보자들이 추가되거나, 다시 공간적 머지 모드 후보자 유도부(2433)의 공간적으로 인접한 후보자들 또는 대응 블록 머지 모드 후보자 유도부(2434)의 시간적 인접한 후보자들이 추가될 수 있다.Meanwhile, as an example of priority, the motion information of the
한편, 상기 후보들을 리스트에 추가함에 있어, 각 참조 블록들의 움직임 정보가 참조 가능한 경우에만 추가될 수 있다. 상기 각 참조 블록들의 움직임 정보가 참조 가능한 경우라 함은 참조 블록이 화면 간 예측 모드로 코딩된 경우를 의미할 수 있다.Meanwhile, in adding the candidates to the list, the candidate information may be added only when the motion information of each reference block can be referred to. The case where the motion information of each reference block is referenceable may mean a case in which the reference block is coded in the inter prediction mode.
한편, 도 23은 본 발명의 일 실시예에 따른 확률 정보 테이블 및 리스트 업데이트를 나타낸다.23 illustrates a probability information table and list update according to an embodiment of the present invention.
현재 블록의 머지 모드 움직임 정보 후보 리스트을 구성함에 있어, 본 발명의 일 실시예에 따른 부호화 장치(10) 또는 복호화 장치(20)는, 도 23(A)와 같이 후보 리스트를 초기화 하고, 부호화 또는 복호화가 수행됨에 따른 확률 업데이트에 의해, 리스트 구성 순서를 적응적으로 변경할 수 있다.In constructing the merge mode motion information candidate list of the current block, the
예를 들어, 도 23(B)와 같이, 후보 리스트 구성부(2436)는, 리스트에 추가되는 머지 후보자들에 대응하는 각각의 초기 확률 값(a, b, c, d, e, f, ..., n)을 할당할 수 있으며, 후보 리스트 구성부(2436)은 확률 테이블에 의하여 내림차순으로 정렬하여, 리스트를 순차적으로 구성할 수 있다.For example, as shown in FIG. 23B, the candidate list constructing unit 2436 includes respective initial probability values a, b, c, d, e, f,... Corresponding to merge candidates added to the list. ..., n) may be assigned, and the candidate list constructing unit 2436 may form the list sequentially by sorting in descending order according to the probability table.
그리고, 도 23(C)와 같이, 확률 정보 업데이트부(2438)의 확률 정보 갱신(a', b', c', d', e', f', ..., n')에 따라, 후보 리스트 구성부(2436)는 리스트의 순서를 재정렬할 수 있다.23 (C), according to the probability information update (a ', b', c ', d', e ', f', ..., n ') of the probability information updater 2438, The candidate list constructer 2436 may rearrange the order of the list.
이러한 상기 확률 값은 특정 정수 형태의 값이거나, 대상 머지 후보자의 선택 비율 또는 발생 비율에 따라 결정될 수 있다.The probability value may be a value of a specific integer form or may be determined according to a selection rate or a generation rate of the target merge candidate.
또한, 초기 확률 값은 미리 정의된 값을 사용하거나, 부호화 장치(10)에서 복호화 장치(20)로 전송될 수도 있다. 이러한 확률 정보 테이블은 다양한 구현 형태로 구현될 수 있다.In addition, the initial probability value may use a predefined value or may be transmitted from the
그리고, 확률 정보 업데이트부(2438)는 현재 블록의 머지 대상 후보자 블록이 선정되면, 그 결과 값을 이용하여 확률 값 및 테이블의 업데이트를 수행할 수 있다. When the merge candidate candidate block of the current block is selected, the probability information updater 2438 may update the probability value and the table by using the result value.
상기 업데이트의 수행 결과에 따라 변경된 확률 값에 기초하여, 머지 모드 후보 리스트 구성부(2436)는 다시 내림차순으로 정렬될 수 있다.Based on the probability value changed according to the result of performing the update, the merge mode candidate list constructer 2436 may be again sorted in descending order.
본 발명에 따른 또 다른 일실시 예로서, 상기 확률 정보 테이블은 현재 대상 블록의 부호화 정보에 따라 복수 개의 개별 테이블로도 구성될 수 있으며, 부호화 정보는 블록의 크기, 블록의 분할 형태, 블록의 깊이 정보 중 적어도 하나를 포함할 수 있다.According to another embodiment of the present invention, the probability information table may be configured as a plurality of individual tables according to the encoding information of the current target block, and the encoding information may include a block size, a partition type, a block depth, and the like. It may include at least one of the information.
한편,도 24는 본 발명의 실시 예에 따른 머지 모드 후보 리스트 초기 구성 및 순차적 업데이트 방법을 도시한다. 도 24를 참조하면, 코딩 트리 블록(CTB)의 크기는 256 x 256으로 확장될 수 있으며, 이와 같이 확장된 코딩 트리 블록에 대한 머지 모드 후보 리스트가 구성되고, 코딩 트리 블록 내 코딩 블록별 확률 업데이트 및 갱신 처리가 수행될 수 있다.Meanwhile, FIG. 24 illustrates a merge mode candidate list initial configuration and a sequential update method according to an embodiment of the present invention. Referring to FIG. 24, the size of a coding tree block (CTB) may be extended to 256 × 256, a merge mode candidate list for the extended coding tree block is configured, and probability updates for each coding block in the coding tree block are updated. And update processing can be performed.
이를 위해, 머지 모드 움직임 후보 리스트는 초기 블록(initial block)에 대응하여 미리 설정된 주변 블록들로부터 유도되어 구성될 수 있다.To this end, the merge mode motion candidate list may be derived from a predetermined neighboring block corresponding to the initial block.
그리고, 이후, 코딩 트리 블록으로부터 분할된 하위 코딩 블록들에 대한 화면 간 예측 복호화를 수행할 때마다, 시간적, 공간적 주변 블록들로부터 전술한 각 유도 프로세스에 의해 결정된 머지 후보자별 확률 정보에 따라 리스트 구성 순서가 업데이트 될 수 있다.Then, whenever inter-prediction decoding is performed on sub-coded blocks divided from coding tree blocks, a list is constructed according to probability information for merge candidates determined by the above-described derivation processes from temporal and spatial neighboring blocks. The order can be updated.
이에 따라, 초기 블록 이후, 단계적으로 업데이트된 블록 N을 처리하는 머지 후보자 선택부(2437)는 시간적 공간적 인접 또는 복합 유도된 주변 블록으로부터 N차 확률 누적된 머지 모드 움직임 후보 리스트를 이용하여, 부호화 효율이 최적화된 머지 움직임 정보를 선택할 수 있다.Accordingly, after the initial block, the merge candidate selector 2437, which processes the block N updated in stages, uses the merge mode motion candidate list in which the N-order probability is accumulated from the temporal spatially adjacent or complex derived neighboring blocks, thereby encoding efficiency. This optimized merge motion information can be selected.
이러한 머지 모드 선택 정보에 따른 누적 복호화 확률 정보는 래스터 스캔 순서(Raster Scan order)에 따라, 순차적으로 누적될 수 있으며, 이후 현재 블록 N으로부터, 다음의 N+1 블록, N+2 블록,..., 및 현재 코딩 트리 블록 내 마지막 블록(Block End)까지 순차적으로 더 업데이트됨으로써 이후 처리되는 블록들의 머지 모드 움직임 정보 부호화 효율 및 정확도는 더욱 높아질 수 있다.The cumulative decoding probability information according to the merge mode selection information may be sequentially accumulated according to a raster scan order, and then, from the current block N, the next N + 1 block, N + 2 block, .. And further sequentially update to the last block (Block End) in the current coding tree block, so that merge mode motion information coding efficiency and accuracy of subsequent processed blocks can be further increased.
도 25 내지 도 27은 본 발명의 실시 예에 따른 헤더 정보의 하이 레벨 신택스를 설명하기 위해 도식화한 도면들이다.25 to 27 are diagrams for explaining high level syntax of header information according to an embodiment of the present invention.
Collocated_from_l0_flag는 향상된 시간적 머지 모드 움직임 후보 예측자(ATMVP) 유도여부를 나타내며, 상기 변수 값이 1이면, 참조 픽쳐 리스트 0에서 ATMVP를 유도하고, 값이 0이면, 참조 픽쳐 리스트 1에서 ATMVP를 유도할 수 있다.Collocated_from_l0_flag indicates whether the temporal merge mode motion candidate predictor (ATMVP) is derived. If the variable value is 1, ATMVP can be derived from
또한, 앞서 설명한 Merge_MVD_Flag 는 기 구성된 머지 후보 리스트의 움직임 정보를 이용하여, 추가적인 신규 움직임 정보를 생성하여야 함을 나타낼 수 있으며, 이는 도 25에서 타일 그룹에 대응하는 tile_group_mmvd_enabled_flag와 같은 형태로 지시될 수 있다. 그리고, 각 mmvd_flag에 대응하는 distance 및 direction이 각각 merge data에 지시될 수 있다.In addition, Merge_MVD_Flag described above may indicate that additional new motion information should be generated using motion information of a previously configured merge candidate list, which may be indicated as a tile_group_mmvd_enabled_flag corresponding to a tile group in FIG. 25. In addition, distance and direction corresponding to each mmvd_flag may be indicated to merge data, respectively.
그리고, 머지 모드 시그널링 정보는 최대 머지 후보 구성 개수(Maximum number of MVP candidate) 정보를 포함할 수 있으며, Max_num_merge_cand와 같은 플래그로 지시되며, 이는 각 서브 블록별로 할당될 수 있다. 예를 들어, 머지 모드 움직임 정보 복호화부(243)는 현재 블록이 속한 타일 그룹에 대응하는 일정 개수를 차감하여, 현재 블록이 속한 타일 그룹의 머지 모드에 따른 리스트 크기를 사전 결정할 수 있다.The merge mode signaling information may include maximum number of MVP candidate information and may be indicated by a flag such as Max_num_merge_cand, which may be allocated to each subblock. For example, the merge mode
또한, 서브 블록에서 움직임 정보를 유도하여 머지 모드 리스트를 구성한 경우, 머지 모드 움직임 정보 복호화부(243)는 별도의 플래그 정보(merge_subblock_flag)를 파싱하여 각 서브 블록의 머지 모드 움직임 정보 부호화 여부를 확인할 수 있다.In addition, when a merge mode list is constructed by deriving motion information from a subblock, the merge mode
또는, 머지 모드 움직임 정보 복호화부(243)는 앞서 상술한 바와 같이 CIIP 모드로 부호화 된 경우, 별도의 CIIP 모드 플래그(Ciip_flag)를 이용하여 CIIP 모드에서의 머지 모드 부호화 여부를 판단할 수 있다. CIIP 모드의 경우, MPM(Most provable mode) 플래그의 유무에 따라 인트라 또는 인터 예측이 결정될 수 있으며, 인터 예측에서 머지 모드가 적용될 수 있기 때문이다.Alternatively, when the merge mode
한편, 삼각형(Triangle)으로 화면 간 예측이 수행될 수도 있다. 이 경우, 이에 따른 머지 모드 리스트를 생성할 수 있으며, merge_triangle_flag, merge_triangle_split_dir(분할 방향 정보) 및 인덱스 정보를 통해 삼각형 예측 모드에 따른 머지 모드 정보가 시그널링될 수 있다.Meanwhile, inter prediction may be performed by a triangle. In this case, the merge mode list may be generated, and merge mode information according to the triangular prediction mode may be signaled through merge_triangle_flag, merge_triangle_split_dir (division direction information), and index information.
상술한 본 발명에 따른 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.The method according to the present invention described above may be stored in a computer-readable recording medium that is produced as a program for execution on a computer, and examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape , Floppy disks, optical data storage devices, and the like, and also include those implemented in the form of carrier waves (eg, transmission over the Internet).
컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The computer readable recording medium can be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. In addition, functional programs, codes, and code segments for implementing the method can be easily inferred by programmers in the art to which the present invention belongs.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해 되어서는 안될 것이다.In addition, although the preferred embodiment of the present invention has been shown and described above, the present invention is not limited to the specific embodiments described above, but the technical field to which the invention belongs without departing from the spirit of the invention claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical spirit or prospect of the present invention.
Claims (13)
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR20180040614 | 2018-04-06 | ||
| KR10-2018-0040614 | 2018-04-06 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2019194653A1 true WO2019194653A1 (en) | 2019-10-10 |
Family
ID=68100877
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/KR2019/004100 Ceased WO2019194653A1 (en) | 2018-04-06 | 2019-04-05 | Image processing method for providing complex merge mode process of motion information, image decoding and encoding method using same, and apparatus thereof |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2019194653A1 (en) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB2585018A (en) * | 2019-06-24 | 2020-12-30 | Canon Kk | Residual signalling |
| GB2585019A (en) * | 2019-06-24 | 2020-12-30 | Canon Kk | Residual signalling |
| CN112398481A (en) * | 2020-11-20 | 2021-02-23 | 南京轨道交通系统工程有限公司 | Feedback type matching prediction multistage real-time compression system and method |
| CN113225552A (en) * | 2021-05-12 | 2021-08-06 | 天津大学 | Intelligent rapid interframe coding method |
| US20220021894A1 (en) * | 2019-04-09 | 2022-01-20 | Beijing Dajia Internet Information Technology Co., Ltd. | Methods and apparatuses for signaling of merge modes in video coding |
| US20220321880A1 (en) * | 2019-09-23 | 2022-10-06 | Electronics And Telecommunications Research Institute | Image encoding/decoding method and device, and recording medium storing bitstream |
| US11632568B2 (en) * | 2019-06-19 | 2023-04-18 | Lg Electronics Inc. | Image decoding method for performing inter-prediction when prediction mode for current block ultimately cannot be selected, and device for same |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20140064944A (en) * | 2011-09-09 | 2014-05-28 | 엘지전자 주식회사 | Inter prediction method and apparatus therefor |
| KR20140074945A (en) * | 2011-11-07 | 2014-06-18 | 인포브릿지 피티이 엘티디 | Method of constructing merge list |
| KR20140105038A (en) * | 2012-01-20 | 2014-09-01 | 주식회사 아이벡스피티홀딩스 | Apparatus for decoding motion information in merge mode |
| KR20160132859A (en) * | 2014-03-14 | 2016-11-21 | 삼성전자주식회사 | Method and device for configuring merge candidate list for decoding and encoding of interlayer video |
| KR20180007345A (en) * | 2016-07-12 | 2018-01-22 | 한국전자통신연구원 | A method for encoding/decoding a video and a readable medium therefor |
-
2019
- 2019-04-05 WO PCT/KR2019/004100 patent/WO2019194653A1/en not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20140064944A (en) * | 2011-09-09 | 2014-05-28 | 엘지전자 주식회사 | Inter prediction method and apparatus therefor |
| KR20140074945A (en) * | 2011-11-07 | 2014-06-18 | 인포브릿지 피티이 엘티디 | Method of constructing merge list |
| KR20140105038A (en) * | 2012-01-20 | 2014-09-01 | 주식회사 아이벡스피티홀딩스 | Apparatus for decoding motion information in merge mode |
| KR20160132859A (en) * | 2014-03-14 | 2016-11-21 | 삼성전자주식회사 | Method and device for configuring merge candidate list for decoding and encoding of interlayer video |
| KR20180007345A (en) * | 2016-07-12 | 2018-01-22 | 한국전자통신연구원 | A method for encoding/decoding a video and a readable medium therefor |
Cited By (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20220021894A1 (en) * | 2019-04-09 | 2022-01-20 | Beijing Dajia Internet Information Technology Co., Ltd. | Methods and apparatuses for signaling of merge modes in video coding |
| US12470729B2 (en) * | 2019-04-09 | 2025-11-11 | Beijing Dajia Internet Information Technology Co., Ltd. | Methods and apparatuses for signaling of merge modes in video coding |
| US11632568B2 (en) * | 2019-06-19 | 2023-04-18 | Lg Electronics Inc. | Image decoding method for performing inter-prediction when prediction mode for current block ultimately cannot be selected, and device for same |
| US12096022B2 (en) | 2019-06-19 | 2024-09-17 | Lg Electronics Inc. | Image decoding method for performing inter-prediction when prediction mode for current block ultimately cannot be selected, and device for same |
| GB2585018A (en) * | 2019-06-24 | 2020-12-30 | Canon Kk | Residual signalling |
| GB2585019A (en) * | 2019-06-24 | 2020-12-30 | Canon Kk | Residual signalling |
| US20220321880A1 (en) * | 2019-09-23 | 2022-10-06 | Electronics And Telecommunications Research Institute | Image encoding/decoding method and device, and recording medium storing bitstream |
| US12041227B2 (en) * | 2019-09-23 | 2024-07-16 | Electronics And Telecommunications Research Institute | Image encoding/decoding method and device, and recording medium storing bitstream |
| CN112398481A (en) * | 2020-11-20 | 2021-02-23 | 南京轨道交通系统工程有限公司 | Feedback type matching prediction multistage real-time compression system and method |
| CN112398481B (en) * | 2020-11-20 | 2024-03-19 | 南京轨道交通系统工程有限公司 | Feedback type matching prediction multistage real-time compression system and method |
| CN113225552A (en) * | 2021-05-12 | 2021-08-06 | 天津大学 | Intelligent rapid interframe coding method |
| CN113225552B (en) * | 2021-05-12 | 2022-04-29 | 天津大学 | Intelligent rapid interframe coding method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2018070809A1 (en) | Image processing method, and image decoding and encoding method using same | |
| WO2017204427A1 (en) | Image processing method, and image encoding and decoding method using same | |
| WO2012005520A2 (en) | Method and apparatus for encoding video by using block merging, and method and apparatus for decoding video by using block merging | |
| WO2017204532A1 (en) | Image encoding/decoding method and recording medium for same | |
| WO2018030773A1 (en) | Method and apparatus for image encoding/decoding | |
| WO2019083334A1 (en) | Method and device for image encoding/decoding on basis of asymmetric sub-block | |
| WO2018026118A1 (en) | Image encoding/decoding method | |
| WO2011096741A2 (en) | Method and apparatus for encoding video based on scanning order of hierarchical data units, and method and apparatus for decoding video based on scanning order of hierarchical data units | |
| WO2018097692A2 (en) | Method and apparatus for encoding/decoding image, and recording medium in which bit stream is stored | |
| WO2018012886A1 (en) | Image encoding/decoding method and recording medium therefor | |
| WO2018066867A1 (en) | Method and apparatus for encoding and decoding image, and recording medium for storing bitstream | |
| WO2021054805A1 (en) | Image encoding/decoding method and device, and recording medium storing bitstream | |
| WO2018135885A1 (en) | Image decoding and encoding method providing transformation processing | |
| WO2019194653A1 (en) | Image processing method for providing complex merge mode process of motion information, image decoding and encoding method using same, and apparatus thereof | |
| WO2014058280A1 (en) | Image encoding/decoding method and device using same | |
| WO2017018664A1 (en) | Intra prediction mode-based image processing method and apparatus therefor | |
| WO2020096428A1 (en) | Method for encoding/decoding image signal and device therefor | |
| WO2013002554A2 (en) | Video encoding method using offset adjustments according to pixel classification and apparatus therefor, video decoding method and apparatus therefor | |
| WO2020096427A1 (en) | Image signal encoding/decoding method and apparatus therefor | |
| WO2017183751A1 (en) | Inter prediction mode-based image processing method and device therefor | |
| WO2015133838A1 (en) | Method for encoding/decoding image on basis of polygon unit and apparatus therefor | |
| WO2019194647A1 (en) | Filter information-based adaptive loop filtering method and image coding and decoding method using same | |
| WO2021107532A1 (en) | Image encoding/decoding method and apparatus, and recording medium in which bitstream is stored | |
| WO2019190199A1 (en) | Video signal processing method and device | |
| WO2018101700A1 (en) | Image encoding/decoding method and device, and recording medium having stored bitstream therein |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19781669 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 19781669 Country of ref document: EP Kind code of ref document: A1 |