WO2018061588A1 - Image encoding device, image encoding method, image encoding program, image decoding device, image decoding method, and image decoding program - Google Patents
Image encoding device, image encoding method, image encoding program, image decoding device, image decoding method, and image decoding program Download PDFInfo
- Publication number
- WO2018061588A1 WO2018061588A1 PCT/JP2017/031137 JP2017031137W WO2018061588A1 WO 2018061588 A1 WO2018061588 A1 WO 2018061588A1 JP 2017031137 W JP2017031137 W JP 2017031137W WO 2018061588 A1 WO2018061588 A1 WO 2018061588A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- value
- color component
- prediction
- unit
- quantization
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
- H04N19/126—Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Definitions
- the present disclosure relates to an image encoding device, an image encoding method, an image encoding program, an image decoding device, an image decoding method, and an image decoding program.
- H.265 / MPEG-H HEVC High Efficiency Video Coding
- HEVC High Efficiency Video Coding
- AVC MPEG-4 Advanced Video Coding
- intra prediction that generates a prediction value by performing spatial prediction within a frame and inter prediction that generates a prediction value by performing motion compensation prediction between frames are used.
- Non-Patent Documents 1 and 2 as an improvement in intra prediction by developing HEVC, cross-component linear model prediction (cross-component liner model prediction) that uses a decoded pixel value of a luminance signal to generate a predictive value of a color difference signal ) has been proposed.
- Non-Patent Document 1 describes that the prediction value of one color difference signal is corrected using the prediction residual of one color difference signal.
- Cross component linear model prediction is abbreviated as CCLM prediction.
- ⁇ CCLM prediction differs from other intra predictions in that there is a dependency between the components of the video signal (luminance signal and color difference signal).
- ⁇ CCLM prediction differs from other intra predictions in that there is a dependency between the components of the video signal (luminance signal and color difference signal).
- Embodiments provide an image encoding apparatus and an image encoding method capable of adjusting a quantization value of a reference source and a reference destination and reducing a code amount by using a dependency relationship between components of a video signal in CCLM prediction And an image encoding program, an image decoding device, an image decoding method, and an image decoding program.
- the first prediction mode for generating the prediction value of the color component by the linear model using the decoded pixel value of the luminance component, and the color component without using the decoded pixel value of the luminance signal A prediction value generation unit that generates a prediction value of a color component in each block in the picture using any one of the second prediction modes for generating a prediction value of the image, and the prediction from the color component of the original image
- a subtractor that subtracts a value to generate a prediction residual, an orthogonal transform unit that orthogonally transforms the prediction residual to generate an orthogonal transform coefficient, and the predicted value generation unit selects the first prediction mode.
- a quantizing unit configured to quantize the orthogonal transform coefficient by setting a quantized value of the reference destination color component higher than that of the reference source color component.
- the first prediction mode for generating the prediction value of the color component by the linear model using the decoded pixel value of the luminance component, and the color component without using the decoded pixel value of the luminance signal A prediction value of a color component is generated using any one of the second prediction modes for generating a prediction value of the image, a prediction residual is generated by subtracting the prediction value from the color component of the original image, When the prediction residual is orthogonally transformed to generate an orthogonal transform coefficient, and when the first prediction mode is selected to generate a color component prediction value, the reference destination color component is compared with the reference source color component An image encoding method is provided in which the orthogonal transform coefficient is quantized by setting a high quantization value of.
- the computer uses the first prediction mode for generating the prediction value of the color component by the linear model using the decoded pixel value of the luminance component, and the decoded pixel value of the luminance signal.
- the second prediction mode for generating the color component prediction value without generating the color component prediction value, and subtracting the prediction value from the color component of the original image to generate the prediction residual.
- a step of quantizing the orthogonal transform coefficient by setting a quantized value of a reference color component higher than that of the image encoding program.
- the first prediction mode for generating the prediction value of the color component by the linear model using the decoded pixel value of the luminance component, and the color component without using the decoded pixel value of the luminance signal Entropy decoding for entropy decoding a bitstream in which a prediction value of a color component in each block in a picture is generated and encoded using any one of the second prediction modes for generating a prediction value of And the orthogonal transform coefficient entropy-decoded by the entropy decoding unit in the block in which the prediction value of the color component is generated and encoded using the first prediction mode is compared with the color component of the reference source
- an image decoding apparatus includes an inverse quantization unit configured to inversely quantize by setting a quantization value of a reference color component high.
- the first prediction mode for generating the prediction value of the color component by the linear model using the decoded pixel value of the luminance component, and the color component without using the decoded pixel value of the luminance signal Entropy decoding the bitstream in which the prediction value of the color component in each block in the picture is generated and encoded using any one of the second prediction modes for generating the prediction value of In the block in which the predicted value of the color component is generated and encoded using the first prediction mode, the entropy-decoded orthogonal transform coefficient is compared with the color component of the reference source and the quantum of the color component of the reference destination
- An image decoding method is provided that performs inverse quantization by setting a high quantization value.
- the computer uses the first prediction mode for generating the prediction value of the color component by the linear model using the decoded pixel value of the luminance component, and the decoded pixel value of the luminance signal.
- An image decoding program is provided that executes a step of performing inverse quantization by setting a quantization value of a color component of the image to a high value.
- the dependency relationship between the components of the video signal in CCLM prediction is used.
- the amount of code can be reduced by adjusting the quantization values of the reference source and the reference destination.
- FIG. 1 is a block diagram illustrating an overall configuration example of an image encoding / decoding system including an image encoding device and an image decoding device.
- FIG. 2 is a block diagram illustrating an image encoding device according to an embodiment.
- FIG. 3 is a diagram illustrating the structure of the coding tree unit.
- FIG. 4 is a diagram illustrating the structure of the prediction unit.
- FIG. 5 is a diagram illustrating the structure of the conversion unit.
- FIG. 6 is a diagram illustrating a configuration example of a frame divided into a plurality of slices.
- FIG. 7 is a diagram illustrating an example of a prediction mode of intra prediction.
- FIG. 1 is a block diagram illustrating an overall configuration example of an image encoding / decoding system including an image encoding device and an image decoding device.
- FIG. 2 is a block diagram illustrating an image encoding device according to an embodiment.
- FIG. 3 is a diagram illustrating the structure of the coding tree unit.
- FIG. 8 is a diagram showing the relationship between the block Y signal block of the Cb and Cr signals in the case of a 4: 2: 0 format Y, Cb, and Cr video signal.
- FIG. 9 is a block diagram illustrating a specific configuration example of the quantization unit 4 and the inverse quantization unit 8 in FIG.
- FIG. 10 is a diagram illustrating an example of syntax transmitted by the image encoding device according to the embodiment.
- FIG. 11 is a flowchart illustrating the operation of the image encoding device according to the embodiment, the processing by the image encoding method according to the embodiment, and the processing executed by the image encoding program according to the embodiment.
- FIG. 9 is a block diagram illustrating a specific configuration example of the quantization unit 4 and the inverse quantization unit 8 in FIG.
- FIG. 10 is a diagram illustrating an example of syntax transmitted by the image encoding device according to the embodiment.
- FIG. 11 is a flowchart illustrating the operation of the image encoding device according to the
- FIG. 12A is a block diagram illustrating a schematic configuration of a computer including a storage unit that stores an image encoding program according to an embodiment.
- FIG. 12B is a block diagram illustrating a schematic configuration of a computer including a storage unit that stores an image decoding program according to an embodiment.
- FIG. 13 is a block diagram illustrating an image decoding apparatus according to an embodiment.
- FIG. 14 is a block diagram illustrating a specific configuration example of the inverse quantization unit 23 in FIG. 13.
- FIG. 15 is a flowchart illustrating an operation of the image decoding apparatus according to the embodiment, processing by the image decoding method according to the embodiment, and processing executed by the image decoding program according to the embodiment.
- the preprocessing device 50 sets various conditions for encoding image information by the image encoding device 100 according to an embodiment in accordance with a user operation.
- the image encoding device 100 encodes the image information according to the setting information from the preprocessing device 50 and outputs a bit stream.
- the bit stream includes encoded image information and syntax.
- the transmission device 110 transmits a bit stream to a predetermined transmission path 120.
- the transmission path 120 is wired or wireless, and may be a communication line such as the Internet, a telephone line, or a radio wave for terrestrial broadcasting or satellite broadcasting that transmits a television signal.
- the receiving device 150 receives the bit stream transmitted through the transmission path 120.
- the image decoding apparatus 200 decodes a bit stream and outputs decoded image information.
- FIG. 2 shows a specific configuration example of the image encoding device 100.
- pixels of image information of a digital signal are sequentially input to a reorder buffer 1. If the image information is an analog signal, it may be converted into a digital signal by the A / D converter in the previous stage of the rearrangement buffer 1.
- the image information is, for example, a luminance signal Y (hereinafter referred to as Y signal) and color difference signals Cb and Cr (hereinafter referred to as Cb and Cr signals), and Y, Cb, Cr video signals in 4: 2: 0 format are taken as an example.
- the rearrangement buffer 1 stores the input pixels for a plurality of frames, rearranges and reads out the frames (pictures) as necessary.
- Each frame of image information is encoded using an I picture that is encoded using pixels in the frame, a P picture that is encoded predictively using pixels in a past frame, and a predictive encoding using pixels in past and future frames Is set to one of the B pictures.
- the I picture, P picture, and B picture may be set by the preprocessing device 50, or may be selected by the image encoding device 100 according to a predetermined rule.
- the rearrangement buffer 1 reads out by rearranging the order of frames for encoding when a plurality of picture groups (GOPs), which are constituent units of a sequence constituting a bit stream described later, include B pictures.
- GOPs picture groups
- the frame output from the rearrangement buffer 1 is divided into units composed of a plurality of pixels as follows. As shown in FIG. 3, the pixels constituting the frame are divided into, for example, coding tree units (CTU: Coding Tree Unit) having 64 horizontal pixels and 64 vertical pixels. CTU is CU hierarchy 0. Each CTU may be divided into variable sized coding units (CU: Coding Unit) based on recursive quadtree block division.
- CTU Coding Tree Unit
- CU Coding Unit
- the CTU may be divided into CUs of CU hierarchy 1 with 32 horizontal pixels and 32 vertical pixels.
- the CU of CU layer 1 may be divided into CUs of CU layer 2 of 16 pixels horizontally and 16 pixels vertically.
- the CU of CU layer 2 may be divided into CUs of CU layer 3 of 8 horizontal pixels and 8 vertical pixels.
- the CTU becomes the CU as it is.
- the maximum size CU is called a maximum coding unit (LCU: Largegest Coding Unit), and the minimum size CU is called a minimum coding unit (SCU: Smallest Coding Unit).
- LCU Largegest Coding Unit
- SCU Smallest Coding Unit
- the CU includes a Y signal coding block (CB) having the same size as that of the CU, and a Cb signal and a CB of the Cr signal that are 1 ⁇ 4 the size of the CU.
- CB Y signal coding block
- the CU is divided into prediction units (PU: Prediction Unit) for prediction processing in the intra prediction unit 14 and the inter prediction unit 15 in FIG.
- PU Prediction Unit
- 2N ⁇ 2N or N ⁇ N PUs are selected in a CU (intra CU) encoded based on intra-frame prediction by the intra prediction unit 14.
- the N ⁇ N PU is used only by the SCU.
- N ⁇ N can be used only by SCUs where N is 16 or more, and 2N ⁇ nU, 2N ⁇ nD, nL ⁇ 2N, and nR ⁇ 2N can be used only when asymmetric motion division is enabled. .
- 2N ⁇ nU, 2N ⁇ nD, nL ⁇ 2N, and nR ⁇ 2N are PUs that divide the CU by 1: 3 vertically, 3: 1 vertically, 1: 3 horizontally, and 3: 1 horizontally.
- the PU includes a prediction block (PB) of the Y signal having the same size as the PU, and a Pb of the Cb signal and the Cr signal having a size of 1/4 of the PU.
- PB prediction block
- the CU is a variable-size transform unit (TU: Transform Unit based on recursive quadtree block partitioning for orthogonal transform processing in the orthogonal transform unit 3 and quantization processing in the quantization unit 4 in FIG. ).
- TU Transform Unit based on recursive quadtree block partitioning for orthogonal transform processing in the orthogonal transform unit 3 and quantization processing in the quantization unit 4 in FIG.
- the maximum size of TU is 32 pixels horizontally and 32 pixels vertically. If the TU of 32 horizontal pixels and 32 vertical pixels is TU layer 0, TU layer 0 may be divided into TUs of TU layer 1 of 16 horizontal pixels and 16 vertical pixels. The TU of TU layer 1 may be divided into TUs of TU layer 2 of 8 horizontal pixels and 8 vertical pixels. The TU of the TU hierarchy 2 may be divided into TUs of the TU hierarchy 3 of 4 horizontal pixels and 4 vertical pixels.
- the parent node of the quadtree in the intra CU is PU
- the parent node of the quadtree in the inter CU is CU.
- the TU includes a Y signal conversion block (TB) having the same size as the TU, and a Cb signal and a Cr signal TB that are 1 ⁇ 4 the size of the TU.
- TB Y signal conversion block
- CU, PU, and TU of the above variable sizes are selected so that the cost function value described later is minimized. Since the CU, PU, and TU that minimize the cost function value are different according to the pattern of the image information, the pixels of each frame are divided in a state where CU, PU, and TU having different sizes are mixed.
- 3 to 5 exemplify the structure of CU, PU, and TU employed in HEVC, but the structure of CU, PU, and TU is not particularly limited. Instead of CU, PU, and TU, a macroblock structure similar to that employed in MPEG2 may be used. In this embodiment, the case where the structure of CU, PU, and TU is adopted is taken as an example.
- a frame composed of a plurality of CTUs includes at least one slice.
- a thick solid line indicates a boundary between slices, and the frame is divided into three slices SL1 to SL3. How the frame is divided into a plurality of slices is set by the preprocessing device 50.
- Each of the slices SL1 to SL3 includes at least one continuous CTU.
- the image encoding device 100 encodes image information in units of slices
- the image decoding device 200 decodes image information in units of slices.
- arrows indicated by solid lines indicate the order of encoding and decoding.
- the subtracter 2 uses the prediction value (predicted image) generated by the intra prediction unit 14 or the inter prediction unit 15 described later from the CU of the image information that is the original image output from the rearrangement buffer 1. Subtract to produce a prediction residual. The subtracter 2 supplies the prediction residual to the orthogonal transformation unit 3.
- the orthogonal transform unit 3 performs orthogonal transform on the prediction residual in units of TU and converts the prediction residual into a frequency domain signal.
- the orthogonal transform unit 3 uses the discrete sine transform (DST) only when the intra prediction is selected and the TU is 4 pixels horizontal and 4 pixels vertical, and the discrete cosine transform (DCT) is used in other cases.
- DST discrete sine transform
- DCT discrete cosine transform
- the orthogonal transformation is performed on the prediction residual.
- the orthogonal transform unit 3 supplies the orthogonal transform coefficient to the quantization unit 4.
- the quantization unit 4 quantizes the orthogonal transform coefficient and supplies it to the entropy encoding unit 5 and the inverse quantization unit 8. A specific configuration and operation of the quantization unit 4 will be described later.
- the entropy encoding unit 5 assigns codes having different lengths to the quantized orthogonal transform coefficients based on the occurrence probabilities, and entropy codes the orthogonal transform coefficients.
- the entropy encoding unit 5 also entropy encodes the syntax for encoding image information.
- the syntax includes various syntax elements such as information for specifying a prediction mode, a motion vector, and a reference pixel selected by the intra prediction unit 14 or the inter prediction unit 15.
- the entropy encoding unit 5 can entropy encode orthogonal transform coefficients and syntax using context adaptive arithmetic codes (CABAC: “Context-based” Adaptive “Binary” Arithmetic “Coding”).
- CABAC context adaptive arithmetic codes
- the rate control unit 7 controls the rate of the quantization operation in the quantization unit 4 so that the encoded data output from the entropy encoding unit 5 does not overflow or underflow.
- An HRD (Hypothetical Reference Decoder) buffer 6 temporarily accumulates and outputs a bit stream composed of encoded data output from the entropy encoding unit 5.
- the inverse quantization unit 8 inversely quantizes the quantized orthogonal transform coefficient in units of TUs and supplies the quantized orthogonal transform coefficient to the inverse orthogonal transform unit 9.
- the inverse quantization operation in the inverse quantization unit 8 is an operation opposite to the quantization operation in the quantization unit 4.
- the inverse orthogonal transform unit 9 performs inverse orthogonal transform on the input orthogonal transform coefficient in units of TU, and supplies the prediction residual to the adder 10.
- the adder 10 adds the input prediction residual and the prediction value generated by the intra prediction unit 14 or the inter prediction unit 15 selected by the prediction value selection unit 16 to generate a decoded signal.
- the decoded signal is supplied to the loop filter 11 and the frame memory 12.
- the loop filter 11 reduces the coding noise of the decoded signal.
- the loop filter 11 includes a deblocking filter that reduces distortion generated at a block boundary and a pixel adaptive offset that reduces ringing distortion.
- the decoded signal filtered by the loop filter 11 is supplied to the frame memory 12.
- the frame memory 12 stores the decoded signal output from the adder 10 that has not been subjected to filter processing by the loop filter 11 and the decoded signal that has been subjected to filter processing by the loop filter 11.
- the switch 13 supplies the decoded signal stored in the frame memory 12 that has not been subjected to the filter processing to the intra prediction unit 14 and supplies the decoded signal stored in the frame memory 12 to which the filter processing has been performed to the inter prediction unit 15. To do.
- the intra prediction unit 14 For the Y signal, the intra prediction unit 14 performs, for example, a total of 35 types of prediction in 33 units of directional prediction modes in 33 types of directions, DC (direct current) prediction mode, and planar (Planar) prediction mode described later. Generate predicted values in mode. However, the prediction mode is selected in units of PUs.
- the intra prediction unit 14 When the prediction mode identical to the Y signal prediction mode is not used in units of TUs for the Cb and Cr signals, the intra prediction unit 14 performs vertical prediction modes shown in FIGS. 7A to 7E, respectively.
- the prediction value is generated in the horizontal prediction mode, the DC prediction mode, the planar prediction mode, and the CCLM prediction mode. However, the prediction mode is selected in units of PUs.
- H is a reference pixel located above a TU that is a target for generating a predicted value
- V is a reference pixel located on the left side of the TU.
- the vertical prediction mode illustrated in FIG. 7A is a mode in which the prediction pixel in the TU is generated in the vertical direction using the reference pixel H.
- the horizontal prediction mode illustrated in FIG. 7B is a mode in which the prediction pixel in the TU is generated in the horizontal direction using the reference pixel V.
- the DC prediction mode shown in FIG. 7C is a mode for generating a prediction pixel in the TU using an average value of the reference pixels H and V.
- the planar prediction mode illustrated in FIG. 7D is a mode in which prediction pixels in the TU are generated by interpolation prediction using four reference pixels of the reference pixels H and V.
- the CCLM prediction mode shown in FIG. 7E is a mode for generating prediction pixels in the TU as follows.
- the TB of the Cb and Cr signals and the TB of the Y signal have the relationship shown in FIGS. 8 (a) and 8 (b).
- N 8 is shown.
- the peripheral pixels P1 to P16 located above and to the left of the TB of the Cb and Cr signals shown in FIG. 8A are the peripheral pixels located above and to the left of the TB of the Y signal shown in FIG.
- the interpolated pixels correspond to the peripheral interpolation pixels Pi1 to Pi16 at the illustrated positions.
- the predicted value pred C (i, j) of the chrominance signal is expressed by equation (1) using a pixel value rec L (i, j) obtained by shifting the decoded pixel value of the Y signal to the phase of the C signal by a linear model. expressed. (i, j) indicates a pixel position.
- the intra prediction unit 14 generates a prediction value pred C (i, j) of the Cb and Cr signals using Expression (1).
- ⁇ and ⁇ in Expression (1) are obtained by, for example, the linear least square method using the peripheral pixels P1 to P16 and the peripheral interpolation pixels Pi1 to Pi16. Therefore, it is not necessary to transmit ⁇ and ⁇ as a bit stream.
- the intra prediction unit 14 corrects the prediction value pred Cr (i, j) of the Cr signal using the prediction residual resi Cb ′ (i, j) of the Cb signal based on the equation (2), and corrects the correction.
- the predicted value pred * Cr (i, j) of the Cr signal is generated.
- the intra prediction unit 14 generates a prediction value in a plurality of prediction modes including the CCLM prediction mode.
- the prediction modes that do not use the decoded pixel value of the Y signal other than the CCLM prediction mode are not limited to the prediction modes illustrated in FIGS. 7A to 7D. Even when the intra prediction unit 14 generates the prediction values of the Cb and Cr signals using the same prediction mode as the Y signal prediction mode, the prediction mode is not particularly limited.
- the intra prediction unit 14 calculates a cost function value in one determination mode of High Complexity Mode and Low Complexity Mode, selects a size of the CU, PU, and TU that minimizes the cost function value, and The prediction value of the prediction mode that minimizes the cost function value is selected.
- High Complexity Mode is a determination mode for obtaining the cost function value Cost_Func based on Equation (3).
- D is a difference between the original image and the decoded image
- ⁇ is a Lagrange multiplier
- R is all generated code amounts including orthogonal transform coefficients.
- it is necessary to calculate the generated code amount by encoding once in all the prediction modes as candidates.
- Low Complexity Mode is a determination mode for obtaining the cost function value Cost_Func based on Expression (4).
- SA (T) D is a value obtained by multiplying the difference between the original image and the decoded image by a Hadamard matrix
- QP 0 (QP) is a function of a quantization parameter (QP)
- Header_Bit includes an orthogonal transform coefficient
- Cost_Func SA (T) D + QP 0 (QP) x Header_Bit (4)
- the inter prediction unit 15 detects the motion of the image, and sets the CU size as an upper limit to a minimum of horizontal 8 pixels, vertical 4 pixels or horizontal 4 pixels, and vertical 8 pixels from a PU of 64 horizontal pixels.
- the prediction value is generated by performing inter-frame motion compensation prediction with a PU of 64 vertical pixels.
- the inter prediction unit 15 generates a predicted value (predicted image) with reference to a past frame, a future frame, or a past and future frame. Each of the past and future frames may be a plurality of frames.
- the inter prediction unit 15 calculates the cost function value in one determination mode of High Complexity Mode and Low Complexity Mode, and selects the size of the CU, PU, and TU that minimizes the cost function value. In addition, the prediction value of the prediction mode that minimizes the cost function value is selected.
- the prediction value selection unit 16 selects the smaller one of the prediction value selected by the intra prediction unit 14 and the prediction value selected by the inter prediction unit 15 as the final prediction value, and adds the subtractor 2 and the addition. Supply to the vessel 10.
- the intra prediction unit 14 is used when encoding an I picture.
- the smaller one of the prediction value selected by the intra prediction unit 14 and the prediction value selected by the inter prediction unit 15 is selected.
- the CCLM prediction mode detection unit 17 is supplied with information indicating the prediction mode selected by the intra prediction unit 14.
- the quantization unit detects the detection information indicating that fact. 4 and the inverse quantization unit 8.
- the quantization unit 4 and the inverse quantization unit 8 that have received the detection information are configured to correct the quantization parameter.
- the quantization unit 4 includes a default quantization parameter holding unit 41, a quantization parameter correction unit 42, and a quantization processing unit 43.
- the inverse quantization unit 8 includes a default quantization parameter holding unit 81, a quantization parameter correction unit 82, and an inverse quantization processing unit 83.
- Quantization parameters for the Y signal and the Cb and Cr signals obtained by the normal decoding process are QP Y , QP Cb and QP Cr , respectively.
- the default quantization parameter holding unit 41 holds the quantization parameters QP Cb and QP Cr as default quantization parameters.
- the quantization parameter correction unit 42 holds the first offset value cclm_1st_QP_offset and the second offset value cclm_2nd_QP_offset according to the setting by the preprocessing device 50.
- the first offset value cclm_1st_QP_offset indicates an offset value of the quantization parameters QP Cb and QP Cr with respect to the quantization parameter QP Y.
- the second offset value cclm_2nd_QP_offset indicates the offset value of the quantization parameter QP Cr with respect to the quantization parameter QP Cb .
- the quantization parameter correction unit 42 obtains Cb and Cr in the CCLM prediction mode as shown in equations (5) and (6). Correct the quantization parameter for the signal.
- the correction quantization parameters for the Cb and Cr signals in the CCLM prediction mode are QP Cb_cclm and QP Cr_cclm .
- QP Cb_cclm Clip (QP Cb + cclm_1st_QP_offset, 0, Max_QP_value) (5)
- QP Cr_cclm Clip (QP Cr + cclm_1st_QP_offset + cclm_2nd_QP_offset, 0, Max_QP_value) (6)
- Expression (5) adds the first offset value cclm_1st_QP_offset to the quantization parameter QP Cb, and limits the added value between the minimum value (here, 0) and the maximum value (Max_QP_value) in the quantization parameter standard. It is shown that the obtained value is set as a quantization parameter QP Cb_cclm .
- Equation (6) adds the first offset value cclm_1st_QP_offset and the second offset value cclm_2nd_QP_offset to the quantization parameter QP Cr and restricts the added value between the minimum value and the maximum value in the standard of the quantization parameter. This indicates that the value is the quantization parameter QP Cr_cclm .
- the first offset value cclm — 1st_QP_offset and Setting the second offset value cclm_2nd_QP_offset has the following advantages.
- the second offset value cclm_2nd_QP_offset may be zero. Therefore, if the first offset value cclm_1st_QP_offset and the second offset value cclm_2nd_QP_offset are set as described above, the generated code amount can be reduced.
- the quantization parameter correction unit 42 supplies correction quantization parameters QP Cb_cclm and QP Cr_cclm to the quantization processing unit 43 when the CCLM prediction mode is selected, and default quantization when a prediction mode other than the CCLM prediction mode is selected.
- the parameters QP Cb and QP Cr are supplied to the quantization processing unit 43.
- the quantization processing unit 43 quantizes the input orthogonal transform coefficient with the predetermined quantization parameters QP Cb and QP Cr or the corrected quantization parameters QP Cb_cclm and QP Cr_cclm and outputs a quantized orthogonal transform coefficient.
- the operations of the default quantization parameter holding unit 81 and the quantization parameter correction unit 82 in the inverse quantization unit 8 are the same as the operations of the default quantization parameter holding unit 41 and the quantization parameter correction unit 42, respectively.
- the inverse quantization processing unit 83 inversely quantizes the quantized orthogonal transform coefficient with the predetermined quantization parameters QP Cb and QP Cr or the corrected quantization parameters QP Cb_cclm and QP Cr_cclm , and outputs an inverse quantized orthogonal transform coefficient.
- the first offset value cclm_1st_QP_offset and the second offset value cclm_2nd_QP_offset may be transmitted with a syntax such as a slice header of a bit stream or a picture parameter set (Picture Parameter Set).
- the first offset value cclm_1st_QP_offset and the second offset value cclm_2nd_QP_offset need only be transmitted when the CCLM prediction mode is enabled in each slice.
- FIG. 10 shows an example of syntax generated and transmitted by the entropy encoding unit 5.
- the CCLM prediction mode enable flag is 1
- syntax elements indicating the first offset value cclm_1st_QP_offset and the second offset value cclm_2nd_QP_offset are included in the syntax and transmitted.
- Cclm_1st_qp_offset and cclm_2nd_qp_offset in FIG. 10 are syntax elements indicating the first offset value cclm_1st_QP_offset and the second offset value cclm_2nd_QP_offset, respectively.
- the image encoding apparatus 100 has the configuration shown in FIG. 9, so that when the CCLM prediction mode is selected, the reference Cb and Cr signals are compared with the reference source Cb and Cr signals (referenced Cb and Cr signals). The quantization step of the Cr signal is increased and the quantization value is set high. Therefore, the image coding apparatus 100 can improve the compression rate by reducing the amount of code necessary to compress image information.
- FIG. 11 shows processing executed by the quantization unit 4 and the inverse quantization unit 8.
- the quantization unit 4 receives the orthogonal transform coefficient of the block in the slice of the frame to be encoded in step S11.
- the inverse quantization unit 8 receives the quantized orthogonal transform coefficient of the block in the slice of the frame to be encoded.
- the quantization unit 4 and the inverse quantization unit 8 determine whether the CCLM prediction mode is enabled in the slice of the frame.
- the quantization unit 4 and the inverse quantization unit 8 determine whether the detection information is supplied from the CCLM prediction mode detection unit 17 in step S13. It is determined whether the CCLM prediction mode is selected in the block.
- the quantization unit 4 and the inverse quantization unit 8 add the first offset value cclm — 1st_QP_offset and the second value to the predetermined quantization parameters QP Cb and QP Cr in step S14.
- the offset values cclm_2nd_QP_offset are added to generate corrected quantization parameters QP Cb_cclm and QP Cr_cclm .
- step S15 the quantization unit 4 quantizes the orthogonal transform coefficient using the corrected quantization parameters QP Cb_cclm and QP Cr_cclm , and shifts the processing to step S17.
- the inverse quantization unit 8 inversely quantizes the quantized orthogonal transform coefficient using the corrected quantization parameters QP Cb_cclm and QP Cr_cclm , and shifts the processing to step S17.
- step S12 the quantization unit 4 and the inverse quantization unit 8 shift the processing to step S16. Also, if the CCLM prediction mode is not selected in step S13 (NO), the quantization unit 4 and the inverse quantization unit 8 shift the processing to step S16.
- step S16 the quantization unit 4 quantizes the orthogonal transform coefficient using the predetermined quantization parameters QP Cb and QP Cr , and shifts the processing to step S17.
- the inverse quantization unit 8 inversely quantizes the quantized orthogonal transform coefficient using the predetermined quantization parameters QP Cb and QP Cr , and shifts the processing to step S17.
- step S17 the quantization unit 4 and the inverse quantization unit 8 determine whether the quantization process and the inverse quantization process have been completed for all the blocks of the slice. If the quantization process and the inverse quantization process have not been completed for all the blocks (NO), the quantization unit 4 and the inverse quantization unit 8 return the process to step S13, and repeat the same process in the next block.
- the quantization unit 4 and the inverse quantization unit 8 respectively perform the quantization process for all the slices of the frame in step S18. And it is determined whether or not the inverse quantization process is completed. If the quantization process and the inverse quantization process for all slices are not completed (NO), the quantization unit 4 and the inverse quantization unit 8 return the process to step S12, and repeat the same process in the next slice.
- the quantization unit 4 and the inverse quantization unit 8 respectively perform the quantization process and the inverse quantum for each frame in step S19. It is determined whether or not the digitization process has been completed. If the quantization process and the inverse quantization process for all the frames are not completed (NO), the quantization unit 4 and the inverse quantization unit 8 return the process to step S11 and repeat the same process in the next frame.
- the quantization unit 4 and the inverse quantization unit 8 end the process.
- Image coding program The operation in the image encoding device 100 shown in FIG. 2 can be executed by a computer by a computer program (image encoding program). Each process shown in FIG. 11 can be executed by a computer using an image encoding program.
- a computer 300 includes a central processing unit (CPU) 301 and a storage unit 302.
- An operation unit 310 is connected to the computer 300.
- the storage unit 302 stores an image encoding program.
- the operation unit 310 can function as the pre-processing device 50 shown in FIG.
- the computer 300 can function as the image encoding device 100 that encodes the input image information.
- the storage unit 302 is an arbitrary non-temporary storage medium such as a semiconductor memory, a hard disk drive, or an optical disk.
- the image encoding program may be provided to the computer 300 via a communication line such as the Internet.
- FIG. 13 shows a specific configuration example of the image decoding device 200.
- the HRD buffer 21 temporarily accumulates the bit stream and supplies it to the entropy decoding unit 22.
- the entropy decoding unit 22 entropy decodes the orthogonal transform coefficients and syntax included in the bitstream.
- the orthogonal transform coefficient is supplied to the inverse quantization unit 23.
- Information indicating which of intra syntax and inter prediction is adopted among the syntax elements is supplied to the switch 32.
- information related to intra prediction is supplied to the intra prediction unit 30 and the CCLM prediction mode detection unit 33.
- Information related to inter prediction among the syntax elements is supplied to the inter prediction unit 31.
- the inverse quantization unit 23 inversely quantizes the orthogonal transform coefficient in units of TU and supplies the inverse transform coefficient 24 to the inverse orthogonal transform unit 24.
- the inverse orthogonal transform unit 24 performs inverse orthogonal transform on the inversely quantized orthogonal transform coefficient in units of TU, and supplies the prediction residual to the adder 25.
- the adder 25 adds the input prediction residual and the prediction value generated by the intra prediction unit 30 or the inter prediction unit 31 supplied from the switch 32 to generate a decoded signal.
- the decoded signal is supplied to the loop filter 26, the re-order buffer 27, and the frame memory 28.
- the loop filter 26 has the same configuration as the loop filter 11 and reduces the coding noise of the decoded signal.
- the rearrangement buffer 27 accumulates the pixels supplied from the loop filter 26 for a plurality of frames. If the frame order is rearranged, the rearrangement buffer 27 rearranges the frames in the order of the image information of the original image and outputs it as decoded image information.
- the decoded image information is converted into an analog signal by a D / A converter as necessary.
- the frame memory 28 stores the decoded signal output from the adder 25 and not subjected to the filter processing by the loop filter 26 and the decoded signal subjected to the filter processing by the loop filter 26.
- the switch 29 supplies the decoded signal that has not been subjected to the filter processing accumulated in the frame memory 28 to the intra prediction unit 30, and supplies the decoded signal that has been subjected to the filter processing accumulated in the frame memory 28 to the inter prediction unit 31. To do.
- the intra prediction unit 30 performs intra-frame prediction in accordance with information indicating the prediction mode of intra prediction, and generates respective prediction values for the Y signal, the Cb signal, and the Cr signal.
- the inter prediction unit 31 performs inter-frame prediction in accordance with information related to inter prediction, and generates respective prediction values for the Y signal and the Cb and Cr signals.
- the switch 32 supplies the adder 25 with the prediction value generated by the intra prediction unit 30 or the inter prediction unit 31 according to information indicating which of intra prediction and inter prediction is adopted.
- the CCLM prediction mode detection unit 33 detects that the input information indicating the prediction mode indicates the CCLM prediction mode and the intra prediction unit 14 selects the CCLM prediction mode, the detection information indicating that is dequantized. To the unit 23.
- the inverse quantization unit 23 that has received the detection information is configured to correct the quantization parameter.
- the inverse quantization unit 23 includes a default quantization parameter holding unit 231, a quantization parameter correction unit 232, and an inverse quantization processing unit 233.
- the operation of the inverse quantization unit 23 is the same as the operation of the inverse quantization unit 8 in FIG.
- the default quantization parameter holding unit 231 holds default quantization parameters QP Cb and QP Cr .
- the quantization parameter correction unit 232 When the CCLM prediction mode detection unit 33 detects that encoding is performed in the CCLM prediction mode, the quantization parameter correction unit 232 generates corrected quantization parameters QP Cb_cclm and QP Cr_cclm according to equations (5) and (6). To do.
- the quantization parameter correction unit 232 supplies the corrected quantization parameters QP Cb_cclm and QP Cr_cclm to the inverse quantization processing unit 233, so that a prediction mode other than the CCLM prediction mode is provided.
- the predetermined quantization parameters QP Cb and QP Cr are supplied to the inverse quantization processing unit 233.
- the inverse quantization processing unit 233 inversely quantizes the input orthogonal transform coefficient with the predetermined quantization parameters QP Cb and QP Cr or the corrected quantization parameters QP Cb_cclm and QP Cr_cclm , and outputs an inverse quantization orthogonal transform coefficient.
- the image decoding apparatus 200 has the configuration shown in FIG. 14, whereby an image is encoded in the CCLM prediction mode, and the quantization value of the reference destination Cb and Cr signal is set higher than that of the reference source Cb and Cr signal. By doing so, it is possible to decode a bit stream with an improved compression rate.
- FIG. 15 shows processing executed by the inverse quantization unit 23.
- the inverse quantization unit 23 receives the orthogonal transform coefficient of the block in the slice of the frame to be decoded in step S21. In step S22, the inverse quantization unit 23 determines whether the CCLM prediction mode is used in the slice based on whether the enable flag of the CCLM prediction mode is 1.
- the inverse quantization unit 23 receives the first offset value cclm_1st_QP_offset and the second offset value cclm_2nd_QP_offset decoded by the entropy decoding unit 22 in step S23. Based on whether detection information is supplied from the CCLM prediction mode detection unit 33, the inverse quantization unit 23 determines whether the block is encoded in the CCLM prediction mode.
- the inverse quantization unit 23 adds the first offset value cclm_1st_QP_offset and the second offset to the predetermined quantization parameters QP Cb and QP Cr in step S25.
- the value cclm_2nd_QP_offset is added to generate corrected quantization parameters QP Cb_cclm and QP Cr_cclm .
- step S26 the inverse quantization unit 23 inversely quantizes the orthogonal transform coefficient using the corrected quantization parameters QP Cb_cclm and QP Cr_cclm , and shifts the processing to step S28.
- step S27 the inverse quantization unit 23 shifts the process to step S27. Moreover, the inverse quantization part 23 will transfer a process to step S27, if the said block is not encoded by CCLM prediction mode in step S24 (NO). In step S27, the inverse quantization unit 23 inversely quantizes the orthogonal transform coefficient using the predetermined quantization parameters QP Cb and QP Cr , and shifts the processing to step S28.
- step S28 the inverse quantization unit 23 determines whether or not the inverse quantization process has been completed for all the blocks of the slice. If the inverse quantization process has not been completed for all the blocks (NO), the inverse quantization unit 23 returns the process to step S24 and repeats the same process in the next block.
- the inverse quantization unit 23 determines whether or not the inverse quantization process for all slices of the frame has been completed in step S29. If the inverse quantization process has not been completed for all slices (NO), the inverse quantization unit 23 returns the process to step S22 and repeats the same process in the next slice.
- the inverse quantization unit 23 determines in step S30 whether the inverse quantization process for all frames has been completed. If the inverse quantization process has not been completed for all the frames (NO), the inverse quantization unit 23 returns the process to step S21 and repeats the same process in the next frame. If the inverse quantization process for all the frames has been completed (YES), the inverse quantization unit 23 ends the process.
- Image decoding program The operation of the image decoding apparatus 200 shown in FIG. 13 can be executed by a computer by a computer program (image decoding program). Each process shown in FIG. 15 can be executed by a computer using an image decoding program.
- the computer has the same configuration as in FIG. 12A, and the description of the parts common to FIG. 12A is omitted.
- the storage unit 302 stores an image decoding program instead of the image encoding program.
- the computer 300 can function as the image decoding device 200 that decodes the encoded bit stream.
- the first offset value cclm_1st_QP_offset and the second offset value cclm_2nd_QP_offset may be set as a predetermined fixed value without being transmitted in the bit stream.
- Different values of the first offset value cclm_1st_QP_offset and the second offset value cclm_2nd_QP_offset may be used according to the value of the quantization parameter for the sub-LCU (subLCU) to which the block to be quantized belongs.
- a sub-LCU is a maximum coding unit having a size smaller than that of a CTU. For example, when the bit rate is high (the quantization parameter is low), the offset value is not added to the default quantization parameters QP Cb and QP Cr , and when the bit rate is low (the quantization parameter is high), the offset value is added. May be.
- a threshold of a quantization parameter for selecting whether or not to add an offset value to the predetermined quantization parameters QP Cb and QP Cr may be transmitted as a bit stream.
- the threshold value of the quantization parameter may be transmitted using a slice header or a picture parameter set.
- Y, Cb, and Cr video signals are taken as examples of image information, but the color space is not limited to Y, Cb, and Cr, and may be Y, Co, and Cg video signals.
- the image information may be a video signal in an arbitrary color space including a luminance component and a color component composed of two color difference signals.
- the Y, Cb, Cr video signal in the 4: 2: 0 format is taken as an example, but the Y, Cb, Cr video signal is in the 4: 2: 2 format or the 4: 4: 4 format. Also good.
- the CCLM prediction mode is used in intra prediction, but the CCLM prediction mode may be used in inter prediction. That is, the image coding apparatus 100 predicts a color component without using a first prediction mode in which a prediction value of a color component is generated by a linear model using the decoded pixel value of the luminance component, and without using a decoded pixel value of the luminance signal. What is necessary is just to provide the predicted value generation part which generates the predicted value of the color component in each block in a picture using either of the 2nd prediction modes which generate a value. The same applies to the image decoding apparatus 200.
- the intra prediction unit 14 may be a prediction value generation unit
- the inter prediction unit 15 may be a prediction value generation unit
- the intra prediction unit 14 and the inter prediction unit 15 may be prediction value generation units.
- the intra prediction unit 30 may be a prediction value generation unit
- the inter prediction unit 31 may be a prediction value generation unit
- the intra prediction unit 30 and the inter prediction unit 31 may be prediction value generation units.
- the CCLM prediction mode for generating the predicted value of the color difference signal using the decoded pixel value of the luminance signal is taken as an example, but the CCLM for generating the predicted value of the Cr signal using the decoded pixel value of the Cb signal. It is also applicable to the prediction mode. That is, the configuration of the present embodiment can be applied if there is a dependency relationship between components of the video signal (luminance signal and color difference signal).
- the image encoding device 100 and the image decoding device 200 may be configured by hardware such as an integrated circuit, may be configured by software, or both may be mixed.
- the image encoding method and the image decoding method may be executed by any hardware resource such as an integrated circuit or a computer.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本開示は、画像符号化装置、画像符号化方法、及び画像符号化プログラム、並びに、画像復号装置、画像復号方法、及び画像復号プログラムに関する。 The present disclosure relates to an image encoding device, an image encoding method, an image encoding program, an image decoding device, an image decoding method, and an image decoding program.
H.264/MPEG-4 AVC (Advanced Video Coding)よりもさらに画像情報を高効率に符号化することができる圧縮符号化方式H.265/MPEG-H HEVC(High Efficiency Video Coding)(以下、HEVCと略記する)が標準化されている。HEVCにおいては、フレーム内で空間予測を行って予測値を生成するイントラ予測と、フレーム間で動き補償予測を行って予測値を生成するインター予測とが用いられる。 H.265 / MPEG-H HEVC (High Efficiency Video Coding) (hereinafter referred to as HEVC) that can encode image information more efficiently than H.264 / MPEG-4 Advanced Video Coding (AVC). Is abbreviated). In HEVC, intra prediction that generates a prediction value by performing spatial prediction within a frame and inter prediction that generates a prediction value by performing motion compensation prediction between frames are used.
非特許文献1及び2には、HEVCを発展させて、イントラ予測における改良として、輝度信号の復号画素値を用いて色差信号の予測値を生成するクロスコンポーネント線形モデル予測(cross-component liner model prediction)が提案されている。非特許文献1には、一方の色差信号の予測残差を用いて他方の色差信号の予測値を補正することが記載されている。クロスコンポーネント線形モデル予測をCCLM予測と略記する。
In
CCLM予測では他のイントラ予測とは異なり、映像信号(輝度信号及び色差信号)のコンポーネント間に依存関係がある。非特許文献1及び2には、その依存関係を利用して、参照元と参照先の量子化値を調整し、符号量を削減する手段は存在しない。
∙ CCLM prediction differs from other intra predictions in that there is a dependency between the components of the video signal (luminance signal and color difference signal). In
実施形態は、CCLM予測における映像信号のコンポーネント間に依存関係を利用して、参照元と参照先の量子化値を調整し、符号量を削減することができる画像符号化装置、画像符号化方法、及び画像符号化プログラム、並びに、画像復号装置、画像復号方法、及び画像復号プログラムを提供することを目的とする。 Embodiments provide an image encoding apparatus and an image encoding method capable of adjusting a quantization value of a reference source and a reference destination and reducing a code amount by using a dependency relationship between components of a video signal in CCLM prediction And an image encoding program, an image decoding device, an image decoding method, and an image decoding program.
実施形態の第1の態様によれば、輝度成分の復号画素値を用いて線形モデルにより色成分の予測値を生成する第1の予測モードと、輝度信号の復号画素値を用いることなく色成分の予測値を生成する第2の予測モードとのうちのいずれかを用いて、ピクチャ内のそれぞれのブロックにおける色成分の予測値を生成する予測値生成部と、原画像の色成分より前記予測値を減算して予測残差を生成する減算器と、前記予測残差を直交変換して直交変換係数を生成する直交変換部と、前記予測値生成部が前記第1の予測モードを選択して色成分の予測値を生成するとき、参照元の色成分と比較して参照先の色成分の量子化値を高く設定して、前記直交変換係数を量子化する量子化部とを備えることを特徴とする画像符号化装置が提供される。 According to the first aspect of the embodiment, the first prediction mode for generating the prediction value of the color component by the linear model using the decoded pixel value of the luminance component, and the color component without using the decoded pixel value of the luminance signal A prediction value generation unit that generates a prediction value of a color component in each block in the picture using any one of the second prediction modes for generating a prediction value of the image, and the prediction from the color component of the original image A subtractor that subtracts a value to generate a prediction residual, an orthogonal transform unit that orthogonally transforms the prediction residual to generate an orthogonal transform coefficient, and the predicted value generation unit selects the first prediction mode. A quantizing unit configured to quantize the orthogonal transform coefficient by setting a quantized value of the reference destination color component higher than that of the reference source color component. Is provided.
実施形態の第2の態様によれば、輝度成分の復号画素値を用いて線形モデルにより色成分の予測値を生成する第1の予測モードと、輝度信号の復号画素値を用いることなく色成分の予測値を生成する第2の予測モードとのうちのいずれかを用いて、色成分の予測値を生成し、原画像の色成分より前記予測値を減算して予測残差を生成し、前記予測残差を直交変換して直交変換係数を生成し、前記第1の予測モードが選択されて色成分の予測値を生成するとき、参照元の色成分と比較して参照先の色成分の量子化値を高く設定して、前記直交変換係数を量子化することを特徴とする画像符号化方法が提供される。 According to the second aspect of the embodiment, the first prediction mode for generating the prediction value of the color component by the linear model using the decoded pixel value of the luminance component, and the color component without using the decoded pixel value of the luminance signal A prediction value of a color component is generated using any one of the second prediction modes for generating a prediction value of the image, a prediction residual is generated by subtracting the prediction value from the color component of the original image, When the prediction residual is orthogonally transformed to generate an orthogonal transform coefficient, and when the first prediction mode is selected to generate a color component prediction value, the reference destination color component is compared with the reference source color component An image encoding method is provided in which the orthogonal transform coefficient is quantized by setting a high quantization value of.
実施形態の第3の態様によれば、コンピュータに、輝度成分の復号画素値を用いて線形モデルにより色成分の予測値を生成する第1の予測モードと、輝度信号の復号画素値を用いることなく色成分の予測値を生成する第2の予測モードとのうちのいずれかを用いて、色成分の予測値を生成するステップと、原画像の色成分より前記予測値を減算して予測残差を生成するステップと、前記予測残差を直交変換して直交変換係数を生成するステップと、前記第1の予測モードが選択されて色成分の予測値を生成するとき、参照元の色成分と比較して参照先の色成分の量子化値を高く設定して、前記直交変換係数を量子化するステップとを実行させることを特徴とする画像符号化プログラムが提供される。 According to the third aspect of the embodiment, the computer uses the first prediction mode for generating the prediction value of the color component by the linear model using the decoded pixel value of the luminance component, and the decoded pixel value of the luminance signal. The second prediction mode for generating the color component prediction value without generating the color component prediction value, and subtracting the prediction value from the color component of the original image to generate the prediction residual. A step of generating a difference, a step of orthogonally transforming the prediction residual to generate an orthogonal transformation coefficient, and a color component of a reference source when the first prediction mode is selected to generate a color component prediction value And a step of quantizing the orthogonal transform coefficient by setting a quantized value of a reference color component higher than that of the image encoding program.
実施形態の第4の態様によれば、輝度成分の復号画素値を用いて線形モデルにより色成分の予測値を生成する第1の予測モードと、輝度信号の復号画素値を用いることなく色成分の予測値を生成する第2の予測モードとのうちのいずれかを用いて、ピクチャ内のそれぞれのブロックにおける色成分の予測値が生成されて符号化されているビットストリームをエントロピー復号するエントロピー復号部と、前記第1の予測モードを用いて色成分の予測値が生成されて符号化されているブロックにおいて、前記エントロピー復号部によってエントロピー復号された直交変換係数を、参照元の色成分と比較して参照先の色成分の量子化値を高く設定して逆量子化する逆量子化部とを備えることを特徴とする画像復号装置が提供される。 According to the fourth aspect of the embodiment, the first prediction mode for generating the prediction value of the color component by the linear model using the decoded pixel value of the luminance component, and the color component without using the decoded pixel value of the luminance signal Entropy decoding for entropy decoding a bitstream in which a prediction value of a color component in each block in a picture is generated and encoded using any one of the second prediction modes for generating a prediction value of And the orthogonal transform coefficient entropy-decoded by the entropy decoding unit in the block in which the prediction value of the color component is generated and encoded using the first prediction mode is compared with the color component of the reference source Thus, an image decoding apparatus is provided that includes an inverse quantization unit configured to inversely quantize by setting a quantization value of a reference color component high.
実施形態の第5の態様によれば、輝度成分の復号画素値を用いて線形モデルにより色成分の予測値を生成する第1の予測モードと、輝度信号の復号画素値を用いることなく色成分の予測値を生成する第2の予測モードとのうちのいずれかを用いて、ピクチャ内のそれぞれのブロックにおける色成分の予測値が生成されて符号化されているビットストリームをエントロピー復号し、前記第1の予測モードを用いて色成分の予測値が生成されて符号化されているブロックにおいて、エントロピー復号された直交変換係数を、参照元の色成分と比較して参照先の色成分の量子化値を高く設定して逆量子化することを特徴とする画像復号方法が提供される。 According to the fifth aspect of the embodiment, the first prediction mode for generating the prediction value of the color component by the linear model using the decoded pixel value of the luminance component, and the color component without using the decoded pixel value of the luminance signal Entropy decoding the bitstream in which the prediction value of the color component in each block in the picture is generated and encoded using any one of the second prediction modes for generating the prediction value of In the block in which the predicted value of the color component is generated and encoded using the first prediction mode, the entropy-decoded orthogonal transform coefficient is compared with the color component of the reference source and the quantum of the color component of the reference destination An image decoding method is provided that performs inverse quantization by setting a high quantization value.
実施形態の第6の態様によれば、コンピュータに、輝度成分の復号画素値を用いて線形モデルにより色成分の予測値を生成する第1の予測モードと、輝度信号の復号画素値を用いることなく色成分の予測値を生成する第2の予測モードとのうちのいずれかを用いて、ピクチャ内のそれぞれのブロックにおける色成分の予測値が生成されて符号化されているビットストリームをエントロピー復号するステップと、前記第1の予測モードを用いて色成分の予測値が生成されて符号化されているブロックにおいて、エントロピー復号された直交変換係数を、参照元の色成分と比較して参照先の色成分の量子化値を高く設定して逆量子化するステップとを実行させることを特徴とする画像復号プログラムが提供される。 According to the sixth aspect of the embodiment, the computer uses the first prediction mode for generating the prediction value of the color component by the linear model using the decoded pixel value of the luminance component, and the decoded pixel value of the luminance signal. Entropy decoding of the bitstream in which the prediction value of the color component in each block in the picture is generated and encoded using one of the second prediction modes for generating the prediction value of the color component without any And comparing the entropy-decoded orthogonal transform coefficient with a reference source color component in a block in which a prediction value of a color component is generated and encoded using the first prediction mode. An image decoding program is provided that executes a step of performing inverse quantization by setting a quantization value of a color component of the image to a high value.
実施形態の画像符号化装置、画像符号化方法、及び画像符号化プログラム、並びに、画像復号装置、画像復号方法、及び画像復号プログラムによれば、CCLM予測における映像信号のコンポーネント間に依存関係を利用して、参照元と参照先の量子化値を調整し、符号量を削減することができる。 According to the image encoding device, the image encoding method, and the image encoding program of the embodiment, and the image decoding device, the image decoding method, and the image decoding program, the dependency relationship between the components of the video signal in CCLM prediction is used. Thus, the amount of code can be reduced by adjusting the quantization values of the reference source and the reference destination.
以下、一実施形態の画像符号化装置、画像符号化方法、及び画像符号化プログラム、並びに、画像復号装置、画像復号方法、及び画像復号プログラムについて、添付図面を参照して説明する。 Hereinafter, an image encoding device, an image encoding method, an image encoding program, an image decoding device, an image decoding method, and an image decoding program according to an embodiment will be described with reference to the accompanying drawings.
まず、図1を用いて、画像符号化装置及び画像復号装置を含む画像符号化・復号システムの全体的な構成例について説明する。図1において、前処理装置50は、ユーザによる操作に従って、一実施形態の画像符号化装置100による画像情報の符号化のための各種の条件を設定する。画像符号化装置100は、前処理装置50からの設定情報に応じて、画像情報を符号化してビットストリームを出力する。ビットストリームは、符号化された画像情報及びシンタックスを含む。
First, an overall configuration example of an image encoding / decoding system including an image encoding device and an image decoding device will be described with reference to FIG. In FIG. 1, the
送信装置110は、ビットストリームを所定の伝送路120に送信する。伝送路120は有線または無線であり、インターネットのような通信回線、電話回線、テレビジョン信号を送信する地上波放送または衛星放送用の電波のいずれでもよい。受信装置150は、伝送路120によって送信されたビットストリームを受信する。一実施形態の画像復号装置200は、ビットストリームを復号して復号画像情報を出力する。
The
<画像符号化装置>
図2は、画像符号化装置100の具体的な構成例を示す。図2において、並べ替え(Re-order)バッファ1には、デジタル信号の画像情報の画素が順に入力される。画像情報がアナログ信号であれば、並べ替えバッファ1の前段でA/D変換器によってデジタル信号に変換されていればよい。画像情報は例えば輝度信号Y(以下、Y信号)と色差信号Cb及びCr(以下、Cb及びCr信号)であり、4:2:0フォーマットのY,Cb,Cr映像信号を例とする。
<Image encoding device>
FIG. 2 shows a specific configuration example of the
並べ替えバッファ1は入力された画素を複数フレーム分蓄積し、必要に応じてフレーム(ピクチャ)を並べ替えて読み出す。画像情報の各フレームは、フレーム内の画素を用いて符号化するIピクチャ、過去のフレーム内の画素を用いて予測符号化するPピクチャ、過去及び未来のフレーム内の画素を用いて予測符号化するBピクチャのいずれかに設定される。Iピクチャ、Pピクチャ、Bピクチャは前処理装置50によって設定されてもよいし、画像符号化装置100が予め定めた規則に従って選択してもよい。
The
並べ替えバッファ1は、後述するビットストリームを構成するシーケンスの構成単位となる複数のピクチャ群(GOP)にBピクチャが含まれる場合には、符号化のためにフレームの順を並び替えて読み出す。
The
並べ替えバッファ1より出力されるフレームは、次のような複数の画素よりなるユニットに分割されて処理される。フレームを構成する画素は、図3に示すように、例えば水平64画素、垂直64画素の符号化ツリーユニット(CTU:Coding Tree Unit)に分割される。CTUはCU階層0である。各CTUは、再帰的な四分木ブロック分割に基づいて可変サイズの符号化ユニット(CU:Coding Unit)に分割されることがある。
The frame output from the
CTUは、水平32画素、垂直32画素のCU階層1のCUに分割されることがある。CU階層1のCUは、水平16画素、垂直16画素のCU階層2のCUに分割されることがある。CU階層2のCUは、水平8画素、垂直8画素のCU階層3のCUに分割されることがある。CTUが分割されない場合にはCTUがそのままCUとなる。
The CTU may be divided into CUs of
最大サイズのCUは最大符号化ユニット(LCU:Largest Coding Unit)と称され、最小サイズのCUは最小符号化ユニット(SCU:Smallest Coding Unit)と称される。 The maximum size CU is called a maximum coding unit (LCU: Largegest Coding Unit), and the minimum size CU is called a minimum coding unit (SCU: Smallest Coding Unit).
ところで、4:2:0フォーマットのY,Cb,Cr映像信号においては、Cb信号及びCr信号の解像度はY信号の解像度と比較して水平及び垂直の双方で1/2である。従って、CUは、CUと同じ大きさのY信号の符号化ブロック(CB)と、CUの1/4の大きさであるCb信号及びCr信号のCBとを含む。 Incidentally, in a 4: 2: 0 format Y, Cb, Cr video signal, the resolution of the Cb signal and the Cr signal is ½ both in the horizontal and vertical directions compared to the resolution of the Y signal. Therefore, the CU includes a Y signal coding block (CB) having the same size as that of the CU, and a Cb signal and a CB of the Cr signal that are ¼ the size of the CU.
CUは、図2におけるイントラ予測部14及びインター予測部15における予測処理のために予測ユニット(PU:Prediction Unit)に分割される。図4に示すように、イントラ予測部14によるフレーム内予測に基づいて符号化されるCU(イントラCU)においては、2N×2NまたはN×NのPUが選択される。但し、N×NのPUはSCUのみで利用される。
The CU is divided into prediction units (PU: Prediction Unit) for prediction processing in the
図4に示すように、インター予測部15によるフレーム間予測に基づいて符号化されるCU(インターCU)においては、2N×2N、N×N、2N×N、N×2N、2N×nU、2N×nD、nL×2N、nR×2NのPUが選択される。但し、N×NはNが16以上のSCUだけで利用可能であり、2N×nU、2N×nD、nL×2N、nR×2Nは非対称動き分割が有効とされているときのみ利用可能である。2N×nU、2N×nD、nL×2N、nR×2NはそれぞれCUを上下に1:3、上下に3:1、左右に1:3、左右に3:1で分割するPUである。
As shown in FIG. 4, in the CU (inter CU) encoded based on the inter-frame prediction by the
同様に、PUは、PUと同じ大きさのY信号の予測ブロック(PB)と、PUの1/4の大きさであるCb信号及びCr信号のPBとを含む。 Similarly, the PU includes a prediction block (PB) of the Y signal having the same size as the PU, and a Pb of the Cb signal and the Cr signal having a size of 1/4 of the PU.
また、CUは、図2における直交変換部3における直交変換処理及び量子化部4における量子化処理のために、再帰的な四分木ブロック分割に基づいて可変サイズの変換ユニット(TU:Transform Unit)に分割される。
Also, the CU is a variable-size transform unit (TU: Transform Unit based on recursive quadtree block partitioning for orthogonal transform processing in the
図5に示すように、TUの最大サイズは水平32画素、垂直32画素である。水平32画素、垂直32画素のTUをTU階層0とすれば、TU階層0は、水平16画素、垂直16画素のTU階層1のTUに分割されることがある。TU階層1のTUは、水平8画素、垂直8画素のTU階層2のTUに分割されることがある。TU階層2のTUは、水平4画素、垂直4画素のTU階層3のTUに分割されることがある。
As shown in FIG. 5, the maximum size of TU is 32 pixels horizontally and 32 pixels vertically. If the TU of 32 horizontal pixels and 32 vertical pixels is TU layer 0, TU layer 0 may be divided into TUs of
但し、イントラCUにおける四分木の親ノードはPUであり、インターCUにおける四分木の親ノードはCUである。 However, the parent node of the quadtree in the intra CU is PU, and the parent node of the quadtree in the inter CU is CU.
同様に、TUは、TUと同じ大きさのY信号の変換ブロック(TB)と、TUの1/4の大きさであるCb信号及びCr信号のTBとを含む。 Similarly, the TU includes a Y signal conversion block (TB) having the same size as the TU, and a Cb signal and a Cr signal TB that are ¼ the size of the TU.
以上の可変サイズのCU、PU、TUは、後述するコスト関数値が最小となるように選択される。画像情報の絵柄に応じてコスト関数値が最小となるCU、PU、TUは異なるから、各フレームの画素はサイズが異なるCU、PU、TUが混在した状態で分割される。 CU, PU, and TU of the above variable sizes are selected so that the cost function value described later is minimized. Since the CU, PU, and TU that minimize the cost function value are different according to the pattern of the image information, the pixels of each frame are divided in a state where CU, PU, and TU having different sizes are mixed.
図3~図5ではHEVCで採用されているCU、PU、TUの構造を例としたが、CU、PU、TUの構造は特に限定されるものではない。CU、PU、TUの代わりに、MPEG2で採用されているのと同様のマクロブロックの構造としてもよい。本実施形態においては、CU、PU、TUの構造が採用されている場合を例とする。 3 to 5 exemplify the structure of CU, PU, and TU employed in HEVC, but the structure of CU, PU, and TU is not particularly limited. Instead of CU, PU, and TU, a macroblock structure similar to that employed in MPEG2 may be used. In this embodiment, the case where the structure of CU, PU, and TU is adopted is taken as an example.
図6に示すように、複数のCTUよりなるフレームは、少なくとも1つのスライスを含む。図6において、太実線はスライスの境界を示しており、フレームは3つのスライスSL1~SL3に分割されている。フレームをどのように複数のスライスに分割するかは、前処理装置50によって設定される。スライスSL1~SL3はそれぞれ連続する少なくとも1つのCTUを含む。
As shown in FIG. 6, a frame composed of a plurality of CTUs includes at least one slice. In FIG. 6, a thick solid line indicates a boundary between slices, and the frame is divided into three slices SL1 to SL3. How the frame is divided into a plurality of slices is set by the
画像符号化装置100はスライス単位で画像情報を符号化し、画像復号装置200はスライス単位で画像情報を復号する。図6において、実線で示す矢印は符号化及び復号の順を示している。
The
図2に戻り、減算器2は、並べ替えバッファ1より出力された原画像である画像情報のCUより、後述するイントラ予測部14またはインター予測部15によって生成された予測値(予測画像)を減算して、予測残差を生成する。減算器2は、予測残差を直交変換部3に供給する。
Returning to FIG. 2, the
直交変換部3は、予測残差をTU単位で直交変換して、予測残差を周波数領域の信号に変換する。直交変換部3は、直交変換として、イントラ予測が選択されてTUが水平4画素、垂直4画素の場合のみ離散サイン変換(DST)を用い、他の場合は離散コサイン変換(DCT)を用いて、予測残差を直交変換する。直交変換部3は、直交変換係数を量子化部4に供給する。
The
量子化部4は、直交変換係数を量子化してエントロピー符号化部5及び逆量子化部8に供給する。量子化部4の具体的な構成及び動作は後述する。エントロピー符号化部5は、量子化された直交変換係数に対して発生確率に基づいて異なる長さの符号を割り当てて、直交変換係数をエントロピー符号化する。
The
エントロピー符号化部5は、画像情報を符号化する際のシンタックスもエントロピー符号化する。シンタックスは、イントラ予測部14またはインター予測部15で選択された予測モード、動きベクトル、参照画素を特定するための情報等の各種のシンタックス要素を含む。
The
エントロピー符号化部5は、一例として、コンテクスト適応算術符号(CABAC: Context-based Adaptive Binary Arithmetic Coding)を用いて直交変換係数及びシンタックスをエントロピー符号化することができる。
As an example, the
レート制御部7は、エントロピー符号化部5より出力される符号化データがオーバーフローまたはアンダーフローしないよう、量子化部4における量子化動作のレートを制御する。
The rate control unit 7 controls the rate of the quantization operation in the
HRD(Hypothetical Reference Decoder)バッファ6はエントロピー符号化部5より出力される符号化データよりなるビットストリームを一時的に蓄積して出力する。
An HRD (Hypothetical Reference Decoder)
逆量子化部8は、量子化された直交変換係数をTU単位で逆量子化して、逆直交変換部9に供給する。逆量子化部8における逆量子化の動作は、量子化部4における量子化の動作とは逆の動作である。
The
逆直交変換部9は、入力された直交変換係数をTU単位で逆直交変換して、予測残差を加算器10に供給する。加算器10は、入力された予測残差と、予測値選択部16により選択されたイントラ予測部14またはインター予測部15によって生成された予測値とを加算して、復号信号を生成する。復号信号はループフィルタ11及びフレームメモリ12に供給される。
The inverse
ループフィルタ11は、復号信号の符号化ノイズを低減させる。ループフィルタ11は、ブロックの境界に生じる歪を低減させるデブロッキング・フィルタと、リンギング歪を低減させる画素適応オフセットとを含む。ループフィルタ11によってフィルタ処理された復号信号はフレームメモリ12に供給される。
The
フレームメモリ12は、加算器10より出力されたループフィルタ11によるフィルタ処理を施していない復号信号と、ループフィルタ11によるフィルタ処理が施された復号信号とを蓄積する。スイッチ13は、フレームメモリ12に蓄積されたフィルタ処理を施していない復号信号をイントラ予測部14に供給し、フレームメモリ12に蓄積されたフィルタ処理が施された復号信号をインター予測部15に供給する。
The
イントラ予測部14は、Y信号については、TU単位で、例えば、33種類の方向の方向性予測モードと、後述するDC(直流)予測モード及びプレーナ(Planar)予測モードとの全35種類の予測モードで予測値を生成する。但し、予測モードはPU単位で選択される。
For the Y signal, the
イントラ予測部14は、Cb及びCr信号については、TU単位で、Y信号の予測モードと同一の予測モードを用いない場合には、それぞれ図7(a)~(e)に示す、垂直予測モード、水平予測モード、DC予測モード、プレーナ予測モード、CCLM予測モードで予測値を生成する。但し、予測モードはPU単位で選択される。
When the prediction mode identical to the Y signal prediction mode is not used in units of TUs for the Cb and Cr signals, the
図7(a)~(d)におけるHは予測値を生成する対象のTUの上方に位置する参照画素であり、VはTUの左方に位置する参照画素である。図7(a)に示す垂直予測モードは、参照画素Hを用いてTU内の予測画素を垂直方向に生成するモードである。図7(b)に示す水平予測モードは、参照画素Vを用いてTU内の予測画素を水平方向に生成するモードである。 7A to 7D, H is a reference pixel located above a TU that is a target for generating a predicted value, and V is a reference pixel located on the left side of the TU. The vertical prediction mode illustrated in FIG. 7A is a mode in which the prediction pixel in the TU is generated in the vertical direction using the reference pixel H. The horizontal prediction mode illustrated in FIG. 7B is a mode in which the prediction pixel in the TU is generated in the horizontal direction using the reference pixel V.
図7(c)に示すDC予測モードは、参照画素H及びVの平均値を用いてTU内の予測画素を生成するモードである。図7(d)に示すプレーナ予測モードは、参照画素H及びVのうちの4個の参照画素を用いる内挿予測によってTU内の予測画素を生成するモードである。図7(e)に示すCCLM予測モードは、次のようにしてTU内の予測画素を生成するモードである。 The DC prediction mode shown in FIG. 7C is a mode for generating a prediction pixel in the TU using an average value of the reference pixels H and V. The planar prediction mode illustrated in FIG. 7D is a mode in which prediction pixels in the TU are generated by interpolation prediction using four reference pixels of the reference pixels H and V. The CCLM prediction mode shown in FIG. 7E is a mode for generating prediction pixels in the TU as follows.
4:2:0フォーマットのY,Cb,Cr映像信号の場合、Cb及びCr信号のTBとY信号のTBとは、図8(a)及び(b)に示す関係にある。ここではNを8とした例を示している。図8(a)に示すCb及びCr信号のTBの上方及び左方に位置する周辺画素P1~P16は、図8(b)に示すY信号のTBの上方及び左方に位置する周辺画素で補間した図示の位置の周辺補間画素Pi1~Pi16にそれぞれ対応する。 In the case of a 4: 2: 0 format Y, Cb, Cr video signal, the TB of the Cb and Cr signals and the TB of the Y signal have the relationship shown in FIGS. 8 (a) and 8 (b). Here, an example in which N is 8 is shown. The peripheral pixels P1 to P16 located above and to the left of the TB of the Cb and Cr signals shown in FIG. 8A are the peripheral pixels located above and to the left of the TB of the Y signal shown in FIG. The interpolated pixels correspond to the peripheral interpolation pixels Pi1 to Pi16 at the illustrated positions.
色差信号の予測値predC(i,j)は、線形モデルにより、Y信号の復号画素値をC信号の位相にシフトさせた画素値recL(i,j)を用いて式(1)で表される。(i,j)は画素位置を示す。イントラ予測部14は、式(1)を用いてCb及びCr信号の予測値predC(i,j)を生成する。式(1)におけるα及びβは、周辺画素P1~P16及び周辺補間画素Pi1~Pi16を用いて、例えば線形最小二乗法によって求められる。よって、α及びβをビットストリームで伝送する必要はない。
The predicted value pred C (i, j) of the chrominance signal is expressed by equation (1) using a pixel value rec L (i, j) obtained by shifting the decoded pixel value of the Y signal to the phase of the C signal by a linear model. expressed. (i, j) indicates a pixel position. The
predC(i,j)=αrecL(i,j)+β …(1) pred C (i, j) = αrec L (i, j) + β (1)
さらに、イントラ予測部14は、式(2)に基づき、Cr信号の予測値predCr(i,j)をCb信号の予測残差resiCb’(i,j)を用いて補正して、補正したCr信号の予測値pred*Cr(i,j)を生成する。
Further, the
pred*Cr(i,j)=predCr(i,j)+α・resiCb’(i,j) …(2) pred * Cr (i, j) = pred Cr (i, j) + α · resi Cb ′ (i, j) (2)
このように、イントラ予測部14は、CCLM予測モードを含む複数の予測モードで予測値を生成する。CCLM予測モード以外のY信号の復号画素値を用いない予測モードは図7(a)~(d)に例示した予測モードに限定されない。イントラ予測部14が、Y信号の予測モードと同一の予測モードを用いてCb及びCr信号の予測値を生成する場合も、予測モードは特に限定されない。
Thus, the
イントラ予測部14は、High Complexity ModeとLow Complexity Modeとのうちの一方の判定モードでコスト関数値を算出して、コスト関数値が最小となるCU、PU、TUのサイズを選択し、かつ、コスト関数値が最小となる予測モードの予測値を選択する。
The
High Complexity Modeとは、式(3)に基づいてコスト関数値Cost_Funcを求める判定モードである。式(3)において、Dは原画像と復号画像との差分、λはラグランジュ乗数、Rは直交変換係数を含む全ての発生符号量である。High Complexity Modeでは、候補となる全ての予測モードで一旦符号化して発生符号量を算出する必要がある。 High Complexity Mode is a determination mode for obtaining the cost function value Cost_Func based on Equation (3). In Expression (3), D is a difference between the original image and the decoded image, λ is a Lagrange multiplier, and R is all generated code amounts including orthogonal transform coefficients. In High Complexity Mode, it is necessary to calculate the generated code amount by encoding once in all the prediction modes as candidates.
Cost_Func=D+λR …(3) Cost_Func = D + λR (3)
Low Complexity Modeとは、式(4)に基づいてコスト関数値Cost_Funcを求める判定モードである。式(4)において、SA(T)Dは原画像と復号画像との差分にアダマール行列を乗算した値、QP0(QP)は量子化パラメータ(QP)の関数、Header_Bitは直交変換係数を含まない符号量である。Low Complexity Modeでは、候補となる全ての予測モードで予測画像を生成するだけでよく、復号画像を生成する必要がない。 Low Complexity Mode is a determination mode for obtaining the cost function value Cost_Func based on Expression (4). In Equation (4), SA (T) D is a value obtained by multiplying the difference between the original image and the decoded image by a Hadamard matrix, QP 0 (QP) is a function of a quantization parameter (QP), and Header_Bit includes an orthogonal transform coefficient There is no code amount. In Low Complexity Mode, prediction images need only be generated in all candidate prediction modes, and there is no need to generate decoded images.
Cost_Func=SA(T)D+QP0(QP)×Header_Bit …(4) Cost_Func = SA (T) D + QP 0 (QP) x Header_Bit (4)
図2に戻り、インター予測部15は、画像の動きを検出し、CUのサイズを上限として、最小で水平8画素、垂直4画素または水平4画素、垂直8画素のPUから最大で水平64画素、垂直64画素のPUで、フレーム間動き補償予測を行って予測値を生成する。インター予測部15は、過去のフレームもしくは未来のフレーム、または、過去及び未来のフレームを参照して予測値(予測画像)を生成する。過去及び未来のフレームはそれぞれ複数のフレームであってもよい。
Returning to FIG. 2, the
同様に、インター予測部15は、High Complexity ModeとLow Complexity Modeとのうちの一方の判定モードでコスト関数値を算出して、コスト関数値が最小となるCU、PU、TUのサイズを選択し、かつ、コスト関数値が最小となる予測モードの予測値を選択する。
Similarly, the
予測値選択部16は、イントラ予測部14で選択された予測値とインター予測部15で選択された予測値とのうち、より小さい方を最終的な予測値として選択して減算器2及び加算器10に供給する。
The prediction
なお、Iピクチャを符号化する際にはイントラ予測部14による予測値のみが用いられる。Pピクチャ及びBピクチャを符号化する際には、イントラ予測部14で選択された予測値とインター予測部15で選択された予測値とのうちの小さい方の予測値が選択される。
Note that only the prediction value by the
CCLM予測モード検出部17には、イントラ予測部14で選択された予測モードを示す情報が供給される。CCLM予測モード検出部17は、入力された予測モードを示す情報がCCLM予測モードを示し、イントラ予測部14においてCCLM予測モードが選択されたことを検出したら、その旨を示す検出情報を量子化部4及び逆量子化部8に供給する。検出情報を受けた量子化部4及び逆量子化部8は、量子化パラメータを補正するように構成されている。
The CCLM prediction
図9を用いて、量子化部4及び逆量子化部8の具体的な構成例、及び、量子化パラメータの補正の仕方を説明する。量子化部4は、既定量子化パラメータ保持部41、量子化パラメータ補正部42、量子化処理部43を有する。逆量子化部8は、既定量子化パラメータ保持部81、量子化パラメータ補正部82、逆量子化処理部83を有する。
A specific configuration example of the
通常の復号処理により得られるY信号とCb及びCr信号に対する量子化パラメータをそれぞれQPY,QPCb,QPCrとする。既定量子化パラメータ保持部41は、量子化パラメータQPCb及びQPCrを既定量子化パラメータとして保持している。量子化パラメータ補正部42は、前処理装置50による設定によって、第1のオフセット値cclm_1st_QP_offset及び第2のオフセット値cclm_2nd_QP_offsetを保持している。
Quantization parameters for the Y signal and the Cb and Cr signals obtained by the normal decoding process are QP Y , QP Cb and QP Cr , respectively. The default quantization parameter holding unit 41 holds the quantization parameters QP Cb and QP Cr as default quantization parameters. The quantization
第1のオフセット値cclm_1st_QP_offsetは、量子化パラメータQPYに対する量子化パラメータQPCb及びQPCrのオフセット値を示す。第2のオフセット値cclm_2nd_QP_offsetは量子化パラメータQPCbに対する量子化パラメータQPCrのオフセット値を示す。 The first offset value cclm_1st_QP_offset indicates an offset value of the quantization parameters QP Cb and QP Cr with respect to the quantization parameter QP Y. The second offset value cclm_2nd_QP_offset indicates the offset value of the quantization parameter QP Cr with respect to the quantization parameter QP Cb .
CCLM予測モード検出部17がイントラ予測部14においてCCLM予測モードが選択されたことを検出したら、量子化パラメータ補正部42は、式(5)及び(6)のようにCCLM予測モードにおけるCb及びCr信号に対する量子化パラメータを補正する。CCLM予測モードにおけるCb及びCr信号に対する補正量子化パラメータをQPCb_cclm及びQPCr_cclmとする。
When the CCLM prediction
QPCb_cclm=Clip(QPCb+cclm_1st_QP_offset, 0, Max_QP_value) …(5)
QPCr_cclm=Clip(QPCr+cclm_1st_QP_offset+cclm_2nd_QP_offset, 0, Max_QP_value) …(6)
QP Cb_cclm = Clip (QP Cb + cclm_1st_QP_offset, 0, Max_QP_value) (5)
QP Cr_cclm = Clip (QP Cr + cclm_1st_QP_offset + cclm_2nd_QP_offset, 0, Max_QP_value) (6)
式(5)は、量子化パラメータQPCbに第1のオフセット値cclm_1st_QP_offsetを加算し、加算値を量子化パラメータの規格上の最小値(ここでは0)と最大値(Max_QP_value)との間に制限した値を量子化パラメータQPCb_cclmとするということを示す。 Expression (5) adds the first offset value cclm_1st_QP_offset to the quantization parameter QP Cb, and limits the added value between the minimum value (here, 0) and the maximum value (Max_QP_value) in the quantization parameter standard. It is shown that the obtained value is set as a quantization parameter QP Cb_cclm .
式(6)は、量子化パラメータQPCrに第1のオフセット値cclm_1st_QP_offset及び第2のオフセット値cclm_2nd_QP_offsetを加算し、加算値を量子化パラメータの規格上の最小値と最大値との間に制限した値を量子化パラメータQPCr_cclmとするということを示す。 Equation (6) adds the first offset value cclm_1st_QP_offset and the second offset value cclm_2nd_QP_offset to the quantization parameter QP Cr and restricts the added value between the minimum value and the maximum value in the standard of the quantization parameter. This indicates that the value is the quantization parameter QP Cr_cclm .
量子化パラメータQPYに対する量子化パラメータQPCbのオフセット値と量子化パラメータQPYに対する量子化パラメータQPCrのオフセット値とを個別に設定するのではなく、上記のように第1のオフセット値cclm_1st_QP_offset及び第2のオフセット値cclm_2nd_QP_offsetを設定すると、次のような利点を有する。 Rather than individually setting the offset value of the quantization parameter QP Cb for the quantization parameter QP Y and the offset value of the quantization parameter QP Cr for the quantization parameter QP Y , the first offset value cclm — 1st_QP_offset and Setting the second offset value cclm_2nd_QP_offset has the following advantages.
量子化パラメータQPCbと量子化パラメータQPCrとは近似するので第2のオフセット値cclm_2nd_QP_offsetは0となることがある。従って、上記のように第1のオフセット値cclm_1st_QP_offset及び第2のオフセット値cclm_2nd_QP_offsetを設定すれば、発生符号量を小さくすることができる。 Since the quantization parameter QP Cb and the quantization parameter QP Cr are approximated, the second offset value cclm_2nd_QP_offset may be zero. Therefore, if the first offset value cclm_1st_QP_offset and the second offset value cclm_2nd_QP_offset are set as described above, the generated code amount can be reduced.
量子化パラメータ補正部42は、CCLM予測モードが選択されたときには補正量子化パラメータQPCb_cclm及びQPCr_cclmを量子化処理部43に供給し、CCLM予測モード以外の予測モードが選択されたときには既定量子化パラメータQPCb及びQPCrを量子化処理部43に供給する。
The quantization
量子化処理部43は、入力された直交変換係数を既定量子化パラメータQPCb及びQPCrまたは補正量子化パラメータQPCb_cclm及びQPCr_cclmで量子化して、量子化直交変換係数を出力する。
The
逆量子化部8における既定量子化パラメータ保持部81及び量子化パラメータ補正部82の動作はそれぞれ既定量子化パラメータ保持部41及び量子化パラメータ補正部42の動作と同じである。逆量子化処理部83は、量子化直交変換係数を既定量子化パラメータQPCb及びQPCrまたは補正量子化パラメータQPCb_cclm及びQPCr_cclmで逆量子化して、逆量子化直交変換係数を出力する。
The operations of the default quantization
第1のオフセット値cclm_1st_QP_offset及び第2のオフセット値cclm_2nd_QP_offsetは、ビットストリームのスライスヘッダまたはピクチャパラメータセット(Picture Parameter Set)等のシンタックスで伝送されればよい。第1のオフセット値cclm_1st_QP_offset及び第2のオフセット値cclm_2nd_QP_offsetは、それぞれのスライスでCCLM予測モードがイネーブルされているときのみ伝送されればよい。 The first offset value cclm_1st_QP_offset and the second offset value cclm_2nd_QP_offset may be transmitted with a syntax such as a slice header of a bit stream or a picture parameter set (Picture Parameter Set). The first offset value cclm_1st_QP_offset and the second offset value cclm_2nd_QP_offset need only be transmitted when the CCLM prediction mode is enabled in each slice.
図10は、エントロピー符号化部5によって生成されて伝送されるシンタックスの一例を示している。図10に示すように、CCLM予測モードのイネーブルフラグが1であれば、第1のオフセット値cclm_1st_QP_offset及び第2のオフセット値cclm_2nd_QP_offsetを示すシンタックス要素がシンタックスに含まれて伝送される。図10におけるcclm_1st_qp_offset及びcclm_2nd_qp_offsetはそれぞれ第1のオフセット値cclm_1st_QP_offset及び第2のオフセット値cclm_2nd_QP_offsetを示すシンタックス要素である。
FIG. 10 shows an example of syntax generated and transmitted by the
画像符号化装置100は図9に示す構成を有することによって、CCLM予測モードが選択されたときには、参照元のCb及びCr信号(参照されるCb及びCr信号)と比較して参照先のCb及びCr信号の量子化ステップが大きくなって量子化値が高く設定される。従って、画像符号化装置100は、画像情報の圧縮に必要な符号量を削減して、圧縮率を向上させることができる。
The
<画像符号化方法>
図11に示すフローチャートを用いて、画像符号化装置100で実行される本実施形態の画像符号化方法による処理を説明する。図11は、量子化部4及び逆量子化部8で実行される処理を示している。
<Image coding method>
The process by the image coding method of this embodiment performed with the
図11において、量子化部4は、ステップS11にて、符号化しようとしているフレームのスライス内のブロックの直交変換係数を受信する。逆量子化部8は、ステップS11にて、符号化しようとしているフレームのスライス内のブロックの量子化直交変換係数を受信する。量子化部4及び逆量子化部8は、ステップS12にて、当該フレームの当該スライスにおいてCCLM予測モードがイネーブルされているか否かを判定する。
In FIG. 11, the
量子化部4及び逆量子化部8は、CCLM予測モードがイネーブルされていれば(YES)、ステップS13にて、CCLM予測モード検出部17から検出情報が供給されるか否かに基づき、当該ブロックにおいてCCLM予測モードが選択されたかを判定する。
If the CCLM prediction mode is enabled (YES), the
量子化部4及び逆量子化部8は、CCLM予測モードが選択されていれば(YES)、ステップS14にて、既定量子化パラメータQPCb及びQPCrに第1のオフセット値cclm_1st_QP_offset及び第2のオフセット値cclm_2nd_QP_offsetを加算して、補正量子化パラメータQPCb_cclm及びQPCr_cclmを生成する。
If the CCLM prediction mode is selected (YES), the
引き続き、量子化部4は、ステップS15にて、補正量子化パラメータQPCb_cclm及びQPCr_cclmを用いて直交変換係数を量子化し、処理をステップS17に移行させる。逆量子化部8は、ステップS15にて、補正量子化パラメータQPCb_cclm及びQPCr_cclmを用いて量子化直交変換係数を逆量子化し、処理をステップS17に移行させる。
Subsequently, in step S15, the
一方、量子化部4及び逆量子化部8は、ステップS12にてCCLM予測モードがイネーブルされていなければ(NO)、処理をステップS16に移行させる。また、量子化部4及び逆量子化部8は、ステップS13にてCCLM予測モードが選択されていなければ(NO)、処理をステップS16に移行させる。
On the other hand, if the CCLM prediction mode is not enabled in step S12 (NO), the
量子化部4は、ステップS16にて、既定量子化パラメータQPCb及びQPCrを用いて直交変換係数を量子化し、処理をステップS17に移行させる。逆量子化部8は、ステップS16にて、既定量子化パラメータQPCb及びQPCrを用いて量子化直交変換係数を逆量子化し、処理をステップS17に移行させる。
In step S16, the
量子化部4及び逆量子化部8は、ステップS17にて、それぞれ当該スライスの全てのブロックの量子化処理及び逆量子化処理が完了しかた否かを判定する。全てのブロックの量子化処理及び逆量子化処理が完了していなければ(NO)、量子化部4及び逆量子化部8は処理をステップS13に戻し、次のブロックにおいて同様の処理を繰り返す。
In step S17, the
全てのブロックの量子化処理及び逆量子化処理が完了していれば(YES)、量子化部4及び逆量子化部8は、ステップS18にて、それぞれ当該フレームの全てのスライスの量子化処理及び逆量子化処理が完了しかた否かを判定する。全てのスライスの量子化処理及び逆量子化処理が完了していなければ(NO)、量子化部4及び逆量子化部8は処理をステップS12に戻し、次のスライスにおいて同様の処理を繰り返す。
If the quantization process and the inverse quantization process have been completed for all the blocks (YES), the
全てのスライスの量子化処理及び逆量子化処理が完了していれば(YES)、量子化部4及び逆量子化部8は、ステップS19にて、それぞれ全てのフレームの量子化処理及び逆量子化処理が完了しかた否かを判定する。全てのフレームの量子化処理及び逆量子化処理が完了していなければ(NO)、量子化部4及び逆量子化部8は処理をステップS11に戻し、次のフレームにおいて同様の処理を繰り返す。
If the quantization process and the inverse quantization process for all the slices are completed (YES), the
全てのフレームの量子化処理及び逆量子化処理が完了していれば(YES)、量子化部4及び逆量子化部8は、処理を終了させる。
If the quantization process and the inverse quantization process for all the frames have been completed (YES), the
<画像符号化プログラム>
図2に示す画像符号化装置100における動作をコンピュータプログラム(画像符号化プログラム)によってコンピュータに実行させることができる。図11に示す各処理を画像符号化プログラムによってコンピュータに実行させることができる。
<Image coding program>
The operation in the
図12Aにおいて、コンピュータ300は、中央処理装置(CPU)301及び記憶部302を有する。コンピュータ300には、操作部310が接続されている。記憶部302には、画像符号化プログラムが記憶されている。操作部310を図1に示す前処理装置50として機能させることができる。CPU301が画像符号化プログラムを実行させることによって、コンピュータ300を、入力された画像情報を符号化する画像符号化装置100として機能させることができる。
12A, a
記憶部302は、半導体メモリ、ハードディスクドライブ、光ディスク等の任意の非一時的な記憶媒体である。画像符号化プログラムは、インターネット等の通信回線を介してコンピュータ300に提供されてもよい。
The
<画像復号装置>
図13は、画像復号装置200の具体的な構成例を示す。図13において、HRDバッファ21はビットストリームを一時的に蓄積して、エントロピー復号部22に供給する。エントロピー復号部22は、ビットストリームに含まれる直交変換係数及びシンタックスをエントロピー復号する。
<Image decoding device>
FIG. 13 shows a specific configuration example of the
直交変換係数は逆量子化部23に供給される。シンタックス要素のうちイントラ予測とインター予測とのいずれが採用されたかを示す情報は、スイッチ32に供給される。シンタックス要素のうちイントラ予測に関する情報は、イントラ予測部30及びCCLM予測モード検出部33に供給される。シンタックス要素のうちインター予測に関する情報は、インター予測部31に供給される。
The orthogonal transform coefficient is supplied to the
逆量子化部23は、直交変換係数をTU単位で逆量子化して、逆直交変換部24に供給する。逆直交変換部24は、逆量子化された直交変換係数をTU単位で逆直交変換して、予測残差を加算器25に供給する。加算器25は、入力された予測残差と、スイッチ32より供給されるイントラ予測部30またはインター予測部31によって生成された予測値とを加算して、復号信号を生成する。復号信号はループフィルタ26、並べ替え(Re-order)バッファ27、及びフレームメモリ28に供給される。
The
ループフィルタ26はループフィルタ11と同様の構成であり、復号信号の符号化ノイズを低減させる。並べ替えバッファ27は、ループフィルタ26から供給される画素を複数フレーム分蓄積する。並べ替えバッファ27は、フレームの順が並び替えられていれば、フレームを原画像の画像情報の順に並び替えて復号画像情報として出力する。復号画像情報は、必要に応じてD/A変換器によってアナログ信号に変換される。
The
フレームメモリ28は、加算器25より出力されたループフィルタ26によるフィルタ処理を施していない復号信号と、ループフィルタ26によるフィルタ処理が施された復号信号とを蓄積する。スイッチ29は、フレームメモリ28に蓄積されたフィルタ処理を施していない復号信号をイントラ予測部30に供給し、フレームメモリ28に蓄積されたフィルタ処理が施された復号信号をインター予測部31に供給する。
The
イントラ予測部30は、イントラ予測の予測モードを示す情報に従ってフレーム内予測を行って、Y信号とCb及びCr信号のそれぞれの予測値を生成する。インター予測部31は、インター予測に関する情報に従ってフレーム間予測を行って、Y信号とCb及びCr信号のそれぞれの予測値を生成する。スイッチ32は、イントラ予測とインター予測とのいずれが採用されたかを示す情報に従って、イントラ予測部30またはインター予測部31によって生成された予測値を加算器25に供給する。
The
CCLM予測モード検出部33は、入力された予測モードを示す情報がCCLM予測モードを示し、イントラ予測部14においてCCLM予測モードが選択されたことを検出したら、その旨を示す検出情報を逆量子化部23に供給する。検出情報を受けた逆量子化部23は、量子化パラメータを補正するように構成されている。
When the CCLM prediction
図14を用いて、逆量子化部23の具体的な構成例、及び、量子化パラメータの補正の仕方を説明する。逆量子化部23は、既定量子化パラメータ保持部231、量子化パラメータ補正部232、逆量子化処理部233を有する。逆量子化部23の動作は、図9における逆量子化部8の動作と同様である。
A specific configuration example of the
既定量子化パラメータ保持部231は、既定量子化パラメータQPCb及びQPCrを保持している。CCLM予測モード検出部33がCCLM予測モードで符号化されていることを検出したら、量子化パラメータ補正部232は、式(5)及び(6)に従って、補正量子化パラメータQPCb_cclm及びQPCr_cclmを生成する。
The default quantization
量子化パラメータ補正部232は、CCLM予測モードで符号化されていることが検出されたときには補正量子化パラメータQPCb_cclm及びQPCr_cclmを逆量子化処理部233に供給し、CCLM予測モード以外の予測モードで符号化されていることが検出されたときには既定量子化パラメータQPCb及びQPCrを逆量子化処理部233に供給する。
When it is detected that the encoding is performed in the CCLM prediction mode, the quantization
逆量子化処理部233は、入力された直交変換係数を既定量子化パラメータQPCb及びQPCrまたは補正量子化パラメータQPCb_cclm及びQPCr_cclmで逆量子化して、逆量子化直交変換係数を出力する。
The inverse
画像復号装置200は図14に示す構成を有することによって、CCLM予測モードで画像が符号化され、参照元のCb及びCr信号と比較して参照先のCb及びCr信号の量子化値が高く設定されることによって圧縮率が向上したビットストリームを復号することができる。
The
<画像復号方法>
図15に示すフローチャートを用いて、画像復号装置200で実行される本実施形態の画像復号方法による処理を説明する。図15は、逆量子化部23で実行される処理を示している。
<Image decoding method>
The process by the image decoding method of this embodiment performed with the
図15において、逆量子化部23は、ステップS21にて、復号しようとしているフレームのスライス内のブロックの直交変換係数を受信する。逆量子化部23は、ステップS22にて、CCLM予測モードのイネーブルフラグが1であるか否かに基づき、当該スライスにおいてCCLM予測モードが用いられているか否かを判定する。
15, the
逆量子化部23は、CCLM予測モードが用いられていれば(YES)、ステップS23にて、エントロピー復号部22で復号された第1のオフセット値cclm_1st_QP_offset及び第2のオフセット値cclm_2nd_QP_offsetを受信する。逆量子化部23は、CCLM予測モード検出部33から検出情報が供給されるか否かに基づき、当該ブロックはCCLM予測モードで符号化されているか否かを判定する。
If the CCLM prediction mode is used (YES), the
逆量子化部23は、当該ブロックがCCLM予測モードで符号化されていれば(YES)、ステップS25にて、既定量子化パラメータQPCb及びQPCrに第1のオフセット値cclm_1st_QP_offset及び第2のオフセット値cclm_2nd_QP_offsetを加算して、補正量子化パラメータQPCb_cclm及びQPCr_cclmを生成する。
If the block is encoded in the CCLM prediction mode (YES), the
引き続き、逆量子化部23は、ステップS26にて、補正量子化パラメータQPCb_cclm及びQPCr_cclmを用いて直交変換係数を逆量子化し、処理をステップS28に移行させる。
Subsequently, in step S26, the
一方、逆量子化部23は、ステップS22にてCCLM予測モードが用いられていなければ(NO)、処理をステップS27に移行させる。また、逆量子化部23は、ステップS24にて当該ブロックがCCLM予測モードで符号化されていなければ(NO)、処理をステップS27に移行させる。逆量子化部23は、ステップS27にて、既定量子化パラメータQPCb及びQPCrを用いて直交変換係数を逆量子化し、処理をステップS28に移行させる。
On the other hand, if the CCLM prediction mode is not used in step S22 (NO), the
逆量子化部23は、ステップS28にて、当該スライスの全てのブロックの逆量子化処理が完了しかた否かを判定する。全てのブロックの逆量子化処理が完了していなければ(NO)、逆量子化部23は処理をステップS24に戻し、次のブロックにおいて同様の処理を繰り返す。
In step S28, the
全てのブロックの逆量子化処理が完了していれば(YES)、逆量子化部23は、ステップS29にて、当該フレームの全てのスライスの逆量子化処理が完了しかた否かを判定する。全てのスライスの逆量子化処理が完了していなければ(NO)、逆量子化部23は処理をステップS22に戻し、次のスライスにおいて同様の処理を繰り返す。
If the inverse quantization process for all the blocks has been completed (YES), the
全てのスライスの逆量子化処理が完了していれば(YES)、逆量子化部23は、ステップS30にて、全てのフレームの逆量子化処理が完了しかた否かを判定する。全てのフレームの逆量子化処理が完了していなければ(NO)、逆量子化部23は処理をステップS21に戻し、次のフレームにおいて同様の処理を繰り返す。全てのフレームの逆量子化処理が完了していれば(YES)、逆量子化部23は、処理を終了させる。
If the inverse quantization process for all slices has been completed (YES), the
<画像復号プログラム>
図13に示す画像復号装置200における動作をコンピュータプログラム(画像復号プログラム)によってコンピュータに実行させることができる。図15に示す各処理を画像復号プログラムによってコンピュータに実行させることができる。
<Image decoding program>
The operation of the
図12Bに示すように、コンピュータは図12Aと同様の構成であり、図12Aと共通部分の説明を省略する。図12Bにおいて、記憶部302には、画像符号化プログラムに代えて画像復号プログラムが記憶されている。CPU301が画像復号プログラムを実行させることによって、コンピュータ300を、符号化されているビットストリームを復号する画像復号装置200として機能させることができる。
As shown in FIG. 12B, the computer has the same configuration as in FIG. 12A, and the description of the parts common to FIG. 12A is omitted. In FIG. 12B, the
記憶部302に画像符号化プログラム及び画像復号プログラムを記憶させて、コンピュータ300を、画像符号化装置100及び画像復号装置200として機能させることも可能である。
It is also possible to store the image encoding program and the image decoding program in the
<変形例>
以上説明した本実施形態の画像符号化装置、画像符号化方法、及び画像符号化プログラム、並びに、画像復号装置、画像復号方法、及び画像復号プログラムにおいて、次のような変形例とすることができる。
<Modification>
In the image encoding device, the image encoding method, and the image encoding program, and the image decoding device, the image decoding method, and the image decoding program of the present embodiment described above, the following modifications can be made. .
第1のオフセット値cclm_1st_QP_offset及び第2のオフセット値cclm_2nd_QP_offsetをビットストリームで伝送せず、予め定めた固定値としてもよい。 The first offset value cclm_1st_QP_offset and the second offset value cclm_2nd_QP_offset may be set as a predetermined fixed value without being transmitted in the bit stream.
量子化しようとする当該ブロックが所属するサブLCU(subLCU)に対する量子化パラメータの値に応じて、異なる値の第1のオフセット値cclm_1st_QP_offset及び第2のオフセット値cclm_2nd_QP_offsetが用いられてもよい。サブLCUとはCTUよりも小さいサイズの最大符号化ユニットである。例えば、ビットレートが高い(量子化パラメータが低い)ときには既定量子化パラメータQPCb及びQPCrに対してオフセット値を加算せず、ビットレートが低い(量子化パラメータが高い)ときにはオフセット値を加算してもよい。 Different values of the first offset value cclm_1st_QP_offset and the second offset value cclm_2nd_QP_offset may be used according to the value of the quantization parameter for the sub-LCU (subLCU) to which the block to be quantized belongs. A sub-LCU is a maximum coding unit having a size smaller than that of a CTU. For example, when the bit rate is high (the quantization parameter is low), the offset value is not added to the default quantization parameters QP Cb and QP Cr , and when the bit rate is low (the quantization parameter is high), the offset value is added. May be.
既定量子化パラメータQPCb及びQPCrに対してオフセット値を加算するか否かを選択する量子化パラメータの閾値をビットストリームで伝送してもよい。量子化パラメータの閾値は、スライスヘッダまたはピクチャパラメータセットで伝送されればよい。 A threshold of a quantization parameter for selecting whether or not to add an offset value to the predetermined quantization parameters QP Cb and QP Cr may be transmitted as a bit stream. The threshold value of the quantization parameter may be transmitted using a slice header or a picture parameter set.
上述した本実施形態においては、画像情報としてY,Cb,Cr映像信号を例としたが、色空間はY,Cb,Crに限定されず、Y,Co,Cg映像信号であってもよい。画像情報は、輝度成分と2つの色差信号よりなる色成分を含む任意の色空間の映像信号であればよい。本実施形態においては、4:2:0フォーマットのY,Cb,Cr映像信号を例としたが、Y,Cb,Cr映像信号は4:2:2フォーマットまたは4:4:4フォーマットであってもよい。 In the present embodiment described above, Y, Cb, and Cr video signals are taken as examples of image information, but the color space is not limited to Y, Cb, and Cr, and may be Y, Co, and Cg video signals. The image information may be a video signal in an arbitrary color space including a luminance component and a color component composed of two color difference signals. In this embodiment, the Y, Cb, Cr video signal in the 4: 2: 0 format is taken as an example, but the Y, Cb, Cr video signal is in the 4: 2: 2 format or the 4: 4: 4 format. Also good.
上述した本実施形態においては、イントラ予測においてCCLM予測モードを用いているが、インター予測においてCCLM予測モードを用いてもよい。即ち、画像符号化装置100は、輝度成分の復号画素値を用いて線形モデルにより色成分の予測値を生成する第1の予測モードと、輝度信号の復号画素値を用いることなく色成分の予測値を生成する第2の予測モードとのうちのいずれかを用いて、ピクチャ内のそれぞれのブロックにおける色成分の予測値を生成する予測値生成部を備えていればよい。画像復号装置200も同様である。
In the present embodiment described above, the CCLM prediction mode is used in intra prediction, but the CCLM prediction mode may be used in inter prediction. That is, the
図2において、イントラ予測部14が予測値生成部であり、インター予測部15が予測値生成部であってもよく、イントラ予測部14及びインター予測部15が予測値生成部であってもよい。図13において、イントラ予測部30が予測値生成部であり、インター予測部31が予測値生成部であってもよく、イントラ予測部30及びインター予測部31が予測値生成部であってもよい。
In FIG. 2, the
本実施形態においては、輝度信号の復号画素値を用いて色差信号の予測値を生成するCCLM予測モードを例としたが、Cb信号の復号画素値を用いてCr信号の予測値を生成するCCLM予測モードにも適用可能である。即ち、映像信号(輝度信号及び色差信号)のコンポーネント間に依存関係があれば、本実施形態の構成を適用することができる。 In the present embodiment, the CCLM prediction mode for generating the predicted value of the color difference signal using the decoded pixel value of the luminance signal is taken as an example, but the CCLM for generating the predicted value of the Cr signal using the decoded pixel value of the Cb signal. It is also applicable to the prediction mode. That is, the configuration of the present embodiment can be applied if there is a dependency relationship between components of the video signal (luminance signal and color difference signal).
画像符号化装置100及び画像復号装置200は、集積回路等のハードウェアで構成されてもよく、ソフトウェアで構成されてもよく、両者が混在してもよい。画像符号化方法及び画像復号方法は、集積回路またはコンピュータ等の任意のハードウェア資源が実行すればよい。
The
本願の開示は、2016年9月27日に出願された特願2016-188120号に記載の主題と関連しており、それらの全ての開示内容は引用によりここに援用される。
既に述べられたもの以外に、本発明の新規かつ有利な特徴から外れることなく、上記の実施形態に様々な修正や変更を加えてもよいことに注意すべきである。従って、そのような全ての修正や変更は、添付の請求の範囲に含まれることが意図されている。
The disclosure of the present application is related to the subject matter described in Japanese Patent Application No. 2016-188120 filed on Sep. 27, 2016, the entire contents of which are incorporated herein by reference.
It should be noted that various modifications and changes may be made to the above-described embodiments without departing from the novel and advantageous features of the present invention other than those already described. Accordingly, all such modifications and changes are intended to be included within the scope of the appended claims.
Claims (10)
原画像の色成分より前記予測値を減算して予測残差を生成する減算器と、
前記予測残差を直交変換して直交変換係数を生成する直交変換部と、
前記予測値生成部が前記第1の予測モードを選択して色成分の予測値を生成するとき、参照元の色成分と比較して参照先の色成分の量子化値を高く設定して、前記直交変換係数を量子化する量子化部と、
を備えることを特徴とする画像符号化装置。 A first prediction mode for generating a prediction value of a color component by a linear model using a decoded pixel value of a luminance component, and a second prediction mode for generating a prediction value of a color component without using a decoded pixel value of a luminance signal A prediction value generation unit that generates a prediction value of a color component in each block in the picture using any one of
A subtractor that generates a prediction residual by subtracting the prediction value from a color component of an original image;
An orthogonal transform unit that orthogonally transforms the prediction residual to generate an orthogonal transform coefficient;
When the prediction value generation unit selects the first prediction mode to generate a color component prediction value, the quantization value of the reference color component is set higher than the reference color component, A quantization unit for quantizing the orthogonal transform coefficient;
An image encoding device comprising:
前記予測値生成部が前記第1の予測モードを選択して色成分の予測値を生成するとき、参照元の色成分と比較して参照先の色成分の量子化値を高く設定するために、前記直交変換係数を、前記補正量子化パラメータを用いて量子化する
ことを特徴とする請求項1に記載の画像符号化装置。 The quantization unit includes a quantization parameter correction unit that generates a correction quantization parameter by adding an offset value to a predetermined quantization parameter;
When the prediction value generation unit selects the first prediction mode to generate a color component prediction value, the quantization value of the reference color component is set higher than the reference color component. The image encoding apparatus according to claim 1, wherein the orthogonal transform coefficient is quantized using the corrected quantization parameter.
原画像の色成分より前記予測値を減算して予測残差を生成し、
前記予測残差を直交変換して直交変換係数を生成し、
前記第1の予測モードが選択されて色成分の予測値を生成するとき、参照元の色成分と比較して参照先の色成分の量子化値を高く設定して、前記直交変換係数を量子化する
ことを特徴とする画像符号化方法。 A first prediction mode for generating a prediction value of a color component by a linear model using a decoded pixel value of a luminance component, and a second prediction mode for generating a prediction value of a color component without using a decoded pixel value of a luminance signal Is used to generate a color component prediction value,
Subtract the prediction value from the color component of the original image to generate a prediction residual,
Orthogonal transform the prediction residual to generate orthogonal transform coefficients;
When the first prediction mode is selected to generate a color component prediction value, the quantization value of the reference color component is set higher than the reference color component, and the orthogonal transform coefficient is quantized. An image encoding method characterized by comprising:
輝度成分の復号画素値を用いて線形モデルにより色成分の予測値を生成する第1の予測モードと、輝度信号の復号画素値を用いることなく色成分の予測値を生成する第2の予測モードとのうちのいずれかを用いて、色成分の予測値を生成するステップと、
原画像の色成分より前記予測値を減算して予測残差を生成するステップと、
前記予測残差を直交変換して直交変換係数を生成するステップと、
前記第1の予測モードが選択されて色成分の予測値を生成するとき、参照元の色成分と比較して参照先の色成分の量子化値を高く設定して、前記直交変換係数を量子化するステップと、
を実行させることを特徴とする画像符号化プログラム。 On the computer,
A first prediction mode for generating a prediction value of a color component by a linear model using a decoded pixel value of a luminance component, and a second prediction mode for generating a prediction value of a color component without using a decoded pixel value of a luminance signal Generating a predicted value of a color component using any of
Subtracting the prediction value from the color component of the original image to generate a prediction residual;
Orthogonally transforming the prediction residual to generate orthogonal transform coefficients;
When the first prediction mode is selected to generate a color component prediction value, the quantization value of the reference color component is set higher than the reference color component, and the orthogonal transform coefficient is quantized. Steps to
An image encoding program characterized in that
前記第1の予測モードを用いて色成分の予測値が生成されて符号化されているブロックにおいて、前記エントロピー復号部によってエントロピー復号された直交変換係数を、参照元の色成分と比較して参照先の色成分の量子化値を高く設定して逆量子化する逆量子化部と、
を備えることを特徴とする画像復号装置。 A first prediction mode for generating a prediction value of a color component by a linear model using a decoded pixel value of a luminance component, and a second prediction mode for generating a prediction value of a color component without using a decoded pixel value of a luminance signal An entropy decoding unit that entropy-decodes a bitstream in which a predicted value of a color component in each block in the picture is generated and encoded, and
In the block in which the prediction value of the color component is generated and encoded using the first prediction mode, the orthogonal transform coefficient entropy-decoded by the entropy decoding unit is compared with the reference color component for reference. An inverse quantization unit configured to inversely quantize by setting the quantization value of the previous color component high;
An image decoding apparatus comprising:
前記第1の予測モードを用いて色成分の予測値が生成されて符号化されているブロックにおいて、参照元の色成分と比較して参照先の色成分の量子化値を高く設定するために、前記直交変換係数を、前記補正量子化パラメータを用いて逆量子化する
ことを特徴とする請求項6に記載の画像復号装置。 The inverse quantization unit includes a quantization parameter correction unit that generates a correction quantization parameter by adding an offset value to a predetermined quantization parameter;
To set a quantization value of a reference color component higher than that of a reference color component in a block in which a prediction value of a color component is generated and encoded using the first prediction mode The image decoding apparatus according to claim 6, wherein the orthogonal transform coefficient is inversely quantized using the corrected quantization parameter.
前記逆量子化部は、前記既定量子化パラメータに前記エントロピー復号部が受信した前記オフセット値を加算して前記補正量子化パラメータを生成する
ことを特徴とする請求項7に記載の画像復号装置。 The entropy decoding unit receives a syntax including a syntax element indicating the offset value transmitted in the bitstream;
The image decoding apparatus according to claim 7, wherein the inverse quantization unit generates the corrected quantization parameter by adding the offset value received by the entropy decoding unit to the predetermined quantization parameter.
前記第1の予測モードを用いて色成分の予測値が生成されて符号化されているブロックにおいて、エントロピー復号された直交変換係数を、参照元の色成分と比較して参照先の色成分の量子化値を高く設定して逆量子化する
ことを特徴とする画像復号方法。 A first prediction mode for generating a prediction value of a color component by a linear model using a decoded pixel value of a luminance component, and a second prediction mode for generating a prediction value of a color component without using a decoded pixel value of a luminance signal And entropy decoding the bitstream in which the predicted value of the color component in each block in the picture is generated and encoded,
In the block in which the prediction value of the color component is generated and encoded using the first prediction mode, the entropy-decoded orthogonal transform coefficient is compared with the color component of the reference source and the color component of the reference destination is compared. An image decoding method, characterized in that a quantization value is set high and inverse quantization is performed.
輝度成分の復号画素値を用いて線形モデルにより色成分の予測値を生成する第1の予測モードと、輝度信号の復号画素値を用いることなく色成分の予測値を生成する第2の予測モードとのうちのいずれかを用いて、ピクチャ内のそれぞれのブロックにおける色成分の予測値が生成されて符号化されているビットストリームをエントロピー復号するステップと、
前記第1の予測モードを用いて色成分の予測値が生成されて符号化されているブロックにおいて、エントロピー復号された直交変換係数を、参照元の色成分と比較して参照先の色成分の量子化値を高く設定して逆量子化するステップと、
を実行させることを特徴とする画像復号プログラム。 On the computer,
A first prediction mode for generating a prediction value of a color component by a linear model using a decoded pixel value of a luminance component, and a second prediction mode for generating a prediction value of a color component without using a decoded pixel value of a luminance signal And entropy decoding a bitstream in which a predicted value of a color component in each block in the picture is generated and encoded using any of
In the block in which the prediction value of the color component is generated and encoded using the first prediction mode, the entropy-decoded orthogonal transform coefficient is compared with the color component of the reference source and the color component of the reference destination is compared. A step of dequantizing by setting a high quantization value;
An image decoding program characterized in that
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016188120A JP2018056685A (en) | 2016-09-27 | 2016-09-27 | Image encoder, image encoding method and image encoding program, and image decoder, image decoding method and image decoding program |
| JP2016-188120 | 2016-09-27 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2018061588A1 true WO2018061588A1 (en) | 2018-04-05 |
Family
ID=61759556
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2017/031137 Ceased WO2018061588A1 (en) | 2016-09-27 | 2017-08-30 | Image encoding device, image encoding method, image encoding program, image decoding device, image decoding method, and image decoding program |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP2018056685A (en) |
| WO (1) | WO2018061588A1 (en) |
Cited By (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020073990A1 (en) * | 2018-10-12 | 2020-04-16 | Oppo广东移动通信有限公司 | Video image component prediction method and apparatus, and computer storage medium |
| CN111698501A (en) * | 2019-03-11 | 2020-09-22 | 杭州海康威视数字技术股份有限公司 | Decoding method and device |
| CN111886860A (en) * | 2018-06-06 | 2020-11-03 | Kddi 株式会社 | Image decoding device, image encoding device, image processing system, image decoding method, and program |
| CN112567743A (en) * | 2018-08-15 | 2021-03-26 | 日本放送协会 | Image encoding device, image decoding device, and program |
| CN112585967A (en) * | 2018-08-15 | 2021-03-30 | 日本放送协会 | Intra-frame prediction device, image encoding device, image decoding device, and program |
| CN113170169A (en) * | 2018-12-07 | 2021-07-23 | 夏普株式会社 | Predictive image generation device, moving image decoding device, moving image encoding device, and predictive image generation method |
| CN113196776A (en) * | 2018-12-20 | 2021-07-30 | 夏普株式会社 | Predictive image generation device, moving image decoding device, moving image encoding device, and predictive image generation method |
| CN113273212A (en) * | 2019-01-02 | 2021-08-17 | 夏普株式会社 | Predictive image generation device, moving image decoding device, moving image encoding device, and predictive image generation method |
| CN114258678A (en) * | 2019-12-26 | 2022-03-29 | Kddi 株式会社 | Image decoding device, image decoding method, and program |
| JP2022531216A (en) * | 2019-05-08 | 2022-07-06 | 北京字節跳動網絡技術有限公司 | Applicable conditions for cross-component coding |
| US11463686B2 (en) * | 2018-09-22 | 2022-10-04 | Lg Electronics Inc. | Method and device for decoding images using CCLM prediction in image coding system |
| WO2023116716A1 (en) * | 2021-12-21 | 2023-06-29 | Mediatek Inc. | Method and apparatus for cross component linear model for inter prediction in video coding system |
| RU2800683C2 (en) * | 2018-10-12 | 2023-07-26 | Гуандун Оппо Мобайл Телекоммьюникейшнс Корп., Лтд. | Method and device for video image component prediction and computer data carrier |
| US11750799B2 (en) | 2019-04-23 | 2023-09-05 | Beijing Bytedance Network Technology Co., Ltd | Methods for cross component dependency reduction |
| US11910020B2 (en) | 2019-03-08 | 2024-02-20 | Beijing Bytedance Network Technology Co., Ltd | Signaling of reshaping information in video processing |
| US11924472B2 (en) | 2019-06-22 | 2024-03-05 | Beijing Bytedance Network Technology Co., Ltd. | Syntax element for chroma residual scaling |
| US11956439B2 (en) | 2019-07-07 | 2024-04-09 | Beijing Bytedance Network Technology Co., Ltd. | Signaling of chroma residual scaling |
| WO2024074125A1 (en) * | 2022-10-07 | 2024-04-11 | Mediatek Inc. | Method and apparatus of implicit linear model derivation using multiple reference lines for cross-component prediction |
| US12301845B2 (en) | 2019-04-18 | 2025-05-13 | Beijing Bytedance Network Technology Co., Ltd. | Parameter derivation in cross component mode |
Families Citing this family (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102584502B1 (en) * | 2018-05-10 | 2023-10-04 | 삼성전자주식회사 | Method and apparatus for splitting image for image encoding and decoding |
| PL3815370T3 (en) * | 2018-07-12 | 2024-10-28 | Huawei Technologies Co., Ltd. | Intra-prediction using a cross-component linear model in video coding |
| CN112789858B (en) * | 2018-10-08 | 2023-06-06 | 华为技术有限公司 | Intra prediction method and device |
| KR102653562B1 (en) * | 2018-11-06 | 2024-04-02 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Intra prediction based on location |
| CN113170122B (en) | 2018-12-01 | 2023-06-27 | 北京字节跳动网络技术有限公司 | Parameter derivation for intra prediction |
| CN116506599A (en) * | 2019-02-22 | 2023-07-28 | 华为技术有限公司 | Method and device for intra prediction using linear model |
| KR102476272B1 (en) * | 2019-02-22 | 2022-12-09 | 엘지전자 주식회사 | Video decoding method and apparatus based on CCLM prediction in video coding system |
| CN118678090A (en) * | 2019-03-06 | 2024-09-20 | Lg 电子株式会社 | CCLM prediction-based image decoding method and device |
| JP7430197B2 (en) * | 2019-03-11 | 2024-02-09 | 華為技術有限公司 | Encoders, decoders and corresponding methods |
| CN113992916B (en) * | 2019-03-25 | 2023-06-27 | Oppo广东移动通信有限公司 | Image component prediction method, encoder, decoder, and storage medium |
| JP7311626B2 (en) * | 2019-04-24 | 2023-07-19 | バイトダンス インコーポレイテッド | Constraints of Quantized Residual Differential Pulse Code Modulation Representation of Coded Video |
| CN111866510A (en) | 2019-04-30 | 2020-10-30 | 华为技术有限公司 | Intra-frame prediction method and device for video sequence |
| CN113796069B (en) | 2019-05-01 | 2024-03-08 | 字节跳动有限公司 | Intra-coded video using quantized residual differential pulse codec modulation codec |
| KR20220002918A (en) | 2019-05-02 | 2022-01-07 | 바이트댄스 아이엔씨 | Signaling in Transform Skip Mode |
| EP3932065A4 (en) * | 2019-07-24 | 2022-06-15 | Huawei Technologies Co., Ltd. | ENCODER, DECODER AND RELATED METHODS RELATING TO AN INTRA PREDICTION MODE |
| CN120151520A (en) * | 2020-01-12 | 2025-06-13 | Lg电子株式会社 | Coding device, decoding device, and device for transmitting data for image |
| WO2023197194A1 (en) * | 2022-04-12 | 2023-10-19 | Oppo广东移动通信有限公司 | Coding method and apparatus, decoding method and apparatus, coding device, decoding device, and storage medium |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005039842A (en) * | 2003-07-16 | 2005-02-10 | Samsung Electronics Co Ltd | Video encoding / decoding device and method for color video |
| JP2012142844A (en) * | 2011-01-05 | 2012-07-26 | Seikei Gakuen | Color video encoding method and color video encoder |
| WO2014166965A1 (en) * | 2013-04-08 | 2014-10-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Inter-component prediction |
| WO2016040865A1 (en) * | 2014-09-12 | 2016-03-17 | Vid Scale, Inc. | Inter-component de-correlation for video coding |
-
2016
- 2016-09-27 JP JP2016188120A patent/JP2018056685A/en active Pending
-
2017
- 2017-08-30 WO PCT/JP2017/031137 patent/WO2018061588A1/en not_active Ceased
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005039842A (en) * | 2003-07-16 | 2005-02-10 | Samsung Electronics Co Ltd | Video encoding / decoding device and method for color video |
| JP2012142844A (en) * | 2011-01-05 | 2012-07-26 | Seikei Gakuen | Color video encoding method and color video encoder |
| WO2014166965A1 (en) * | 2013-04-08 | 2014-10-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Inter-component prediction |
| WO2016040865A1 (en) * | 2014-09-12 | 2016-03-17 | Vid Scale, Inc. | Inter-component de-correlation for video coding |
Non-Patent Citations (3)
| Title |
|---|
| ANONYMOUS: "High efficiency video coding", RECOMMENDATION ITU-T H. 265 , H.265(04/2013), ITU-T, April 2013 (2013-04-01), pages 34 - 35 , 39-41, 68-71, 76-80, 140-141, XP055232953 * |
| JIANLE CHEN ET AL.: "CE6.a.4: Chroma intra prediction by reconstructed luma samples", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP3 AND ISO/IEC JTC1/SC29/WG11, JCTVC-E266_R1.1, 5TH MEETING: GENEVA, no. JCTVC-E266, March 2011 (2011-03-01), pages 1 - 10, XP030008772 * |
| JUNGSUN KIM ET AL.: "New intra chroma prediction using inter-channel correlation", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP3 AND ISO/IEC JTC1/SC29/WG11, JCTVC-B021, 2ND MEETING: GENEVA, CH, no. JCTVC-B021, 21 July 2010 (2010-07-21) - 28 July 2010 (2010-07-28), pages 1 - 9, XP030007601 * |
Cited By (32)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111886860A (en) * | 2018-06-06 | 2020-11-03 | Kddi 株式会社 | Image decoding device, image encoding device, image processing system, image decoding method, and program |
| CN112585967B (en) * | 2018-08-15 | 2024-06-07 | 日本放送协会 | Intra-frame prediction device, image encoding device, image decoding device, and program |
| CN112567743A (en) * | 2018-08-15 | 2021-03-26 | 日本放送协会 | Image encoding device, image decoding device, and program |
| CN112585967A (en) * | 2018-08-15 | 2021-03-30 | 日本放送协会 | Intra-frame prediction device, image encoding device, image decoding device, and program |
| US11463686B2 (en) * | 2018-09-22 | 2022-10-04 | Lg Electronics Inc. | Method and device for decoding images using CCLM prediction in image coding system |
| US11683480B2 (en) | 2018-09-22 | 2023-06-20 | Lg Electronics Inc. | Method and device for decoding images using CCLM prediction in image coding system |
| RU2800683C2 (en) * | 2018-10-12 | 2023-07-26 | Гуандун Оппо Мобайл Телекоммьюникейшнс Корп., Лтд. | Method and device for video image component prediction and computer data carrier |
| WO2020073990A1 (en) * | 2018-10-12 | 2020-04-16 | Oppo广东移动通信有限公司 | Video image component prediction method and apparatus, and computer storage medium |
| US11876958B2 (en) | 2018-10-12 | 2024-01-16 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Video picture component prediction method and apparatus, and computer storage medium |
| US11388397B2 (en) | 2018-10-12 | 2022-07-12 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Video picture component prediction method and apparatus, and computer storage medium |
| US12323584B2 (en) | 2018-10-12 | 2025-06-03 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Video picture component prediction method and apparatus, and computer storage medium |
| CN113170169A (en) * | 2018-12-07 | 2021-07-23 | 夏普株式会社 | Predictive image generation device, moving image decoding device, moving image encoding device, and predictive image generation method |
| US12212755B2 (en) | 2018-12-07 | 2025-01-28 | Sharp Kabushiki Kaisha | Moving image decoding method using chrominance format and intra-frame prediction mode |
| CN113170169B (en) * | 2018-12-07 | 2024-01-30 | 夏普株式会社 | Predictive image generation device, moving image decoding device, moving image encoding device, and predictive image generation method |
| CN113196776A (en) * | 2018-12-20 | 2021-07-30 | 夏普株式会社 | Predictive image generation device, moving image decoding device, moving image encoding device, and predictive image generation method |
| CN113196776B (en) * | 2018-12-20 | 2023-12-19 | 夏普株式会社 | Predicted image generating device, moving image decoding device, moving image encoding device, and predicted image generating method |
| CN113273212A (en) * | 2019-01-02 | 2021-08-17 | 夏普株式会社 | Predictive image generation device, moving image decoding device, moving image encoding device, and predictive image generation method |
| US12445653B2 (en) | 2019-03-08 | 2025-10-14 | Beijing Bytedance Network Technology Co., Ltd. | Signaling of reshaping information in video processing |
| US11910020B2 (en) | 2019-03-08 | 2024-02-20 | Beijing Bytedance Network Technology Co., Ltd | Signaling of reshaping information in video processing |
| CN111698501A (en) * | 2019-03-11 | 2020-09-22 | 杭州海康威视数字技术股份有限公司 | Decoding method and device |
| CN111698501B (en) * | 2019-03-11 | 2022-03-01 | 杭州海康威视数字技术股份有限公司 | Decoding method and device |
| US12301845B2 (en) | 2019-04-18 | 2025-05-13 | Beijing Bytedance Network Technology Co., Ltd. | Parameter derivation in cross component mode |
| US11750799B2 (en) | 2019-04-23 | 2023-09-05 | Beijing Bytedance Network Technology Co., Ltd | Methods for cross component dependency reduction |
| US12368841B2 (en) | 2019-04-23 | 2025-07-22 | Beijing Bytedance Network Technology Co., Ltd. | Methods for cross component dependency reduction |
| US12034942B2 (en) | 2019-05-08 | 2024-07-09 | Beijing Bytedance Network Technology Co., Ltd. | Conditions for applicability of cross-component coding |
| JP7407206B2 (en) | 2019-05-08 | 2023-12-28 | 北京字節跳動網絡技術有限公司 | Applicability conditions for cross-component coding |
| JP2022531216A (en) * | 2019-05-08 | 2022-07-06 | 北京字節跳動網絡技術有限公司 | Applicable conditions for cross-component coding |
| US11924472B2 (en) | 2019-06-22 | 2024-03-05 | Beijing Bytedance Network Technology Co., Ltd. | Syntax element for chroma residual scaling |
| US11956439B2 (en) | 2019-07-07 | 2024-04-09 | Beijing Bytedance Network Technology Co., Ltd. | Signaling of chroma residual scaling |
| CN114258678A (en) * | 2019-12-26 | 2022-03-29 | Kddi 株式会社 | Image decoding device, image decoding method, and program |
| WO2023116716A1 (en) * | 2021-12-21 | 2023-06-29 | Mediatek Inc. | Method and apparatus for cross component linear model for inter prediction in video coding system |
| WO2024074125A1 (en) * | 2022-10-07 | 2024-04-11 | Mediatek Inc. | Method and apparatus of implicit linear model derivation using multiple reference lines for cross-component prediction |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2018056685A (en) | 2018-04-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2018061588A1 (en) | Image encoding device, image encoding method, image encoding program, image decoding device, image decoding method, and image decoding program | |
| US11356665B2 (en) | Method for determining color difference component quantization parameter and device using the method | |
| KR102313195B1 (en) | Methods And Apparatuses For Encoding and Decoding Quantization marix | |
| CN103891293B (en) | Method and apparatus for the adaptive loop filter of chromatic component | |
| CN103959777B (en) | The sample self adaptation merged with auto-adaptive loop filter skew in video coding | |
| EP2829064B1 (en) | Parameter determination for exp-golomb residuals binarization for lossless intra hevc coding | |
| CN104796716B (en) | Use the enhancing intraframe predictive coding of plane expression | |
| US9277211B2 (en) | Binarization scheme for intra prediction residuals and improved intra prediction in lossless coding in HEVC | |
| US20110317757A1 (en) | Intra prediction mode signaling for finer spatial prediction directions | |
| CN106105204A (en) | Bit depth is revised in color notation conversion space decodes | |
| CN102057680A (en) | Dynamic image encoding/decoding method and device | |
| JP7357736B2 (en) | Encoding device, decoding device, and program | |
| US11039166B2 (en) | Devices and methods for using base layer intra prediction mode for enhancement layer intra mode prediction | |
| CN113875240B (en) | Video coding method and apparatus using adaptive parameter sets | |
| JP7130890B2 (en) | Encoding device, decoding device, and program | |
| JP6528635B2 (en) | Moving picture coding apparatus, moving picture coding method, and computer program for moving picture coding | |
| KR102448226B1 (en) | Deblocking filter control device and program | |
| JP7441638B2 (en) | Encoding device, decoding device, and program | |
| JP6402520B2 (en) | Encoding apparatus, method, program, and apparatus | |
| JP7531683B2 (en) | Encoding device, decoding device, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17855546 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 17855546 Country of ref document: EP Kind code of ref document: A1 |