RU2816350C2 - Limitations of cross-component mode applicability - Google Patents
Limitations of cross-component mode applicability Download PDFInfo
- Publication number
- RU2816350C2 RU2816350C2 RU2021129363A RU2021129363A RU2816350C2 RU 2816350 C2 RU2816350 C2 RU 2816350C2 RU 2021129363 A RU2021129363 A RU 2021129363A RU 2021129363 A RU2021129363 A RU 2021129363A RU 2816350 C2 RU2816350 C2 RU 2816350C2
- Authority
- RU
- Russia
- Prior art keywords
- block
- component
- chrominance
- luminance
- samples
- Prior art date
Links
- 238000000034 method Methods 0.000 claims abstract description 387
- 238000006243 chemical reaction Methods 0.000 claims abstract description 42
- 241000023320 Luma <angiosperm> Species 0.000 claims description 68
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 claims description 68
- 238000012545 processing Methods 0.000 claims description 66
- 238000005192 partition Methods 0.000 claims description 37
- 230000004044 response Effects 0.000 claims description 18
- 238000000638 solvent extraction Methods 0.000 claims description 17
- 230000009977 dual effect Effects 0.000 claims description 11
- 230000009466 transformation Effects 0.000 claims description 11
- 230000000007 visual effect Effects 0.000 abstract description 108
- 230000008569 process Effects 0.000 abstract description 26
- 230000000694 effects Effects 0.000 abstract 1
- 239000000126 substance Substances 0.000 abstract 1
- 239000000523 sample Substances 0.000 description 115
- 239000013598 vector Substances 0.000 description 49
- 238000010586 diagram Methods 0.000 description 32
- 230000001419 dependent effect Effects 0.000 description 28
- 230000006870 function Effects 0.000 description 21
- 230000004913 activation Effects 0.000 description 17
- 238000001914 filtration Methods 0.000 description 17
- 230000002457 bidirectional effect Effects 0.000 description 15
- 238000013507 mapping Methods 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 14
- 230000003287 optical effect Effects 0.000 description 12
- 238000004590 computer program Methods 0.000 description 11
- 230000009849 deactivation Effects 0.000 description 10
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 9
- 230000003213 activating effect Effects 0.000 description 7
- 230000003044 adaptive effect Effects 0.000 description 7
- 239000013074 reference sample Substances 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000006835 compression Effects 0.000 description 6
- 238000007906 compression Methods 0.000 description 6
- 230000011664 signaling Effects 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 230000007717 exclusion Effects 0.000 description 5
- 238000012821 model calculation Methods 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 101150067055 minC gene Proteins 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 108091000069 Cystinyl Aminopeptidase Proteins 0.000 description 2
- 102100020872 Leucyl-cystinyl aminopeptidase Human genes 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000005352 clarification Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Abstract
Description
Область техники, к которой относится изобретениеField of technology to which the invention relates
Настоящий документ относится к технологиям, системам и устройствам для кодирования и декодирования видео.This document relates to technologies, systems and devices for video encoding and decoding.
Уровень техники изобретенияBACKGROUND OF THE INVENTION
Несмотря на достижения в области сжатия видео, цифровое видео по-прежнему занимает наибольшую долю полосы частот в сети Интернет и в других цифровых сетях связи. Поскольку число присоединенных пользовательских устройств, способных принимать и представлять видео на дисплее, увеличивается, ожидается, что потребности в полосе для использования цифровым видео будут продолжать расти.Despite advances in video compression, digital video still takes up the largest share of bandwidth on the Internet and other digital communications networks. As the number of connected user devices capable of receiving and presenting video on a display increases, bandwidth requirements for digital video use are expected to continue to increase.
Раскрытие сущности изобретенияDisclosure of the invention
Предложены устройства, системы и способы относительно кодирования/декодирования цифрового видео и, в частности, относительно получения упрощенной линейной модели для режима прогнозирования на основе кросс-компонентной линейной модели (cross-component linear model (CCLM)) в области кодирования/декодирования видео. Описываемые способы могут быть применены и к существующим стандартам кодирования видео (например, к стандарту высокоэффективного видео кодирования (High Efficiency Video Coding (HEVC))), и к стандартам будущего для кодирования видео (например, к стандарту универсального видео кодирования (Versatile Video Coding (VVC))) или к соответствующим кодекам.Devices, systems and methods are provided with respect to digital video encoding/decoding and, in particular, with respect to obtaining a simplified linear model for a cross-component linear model (CCLM) prediction mode in the field of video encoding/decoding. The techniques described here can be applied to both existing video coding standards (such as High Efficiency Video Coding (HEVC)) and future video coding standards (such as Versatile Video Coding). VVC))) or corresponding codecs.
Согласно одному репрезентативному аспекту предложен способ обработки визуальных медиаданных. Способ содержит этап, на котором выполняют преобразование между текущим видеоблоком цветностной составляющей визуальных медиаданных и представлением текущего видеоблока цветностной составляющей в виде потока битов данных, причем в процессе преобразования остаток цветностной составляющей для текущего видеоблока цветностной составляющей масштабируется на основе коэффициента масштабирования, при этом коэффициент масштабирования получается по меньшей мере на основе отсчетов яркостной составляющей, расположенных в заданных позициях.According to one representative aspect, a method for processing visual media data is provided. The method comprises performing a conversion between a current chrominance video block of the visual media and a representation of the current chrominance video block as a stream of data bits, wherein during the conversion process, the remainder of the chrominance component for the current chrominance video block is scaled based on a scaling factor, wherein the scaling factor is obtained at least based on the luminance component samples located at given positions.
Согласно одному репрезентативному аспекту предложен способ обработки сигналов визуальных медиаданных. Способ содержит этап, на котором выполняют преобразование между текущим видеоблоком визуальных медиаданных и представлением текущего видеоблока в виде потока битов данных, причем в процессе преобразования определяют второй набор значений цветовых составляющих для текущего видеоблока с использованием кросс-компонентной линейной модели (CCLM) и/или этапа обработки в режиме отображения яркостной составляющей с масштабированием цветностной составляющей (luma mapping with chroma scaling (LMCS)) из первого набора значений цветовых составляющих визуальных медиа данных.According to one representative aspect, a method for processing visual media signals is provided. The method comprises the step of performing a conversion between a current video block of visual media data and a representation of the current video block as a stream of data bits, wherein the conversion process determines a second set of color component values for the current video block using a cross-component linear model (CCLM) and/or step processing in luma mapping with chroma scaling (LMCS) mode from the first set of values of the color components of visual media data.
Согласно другому репрезентативному аспекту предложен способ обработки визуальных медиаданных. Способ содержит этапы, на которых выполняют преобразование между текущим видеоблоком визуальных медиаданных и представлением текущего видеоблока в виде потока битов данных, причем в процессе преобразования один или более реконструированных отсчетов, ассоциированных с текущим кадром визуальных медиаданных, используются для получения коэффициента масштабирования остатка цветностной составляющей на этапе обработки в режиме отображения яркостной составляющей с масштабированием цветностной составляющей (LMCS).According to another representational aspect, a method for processing visual media data is provided. The method comprises the steps of performing a conversion between a current video block of visual media data and a representation of the current video block as a stream of data bits, wherein during the conversion process, one or more reconstructed samples associated with the current frame of visual media data are used to obtain a scaling factor of the remaining chrominance component in the step processing in the luminance component display mode with chrominance component scaling (LMCS).
Согласно другому репрезентативному аспекту предложен способ обработки визуальных медиаданных. Способ содержит этапы, на которых проверяют, в процессе преобразования между текущим видеоблоком цветностной составляющей и представлением текущего видеоблока цветностной составляющей в виде потока битов данных, доступность одного или более соседних блоков яркостной составляющей относительно соответствующего блока яркостной составляющей, который покрывает верхний левый отсчет расположенного в том же месте блока яркостной составляющей; определяют, на основе доступности одного или более соседних блоков яркостной составляющей, следует ли извлечь соседние отсчеты яркостной составляющей из указанного соответствующего блока яркостной составляющей; получают, на основе указанного определения, коэффициент масштабирования; масштабируют, на основе указанного коэффициента масштабирования, остаток цветностной составляющей текущего видеоблока цветностной составляющей для генерирования масштабированного остатка цветностной составляющей; и выполняют преобразование на основе масштабированного остатка цветностной составляющей.According to another representational aspect, a method for processing visual media data is provided. The method comprises the steps of checking, during the conversion process between the current chroma video block and the representation of the current chroma video block as a stream of data bits, the availability of one or more adjacent luminance blocks relative to the corresponding luminance block that covers the upper left sample located in that the same location of the brightness component block; determining, based on the availability of one or more adjacent luminance component blocks, whether adjacent luminance component samples should be extracted from said corresponding luminance component block; obtain, based on said definition, a scaling factor; scaling, based on the specified scaling factor, the chrominance component residual of the current chrominance component video block to generate a scaled chroma component residual; and performing a transformation based on the scaled chrominance component residual.
Согласно другому репрезентативному аспекту предложен способ обработки визуальных медиаданных. Способ содержит этап, на котором получают, в процессе преобразования между текущим видеоблоком визуальных медиаданных и представлением текущего видеоблока в виде потока битов данных, второй набор значений цветовых составляющих для текущего видеоблока из первого набора значений цветовых составляющих визуальных медиаданных с использованием модели, ассоциированной с этапом обработки данных, причем первый набор значений цветовых составляющих представляет собой соседние отсчеты относительно соответствующего блока яркостной составляющей, покрывающего верхний левый отсчет расположенного в том же месте блока яркостной составляющей.According to another representational aspect, a method for processing visual media data is provided. The method comprises obtaining, in a conversion process between the current video block of visual media data and a representation of the current video block as a stream of data bits, a second set of color component values for the current video block from the first set of color component values of the visual media data using a model associated with the processing step data, wherein the first set of color component values are adjacent samples relative to a corresponding luminance component block covering the upper left sample of a co-located luminance component block.
Согласно другому репрезентативному аспекту предложен способ обработки визуальных медиаданных. Способ содержит в процессе преобразования между текущим видеоблоком цветностной составляющей визуальных медиаданных и представлением текущего видеоблока цветностной составляющей в виде потока битов данных этап, на котором выполняют определение относительно избирательной активизации или деактивизации применения кросс-компонентной линейной модели (CCLM) и/или масштабирования остатка цветностной составляющей (chroma residual scaling (CRS)) к текущему видеоблоку цветностной составляющей на основе, по меньшей мере частично, одного или более условий, ассоциированных с расположенным в том же месте блоком яркостной составляющей текущего видеоблока цветностной составляющей.According to another representational aspect, a method for processing visual media data is provided. The method comprises, in the process of converting between a current chrominance video block of visual media data and a representation of the current chrominance video block as a stream of data bits, a step in which a determination is made regarding selective activation or deactivation of the application of a cross-component linear model (CCLM) and/or scaling of the remaining chrominance component (chroma residual scaling (CRS)) to the current chroma video block based at least in part on one or more conditions associated with a colocated luminance block of the current chroma video block.
Согласно другому репрезентативному аспекту предложен способ обработки визуальных медиаданных. Способ содержит этапы, на которых избирательно активирую или деактивируют применение зависимого от яркостной составляющей масштабирования остатка цветностной составляющей (CRS) к цветностным составляющим текущего видеоблока визуальных медиаданных для кодирования текущего видеоблока в видеообласти визуальных медиаданных в представление визуальных медиаданных в виде потока битов данных; и выполняют определение относительно включения и исключения поля в представлении визуальных медиаданных в виде потока битов данных, причем поле указывает избирательную активизацию или деактивизации, и, если поле включено, передается в виде сигнализации на уровне, отличном от первого синтаксического уровня, ассоциированного с текущим видеоблоком.According to another representational aspect, a method for processing visual media data is provided. The method comprises selectively activating or deactivating the application of luminance-dependent scaling of a chrominance residual (CRS) to chrominance components of a current video block of visual media to encode the current video block in a video domain of the visual media into a representation of the visual media as a stream of data bits; and making a determination regarding the inclusion and exclusion of a field in the representation of the visual media data as a stream of data bits, the field indicating selective activation or deactivation, and, if the field is included, being signaled at a layer different from the first syntactic layer associated with the current video block.
Согласно другому репрезентативному аспекту предложен способ обработки визуальных медиаданных. Способ содержит этапы, на которых выполняют синтаксический анализ поля в представлении визуальных медиаданных в виде потока битов данных, причем поле включено на уровне, отличном от первого синтаксического уровня, ассоциированного с текущим видеоблоком; и избирательно активируют или деактивируют, на основе указанного поля, применение зависимого от яркостной составляющей масштабирования остатка цветностной составляющей (CRS) к цветовым составляющим текущего видеоблока визуальных медиаданных для генерирования декодированной видеообласти на основе представления в виде потока битов данных.According to another representational aspect, a method for processing visual media data is provided. The method comprises parsing a field in a representation of visual media data as a stream of data bits, the field being included at a level different from a first syntax level associated with the current video block; and selectively activating or deactivating, based on the field, applying luminance-dependent scaling of a chrominance residual (CRS) to color components of the current video block of visual media to generate a decoded video region based on the data bitstream representation.
Согласно другому репрезентативному аспекту предложен способ обработки визуальных медиаданных. Способ содержит этапы, на которых избирательно активируют или деактивируют применение кросс-компонентной линейной модели (CCLM) к текущему видеоблоку визуальных медиаданных для кодирования текущего видеоблока в представление визуальных медиаданных в виде потока битов данных; и выполняют определение относительно включения или исключения поля в представление визуальных медиаданных в виде потока битов данных, причем поле указывает избирательную активизацию или деактивизацию и, если поле включено, передается в виде сигнализации на уровне, отличном от первого синтаксического уровня, ассоциированного с текущим видеоблоком.According to another representational aspect, a method for processing visual media data is provided. The method comprises selectively activating or deactivating the application of a cross-component linear model (CCLM) to a current video block of visual media to encode the current video block into a representation of the visual media as a stream of data bits; and making a determination regarding the inclusion or exclusion of a field in the representation of the visual media data as a bit stream of data, the field indicating selective activation or deactivation and, if the field is included, being signaled at a layer different from the first syntactic layer associated with the current video block.
Согласно другому репрезентативному аспекту предложен способ обработки визуальных медиаданных. Способ содержит этапы, на которых выполняют синтаксический анализ поля в указанном представлении визуальных медиаданных в виде потока битов данных, причем поле включено на уровне, отличном от первого синтаксического уровня, ассоциированного с текущим видеоблоком; и избирательно активируют или деактивируют, на основе указанного поля, применение кросс-компонентной линейной модели (CCLM) к текущему видеоблоку визуальных медиаданных для генерирования декодированной видеообласти на основе представления в виде потока битов данных.According to another representational aspect, a method for processing visual media data is provided. The method comprises parsing a field in said representation of visual media data as a stream of data bits, the field being included at a level different from a first syntax level associated with the current video block; and selectively activating or deactivating, based on the specified field, applying a cross-component linear model (CCLM) to the current video block of visual media to generate a decoded video region based on the data bitstream representation.
Согласно еще одному другому примерному аспекту предложено кодирующее или декодирующее устройство для видео, содержащее процессор, выполненный с возможностью реализации описанного выше способа. According to yet another exemplary aspect, there is provided a video encoding or decoding device comprising a processor configured to implement the method described above.
Согласно другому примерному аспекту предложен читаемый компьютером носитель программ. Носитель хранит код, содержащий исполняемые процессором команды для выполнения одного из раскрытых способов. According to another exemplary aspect, a computer-readable software medium is provided. The medium stores code containing processor-executable instructions to perform one of the disclosed methods.
Согласно еще одному репрезентативному аспекту описанный выше способ реализован в виде исполняемого процессором кода и сохранен на читаемом компьютером носителе программ.In yet another exemplary aspect, the method described above is implemented as processor-executable code and stored on a computer-readable storage medium.
Согласно еще одному репрезентативному аспекту предложено устройство, выполненное с возможностью выполнения указанного способа. Устройство может содержать процессор, запрограммированный для выполнения способа.According to yet another representative aspect, a device is provided that is capable of performing said method. The device may include a processor programmed to perform the method.
Приведенные выше и другие аспекты и признаки предлагаемой технологии описаны более подробно на чертежах, в описании и формуле изобретения.The above and other aspects and features of the proposed technology are described in more detail in the drawings, description and claims.
Краткая описание чертежей Brief description of drawings
Фиг. 1 показывает пример угловых режимов внутрикадрового прогнозирования в стандарте кодирования HEVC. Fig. 1 shows an example of intra-prediction angular modes in the HEVC coding standard.
Фиг. 2 показывает пример направленных режимов не в стандарте кодирования HEVC.Fig. 2 shows an example of directional modes not in the HEVC encoding standard.
Фиг. 3 показывает пример в соединении с режимом на основе модели CCLM.Fig. 3 shows an example in conjunction with a mode based on the CCLM model.
Фиг. 4 показывает пример архитектуры отображения яркостной составляющей с масштабированием цветностной составляющей.Fig. 4 shows an example of a luma display architecture with chrominance scaling.
Фиг. 5 показывает пример блока яркостной составляющей и блока цветностной составляющей в разных цветовых форматах.Fig. 5 shows an example of a luma block and a chrominance block in different color formats.
Фиг. 6 показывает пример блока яркостной составляющей и блока цветностной составляющей в одном и том же цветовом формате.Fig. 6 shows an example of a luminance component block and a chrominance component block in the same color format.
Фиг. 7 показывает пример расположенного в том же месте блока яркостной составляющей, покрывающего несколько форматов.Fig. 7 shows an example of a colocated luma block covering multiple formats.
Фиг. 8 показывает пример блока яркостной составляющей в пределах большего блока яркостной составляющей.Fig. 8 shows an example of a luminance component block within a larger luminance component block.
Фиг. 9 показывает пример блока яркостной составляющей в пределах большего блока яркостной составляющей и в пределах ограничивающей рамки.Fig. 9 shows an example of a luma block within a larger luma block and within a bounding box.
Фиг. 10 представляет блок-схему примера аппаратной платформы для осуществления способов декодирования данных визуальных медиаданных или кодирования визуальных медиаданных, описываемых в настоящем документе.Fig. 10 is a block diagram of an example hardware platform for implementing the methods for decoding visual media data or encoding visual media data described herein.
Фиг. 11 показывает логическую схему примера способа формирования линейной модели для кросс-компонентного прогнозирования в соответствии с предлагаемой технологией.Fig. 11 shows a logic diagram of an example method for generating a linear model for cross-component forecasting in accordance with the proposed technology.
Фиг. 12 представляет блок-схему примера системы обработки видео, в которой может быть реализована предлагаемая технология.Fig. 12 is a block diagram of an example video processing system in which the proposed technology may be implemented.
Фиг. 13 показывает логическую схему примера способа обработки визуальных медиа данных.Fig. 13 shows a logic diagram of an example of a method for processing visual media data.
Фиг. 14 показывает логическую схему примера способа обработки визуальных медиаданных.Fig. 14 shows a logic diagram of an example of a method for processing visual media data.
Фиг. 15 показывает логическую схему примера способа обработки визуальных медиаданных. Fig. 15 shows a logic diagram of an example of a method for processing visual media data.
Фиг. 16 показывает логическую схему примера способа обработки визуальных медиаданных. Fig. 16 shows a logic diagram of an example of a method for processing visual media data.
Фиг. 17 показывает логическую схему примера способа обработки визуальных медиаданных.Fig. 17 shows a logic diagram of an example of a method for processing visual media data.
Фиг. 18 показывает логическую схему примера способа обработки визуальных медиаданных.Fig. 18 shows a logic diagram of an example of a method for processing visual media data.
Фиг. 19 показывает логическую схему примера способа обработки визуальных медиаданных. Fig. 19 shows a logic diagram of an example of a method for processing visual media data.
Фиг. 20 показывает логическую схему примера способа обработки визуальных медиаданных.Fig. 20 shows a logic diagram of an example of a method for processing visual media data.
Фиг. 21 показывает логическую схему примера способа обработки визуальных медиаданных.Fig. 21 shows a logic diagram of an example of a method for processing visual media data.
Фиг. 22 показывает логическую схему примера способа обработки визуальных медиаданных.Fig. 22 shows a logic diagram of an example of a method for processing visual media data.
Фиг. 23 показывает логическую схему примера способа обработки визуальных медиаданных.Fig. 23 shows a logic diagram of an example of a method for processing visual media data.
Осуществление изобретенияCarrying out the invention
2.1 Краткий обзор стандарта кодирования HEVC2.1 Brief overview of the HEVC encoding standard
2.1.1. Режим внутрикадрового прогнозирования в стандарте HEVC/H.2652.1.1. Intra-frame prediction mode in HEVC/H.265 standard
При внутрикадровом прогнозировании привлекают генерацию отсчетов для конкретного рассматриваемого блока преобразования (TB (transform block)) с использованием отсчетов, ранее реконструированных в рассматриваемом цветовом канале. Сигнализацию о режиме внутрикадрового прогнозирования передают по отдельности для яркостного и цветностных каналов, так что режим внутрикадрового прогнозирования для цветностного канала может в качестве опции зависеть от режима внутрикадрового прогнозирования для яркостного канала через режим ‘DM_CHROMA’. Хотя сигнализацию о режиме внутрикадрового прогнозирования передают на уровне блока прогнозирования (PB (prediction block)), процедуру внутрикадрового прогнозирования применяют на уровне блока TB, в соответствии с иерархией дерева квадратов для остатка для рассматриваемой единицы CU, позволяя тем самым, чтобы кодирование одного блока TB влияло на кодирование следующего блока TB в той же рассматриваемой единице CU, и поэтому уменьшая расстояние до отсчетов, используемых в качестве опорных значений. Intra-frame prediction involves generating samples for the specific transform block under consideration (TB (transform block)) using samples previously reconstructed in the color channel under consideration. The intra prediction mode is signaled separately for the luminance and chroma channels, so that the intra prediction mode for the chroma channel can optionally depend on the intra prediction mode for the luminance channel via the 'DM_CHROMA' mode. Although the intra-prediction mode is signaled at the PB (prediction block) level, the intra-prediction procedure is applied at the TB level, in accordance with the square tree hierarchy for the remainder for the CU in question, thereby allowing one TB to be encoded affecting the encoding of the next TB block in the same CU under consideration, and therefore reducing the distance to the samples used as reference values.
Кодирование HEVC использует 35 режимов внутрикадрового прогнозирования – DC-режим, планарный режим и 33 направленных или «угловых» режима внутрикадрового прогнозирования. Эти 33 угловых режима внутрикадрового прогнозирования иллюстрированы на Фиг. 1.HEVC coding uses 35 intra-prediction modes—DC mode, planar mode, and 33 directional or “angular” intra-prediction modes. These 33 angular intra-prediction modes are illustrated in FIG. 1.
Для блоков PB, ассоциированных с цветовыми каналами цветностной составляющей, режим внутрикадрового прогнозирования специфицирован как либо планарный режим, DC-режим, горизонтальный режим, вертикальный режим, режим ‘DM_CHROMA’, либо иногда диагональный режим ‘34’. For PB blocks associated with chrominance color channels, the intra-frame prediction mode is specified as either planar mode, DC mode, horizontal mode, vertical mode, 'DM_CHROMA' mode, or sometimes '34' diagonal mode.
Отметим, что для цветностных форматов 4:2:2 и 4:2:0, блок PB цветностной составляющей может накладываться на два или четыре (соответственно) блока PB; в этом случае направление яркостной составляющей для режима DM_CHROMA принимают от верхней левой части этих блоков PB яркостной составляющей.Note that for 4:2:2 and 4:2:0 chrominance formats, a chrominance component PB block may be superimposed on two or four (respectively) PB blocks; in this case, the luminance component direction for the DM_CHROMA mode is taken from the upper left part of these luminance component blocks PB.
Режим DM_CHROMA обозначает, что режим внутрикадрового прогнозирования для блока PB цветового канала яркостной составляющей применяется к блокам PB цветовых каналов цветностных составляющих. Поскольку это является относительно общим, схема кодирования наиболее вероятных режимов для режима intra_chroma_pred_mode смещена в пользу этого выбранного режима.The DM_CHROMA mode indicates that the intra-prediction mode for the luminance component color channel block PB is applied to the chrominance component color channel blocks PB. Because this is relatively general, the most likely mode encoding scheme for intra_chroma_pred_mode is biased in favor of this selected mode.
2.2 Описание алгоритма универсального видео кодирования (VVC) 2.2 Description of the Versatile Video Coding (VVC) algorithm
- Архитектура кодирования VVC - VVC encoding architecture
Для исследований в области технологий кодирования видео будущего, которые будут разработаны после технологии кодирования HEVC, группа экспертов по кодированию видео (VCEG) (Q6/16) и отдел ISO/IEC JTC1 SC29/WG11 (MPEG) в 2015 г. совместно основали Объединенную группу исследований в области видео (Joint Video Exploration Team (JVET)). Совещания группы JVET проходят по согласованию раз в квартал, а новый стандарт кодирования имеет целью добиться снижения требуемой скорости передачи битов данных на 50% по сравнению с кодированием HEVC. Новый стандарт кодирования видео был официально назван Универсальное видео кодирование (Versatile Video Coding (VVC)) на совещании группы JVET в апреле 2018 г., и в это время была выпущена первая версия тестовой модели для кодирования VVC (модели VTM). Поскольку работы по стандартизации кодирования VVC продолжаются непрерывно, на каждом совещании группы JVET в стандарт кодирования VVC вносят все новые и новые способы кодирования. Тогда рабочий проект стандарта кодирования VVC и тестовую модель VTM обновляют после каждого совещания. В настоящее время проект кодирования VVC нацелен на техническое завершение (FDIS) на совещании в июле 2020.For research into future video encoding technologies that will be developed after HEVC encoding technology, the Video Coding Expert Group (VCEG) (Q6/16) and the ISO/IEC JTC1 SC29/WG11 (MPEG) Division jointly founded a Joint Group in 2015 research in the field of video (Joint Video Exploration Team (JVET)). The JVET meets by consensus quarterly, and the new encoding standard aims to achieve a 50% reduction in the required data bit rate compared to HEVC encoding. The new video encoding standard was officially named Versatile Video Coding (VVC) at the April 2018 JVET meeting, and the first version of the VVC encoding test model (VTM models) was released at that time. As VVC encoding standardization efforts continue continuously, more and more new encoding methods are added to the VVC encoding standard at each JVET meeting. Then the working draft of the VVC coding standard and the VTM test model are updated after each meeting. The VVC coding project is currently targeting technical completion (FDIS) at the July 2020 meeting.
Как и большинство предыдущих стандартов, стандарт кодирования VVC имеет гибридную архитектуру кодирования на блочной основе, комбинирующую кодирование с межкадровым и внутрикадровым прогнозированием и кодирование с преобразованием с энтропийным кодированием. Структура разбиения изображения разбивает входное видео на блоки, называемые единицами дерева кодирования (coding tree unit (CTU)). Единицу CTU разбивают с использованием дерева квадратов со структурой дерева с вложенными несколькими типами на единицы кодирования (coding unit (CU)), где концевая («лист» дерева) единица кодирования (CU) определяет область, совместно использующую один и тот же режим прогнозирования (например, внутрикадровое или межкадровое прогнозирование). В настоящем документе термин «единица» (‘unit’) определяет область изображения, покрывающую все цветовые составляющие; термин «блок» (‘block’) используется для определения области, покрывающей конкретную цветовую составляющую (например, яркостную составляющую), и может отличаться по пространственному расположению, когда учитывается формат отсчетов цветностной составляющей, такой как формат 4:2:0.Like most previous standards, the VVC coding standard has a hybrid block-based coding architecture combining inter- and intra-frame prediction coding and entropy transform coding. The image partitioning structure splits the input video into blocks called coding tree units (CTUs). The CTU is partitioned using a square tree with a nested multi-type tree structure into coding units (CUs), where the leaf (“leaf” of the tree) coding unit (CU) defines the region sharing the same prediction mode ( for example, intra-frame or inter-frame prediction). As used herein, the term 'unit' defines the area of the image that covers all color components; The term 'block' is used to define the area covering a particular color component (eg luminance component), and may differ in spatial arrangement when the chroma sample format, such as 4:2:0, is taken into account.
2.2.2 Разбиение по схеме двойного/раздельного дерева в стандарте кодирования VVC2.2.2 Double/split tree partitioning in the VVC coding standard
Яркостная составляющая и цветностная составляющая могут иметь раздельные деревья разбиения для I-срезов. Разбиение по структуре раздельных деревьев осуществляется на уровне блока размером 64x64 вместо уровня единицы CTU. В программном обеспечении модели VTM имеется флаг набора SPS для управления включением и выключением структуры двойного дерева.The luminance component and the chrominance component may have separate partition trees for I-slices. Split tree partitioning is done at the 64x64 block level instead of the CTU level. The VTM model software has an SPS set flag to control whether the dual tree structure is enabled or disabled.
2.2.3 Внутрикадровое прогнозирование в стандарте кодирования VVC2.2.3 Intra-frame prediction in the VVC coding standard
2.2.3.1 67 режимов внутрикадрового прогнозирования2.2.3.1 67 intra-frame prediction modes
Для захвата произвольных направлений края, представленных в естественном видео, число направленных режимов внутрикадрового прогнозирования в модели VTM4 расширено с 33, как это используется в стандарте кодирования HEVC, до 65. Новые направленные режимы, отсутствующие в стандарте кодирования HEVC, изображены красными пунктирными стрелками на Фиг. 2, а планарный режим и DC-режим остаются теми же самыми. Эти распределенные более плотно направленные режимы внутрикадрового прогнозирования применимы к внутрикадровому прогнозированию для всех размеров блоков и обеим составляющим – яркостной составляющей и цветностной составляющей. To capture arbitrary edge directions present in natural video, the number of intra-prediction directional modes in the VTM4 model is expanded from 33, as used in the HEVC encoding standard, to 65. New directional modes not present in the HEVC encoding standard are depicted by the red dotted arrows in FIG. . 2, and planar mode and DC mode remain the same. These distributed, more densely targeted intra-prediction modes apply to intra-prediction for all block sizes and both luma and chrominance components.
2.2.3.2 Прогнозирование с использованием кросс-компонентной линейной модели (CCLM)2.2.3.2 Forecasting using Cross Component Linear Model (CCLM)
Для уменьшения кросс-компонентной избыточности, в модели VTM4 применяется режим прогнозирования с использованием кросс-компонентной линейной модели (CCLM), в котором отсчеты цветностной составляющей прогнозируют на основе реконструированных отсчетов яркостной составляющей из той же самой единицы CU с использованием линейной модели следующим образом:To reduce cross-component redundancy, the VTM4 model uses a cross-component linear model (CCLM) prediction mode in which chrominance samples are predicted from reconstructed luminance samples from the same CU using a linear model as follows:
где представляет прогнозируемые отсчеты цветностной составляющей в некоторой единице CU и представляет субдискретизированные реконструированные отсчеты яркостной составляющей из той же самой единицы CU. Параметры и линейной модели определяют из соотношения между яркостными значениями и цветностными значениями из двух отсчетов, представляющих собой отсчеты яркостной составляющей с минимальным значением отсчета и максимальным значением отсчета яркостной составляющей внутри множества соседних отсчетов субдискретизированной яркостной составляющей, и соответствующих им отсчетов цветностной составляющей. Параметры и линейной модели получают в соответствии со следующими уравнениями.Where represents the predicted chrominance samples in some CU unit and represents subsampled reconstructed luminance samples from the same CU. Options And linear model is determined from the relationship between the luminance values and chrominance values from two samples, which are the luminance component samples with the minimum sample value and the maximum luminance component sample value within a set of adjacent samples of the subsampled luminance component, and the corresponding chrominance component samples. Options And linear model is obtained according to the following equations.
где Ya и Xa представляют яркостное значение и цветностное значение, соответствующие отсчету яркостной составляющей с максимальным значением отсчета яркостной составляющей. И Xb и Yb представляют яркостное значение и цветностное значение, соответствующие отсчету яркостной составляющей с минимальным значением отсчета яркостной составляющей. Фиг. 3 показывает пример позиций отсчетов слева и сверху и отсчета текущего блока, используемого в режиме на основе модели CCLM.where Y a and X a represent a luminance value and a chrominance value corresponding to a luminance component sample with a maximum luminance component sample value. Both X b and Y b represent a luminance value and a chrominance value corresponding to a luminance component sample with a minimum luminance component sample value. Fig. 3 shows an example of the left and top sample positions and the current block sample used in the CCLM model-based mode.
Операция разбиения для вычисления параметра α реализуется с использованием преобразовательной таблицы. Для уменьшения объема памяти, необходимого для сохранения таблицы, значение параметра diff (разность между максимальным и минимальным значениями) и параметр α выражают в экспоненциальной форме. Например, параметр diff аппроксимируют посредством 4-битовой значимой части и экспоненциальной части. Следовательно, таблица для значения 1/diff уменьшается до 16 элементов для 16 значений мантиссы следующим образом:The partitioning operation to calculate the parameter α is implemented using a conversion table. To reduce the amount of memory required to store the table, the value of the diff parameter (the difference between the maximum and minimum values) and the α parameter are expressed in exponential form. For example, the diff parameter is approximated by a 4-bit significant part and an exponential part. Therefore, the table for the value 1/diff is reduced to 16 elements for 16 mantissa values as follows:
DivTable [ ] = {0, 7, 6, 5, 5, 4, 4, 3, 3, 2, 2, 1, 1, 1, 1, 0}DivTable [ ] = {0, 7, 6, 5, 5, 4, 4, 3, 3, 2, 2, 1, 1, 1, 1, 0}
Это должно дать выигрыш, как в уменьшении сложности вычислений, так и в уменьшении объема памяти, требуемого для сохранения необходимых таблиц.This should provide benefits both in reducing the complexity of calculations and in reducing the amount of memory required to store the necessary tables.
Помимо совместного использования шаблона сверху и шаблона слева для вычисления коэффициентов линейной модели, они могут быть использованы в качестве альтернативы в двух других LM-режимах, называемых режимами LM_A и LM_L.In addition to using the top template and the left template together to calculate linear model coefficients, they can be used alternatively in two other LM modes, called LM_A and LM_L modes.
В режиме LM_A только шаблон сверху используется для вычисления коэффициентов линейной модели. Для получения большего числа отсчетов шаблон сверху расширяют до (W+H). В режиме LM_L только шаблон слева используется для вычисления коэффициентов линейной модели. Для получения большего числа отсчетов шаблон слева расширяют до (H+W).In LM_A mode, only the template on top is used to calculate the coefficients of the linear model. To obtain a larger number of samples, the template from above is expanded to (W+H). In LM_L mode, only the template on the left is used to calculate the coefficients of the linear model. To obtain more samples, the pattern on the left is expanded to (H+W).
Для неквадратного блока шаблон сверху расширяют до W+W, а шаблон слева расширяют до H+H. For a non-square block, the pattern on the top is expanded to W+W, and the pattern on the left is expanded to H+H.
Для согласования позиций отсчетов цветностной составляющей для видео последовательностей в формате 4:2:0, к отсчетам яркостной составляющей применяют субдискретизирующие фильтры двух типов для достижения отношения субдискретизации (понижения разрешения) 2 к 1 в обоих – горизонтальном и вертикальном, направлениях. Выбор субдискретизирующего фильтра специфицирован флагом на уровне набора SPS. Указанные два субдискретизирующих фильтра описаны следующими соотношениями, которые соответствуют контенту «тип-0» и «тип-2».To match the positions of the chrominance component samples for video sequences in 4:2:0 format, subsampling filters of two types are applied to the luminance component samples to achieve a subsampling ratio (resolution reduction) of 2 to 1 in both horizontal and vertical directions. The selection of the downsampling filter is specified by a flag at the SPS set level. These two downsampling filters are described by the following relationships, which correspond to the content “type-0” and “type-2”.
Отметим, что только одна строка яркостной составляющей (обобщенный буфер строк для внутрикадрового прогнозирования) используется для создания субдискретизированных отсчетов яркостной составляющей, когда верхняя опорная строка располагается на границе единицы CTU.Note that only one luminance row (generalized intra-prediction row buffer) is used to generate subsampled luminance samples when the top reference row is located at the CTU boundary.
Такое вычисление параметров осуществляется как часть процедуры декодирования, и не является просто операцией поиска в кодирующем устройстве. В результате, никакой синтаксис не используется для передачи значений параметров α и β декодирующему устройству.This parameter calculation is carried out as part of the decoding procedure, and is not simply a search operation in the encoder. As a result, no syntax is used to pass the values of the α and β parameters to the decoder.
Для кодирования цветностной составляющей посредством внутрикадрового прогнозирования допускается использование в целом 8 режимов внутрикадрового прогнозирования. Совокупность этих восьми режимов содержит пять традиционных режимов внутрикадрового прогнозирования и три режима с применением кросс-компонентной линейной модели (CCLM, LM_A и LM_L). Режим кодирования цветностной составляющей прямо зависит от режима внутрикадрового прогнозирования соответствующего блока яркостной составляющей. Поскольку в I-срезах возможно применение раздельной структуры секционирования блоков для яркостной и цветностной составляющих, один блок цветностной составляющей может соответствовать нескольким блокам яркостной составляющей. Поэтому, для DM-режима кодирования цветностной составляющей (режим Chroma DM) непосредственно «наследуется» режим внутрикадрового прогнозирования для соответствующего блока яркостной составляющей, покрывающего центральную позицию текущего блока цветностной составляющей. 2.2.3.2.1 Соответствующий модифицированный рабочий проект (JVET-N0271)To encode the color component using intra-frame prediction, a total of 8 intra-frame prediction modes can be used. The set of these eight modes contains five traditional intra-frame prediction modes and three cross-component linear model modes (CCLM, LM_A and LM_L). The coding mode of the chrominance component directly depends on the intra-frame prediction mode of the corresponding block of the luminance component. Since I-slices can use separate block partitioning structures for luma and chrominance components, one chroma block can correspond to multiple luma blocks. Therefore, for the DM chroma coding mode (Chroma DM mode), the intra-prediction mode for the corresponding luminance block covering the central position of the current chrominance block is directly “inherited”. 2.2.3.2.1 Corresponding modified detailed design (JVET-N0271)
Последующее описание основано на модифицированном рабочем проекте в документе JVET-M1001 и его применении в документе JVET-N0271. Модификация принятого документа JVET-N0220 показана жирным шрифтом с подчеркиванием.The following description is based on a modified detailed design in JVET-M1001 and its application in JVET-N0271. The modification to the accepted document JVET-N0220 is shown in bold with underlining.
Таблица синтаксисаSyntax table
Синтаксис набора параметров последовательности RBSP RBSP Sequence Parameter Set Syntax
Флаг , равный 0 специфицирует, что внутрикадровое прогнозирование с использованием кросс-компонентной линейной модели от яркостной составляющей к цветностной составляющей не активизировано. Флаг sps_cclm_enabled_flag равный 1 специфицирует, что внутрикадровое прогнозирование с использованием кросс-компонентной линейной модели от яркостной составляющей к цветностной составляющей активизировано.Flag , equal to 0 specifies that intra-frame prediction using a cross-component linear model from luma to chrominance is not enabled. The sps_cclm_enabled_flag flag equal to 1 specifies that intra-frame prediction using a cross-component linear model from luma to chrominance is enabled.
Прогнозируемсые отсчеты predSamples[ x ][ y ] при x = 0..nTbW − 1, y = 0..nTbH − 1 определяют следующим образом:The predicted samples predSamples[ x ][ y ] for x = 0..nTbW − 1, y = 0..nTbH − 1 are determined as follows:
- Если оба числа numSampL и numSampT равны 0, применяется следующее:- If both numSampL and numSampT are 0, the following applies:
- В противном случае, применяются следующие упорядоченные этапы:- Otherwise, the following ordered steps apply:
1. Расположенные в том же месте pY[ x ][ y ] отсчеты яркостной составляющей при x = 0..nTbW * 2 − 1, y= 0..nTbH * 2 – 1 устанавливают равными реконструированным отсчетам яркостной составляющей прежде процедуры деблокирующей фильтрации в позициях ( xTbY + x, yTbY + y ).1. The brightness component samples located in the same place pY[ x ][ y ] at x = 0..nTbW * 2 − 1, y= 0..nTbH * 2 – 1 are set equal to the reconstructed brightness component samples before the deblocking filtering procedure in positions ( xTbY + x, yTbY + y ).
2. Соседние отсчеты pY[ x ][ y ] яркостной составляющей определяют следующим образом:2. Adjacent samples pY[ x ][ y ] of the brightness component are determined as follows:
- Когда число numSampL больше 0, соседние слева отсчеты pY[ x ][ y ] яркостной составляющей при x = −1..−3, y = 0..2 * numSampL − 1, устанавливают равными реконструированным отсчетам яркостной составляющей прежде процедуры деблокирующей фильтрации в позициях ( xTbY + x , yTbY +y ).- When the number numSampL is greater than 0, the adjacent left samples pY[ x ][ y ] of the luminance component at x = −1..−3, y = 0..2 * numSampL − 1 are set equal to the reconstructed samples of the luminance component before the deblocking filtering procedure at positions ( xTbY + x , yTbY +y ).
- Когда число numSampT больше 0, соседние сверху отсчеты pY[ x ][ y ] яркостной составляющей при x = 0..2 * numSampT − 1, y = −1, −2, устанавливают равными реконструированным отсчетам яркостной составляющей прежде процедуры деблокирующей фильтрации в позициях ( xTbY+ x, yTbY + y ).- When the number numSampT is greater than 0, the upper adjacent samples pY[ x ][ y ] of the brightness component at x = 0..2 * numSampT − 1, y = −1, −2, are set equal to the reconstructed samples of the brightness component before the deblocking filtering procedure in positions ( xTbY+ x, yTbY + y ).
- Когда переменная availTL равна «Истинно» (TRUE), соседние сверху слева отсчеты pY[ x ][ y ] яркостной составляющей при x = −1, y = −1, −2, устанавливают равными реконструированным отсчетам яркостной составляющей прежде процедуры деблокирующей фильтрации в позициях ( xTbY+ x, yTbY + y ).- When the variable availTL is equal to “True” (TRUE), the adjacent upper left luminance samples pY[ x ][ y ] at x = −1, y = −1, −2 are set equal to the reconstructed luminance samples before the deblocking filtering procedure in positions ( xTbY+ x, yTbY + y ).
3. Субдискретизированные расположенные в том же месте отсчеты pDsY[ x ][ y ] яркостной составляющей при x = 0..nTbW − 1, y = 0..nTbH − 1 определяют следующим образом:3. Subsampled samples pDsY[ x ][ y ] of the brightness component located in the same place at x = 0..nTbW − 1, y = 0..nTbH − 1 are determined as follows:
- Если флаг sps_cclm_colocated_chroma_flag равен 1, применяется следующее:- If sps_cclm_colocated_chroma_flag is 1, the following applies:
- pDsY[ x ][ y ] при x = 1..nTbW − 1, y = 1..nTbH − 1 определяют следующим образом:- pDsY[ x ][ y ] for x = 1..nTbW − 1, y = 1..nTbH − 1 is determined as follows:
- Если переменная availL равна «Истинно» (TRUE), pDsY[ 0 ][ y ] при y = 1..nTbH − 1 определяют следующим образом:- If the variable availL is TRUE, pDsY[ 0 ][ y ] for y = 1..nTbH − 1 is defined as follows:
- В противном случае, pDsY[ 0 ][ y ] при y = 1..nTbH − 1 определяют следующим образом:- Otherwise, pDsY[ 0 ][ y ] for y = 1..nTbH − 1 is defined as follows:
- Если переменная availT равна «Истинно» (TRUE), pDsY[ x ][ 0 ] при x = 1..nTbW − 1 определяют следующим образом:- If the variable availT is TRUE, pDsY[ x ][ 0 ] for x = 1..nTbW − 1 is defined as follows:
- В противном случае, pDsY[ x ][ 0 ] при x = 1..nTbW − 1 определяют следующим образом:- Otherwise, pDsY[ x ][ 0 ] for x = 1..nTbW − 1 is defined as follows:
- Если переменная availL равна «Истинно» (TRUE) и переменная availT равна «Истинно» (TRUE), pDsY[ 0 ][ 0 ] определяют следующим образом:- If availL is TRUE and availT is TRUE, pDsY[ 0 ][ 0 ] is defined as follows:
- В противном случае, если переменная availL равна «Истинно» (TRUE) и переменная availT равна «ЛОЖНО» (FALSE), pDsY[ 0 ][ 0 ] определяют следующим образом:- Otherwise, if availL is TRUE and availT is FALSE, pDsY[ 0 ][ 0 ] is defined as follows:
- В противном случае, если переменная availL равна «ЛОЖНО» (FALSE) и переменная availT равна «Истинно» (TRUE), pDsY[ 0 ][ 0 ] определяют следующим образом:- Otherwise, if availL is FALSE and availT is TRUE, pDsY[ 0 ][ 0 ] is defined as follows:
- В противном случае (переменная availL равна «ЛОЖНО» (FALSE) и переменная availT равна «ЛОЖНО» (FALSE)), pDsY[ 0 ][ 0 ] определяют следующим образом:- Otherwise (availL is FALSE and availT is FALSE), pDsY[ 0 ][ 0 ] is defined as follows:
- В противном случае, применяется следующее:- Otherwise, the following applies:
- pDsY[ x ][ y ] при x = 1..nTbW − 1, y = 0..nTbH − 1 определяют следующим образом:- pDsY[ x ][ y ] for x = 1..nTbW − 1, y = 0..nTbH − 1 is determined as follows:
2* pY[ 2 * x ][ 2 * y ] + 2*pY[ 2 * x ][ 2 * y + 1 ] +
pY[ 2 * x + 1 ][ 2 * y ] +
pY[ 2 * x + 1 ][ 2 * y + 1 ] + 4 ) >> 3pDsY[ x ][ y ] = ( pY[ 2 * x − 1 ][ 2 * y ] + pY[ 2 * x − 1 ][ 2 * y + 1 ] +
2* pY[ 2 * x ][ 2 * y ] + 2*pY[ 2 * x ][ 2 * y + 1 ] +
pY[ 2 * x + 1 ][ 2 * y ] +
pY[ 2 * x + 1 ][ 2 * y + 1 ] + 4 ) >> 3
- Если переменная availL равна «Истинно» (TRUE), pDsY[ 0 ][ y ] при y = 0..nTbH − 1 определяют следующим образом:- If the variable availL is TRUE, pDsY[ 0 ][ y ] for y = 0..nTbH − 1 is defined as follows:
2* pY[ 0 ][ 2 * y ] + 2*pY[ 0 ][ 2*y + 1 ] +
pY[ 1 ][ 2 * y ] + pY[ 1 ][ 2 * y + 1 ] + 4 ) >> 3pDsY[ 0 ][ y ] = ( pY[ −1 ][ 2 * y ] + pY[ −1 ][ 2 * y + 1 ] +
2* pY[ 0 ][ 2 * y ] + 2*pY[ 0 ][ 2*y + 1 ] +
pY[ 1 ][ 2 * y ] + pY[ 1 ][ 2 * y + 1 ] + 4 ) >> 3
(8-173)
- В противном случае, pDsY[ 0 ][ y ] при y = 0..nTbH − 1 определяют следующим образом:- Otherwise, pDsY[ 0 ][ y ] for y = 0..nTbH − 1 is defined as follows:
- В противном случае, применяется следующее:- Otherwise, the following applies:
2* pY[ −2 ][ 2 * y ] + 2*pY[ −2 ][ 2 * y + 1 ] + pY[ −3 ][ 2 * y ] + pY[ −3]
[ 2 * y + 1 ] + 4 ) >> 3 = ( pY[ −1 ][ 2 * y ] + pY[ −1 ][ 2 * y + 1 ] +
2* pY[ −2 ][ 2 * y ] + 2*pY[ −2 ][ 2 * y + 1 ] + pY[ −3 ][ 2 * y ] + pY[ −3]
[ 2 * y + 1 ] + 4 ) >> 3
- Если bCTUboundary равна «ЛОЖНО» (FALSE), применяется следующее:- If bCTUboundary is FALSE, the following applies:
- В противном случае (bCTUboundary равен «Истинно» (TRUE)), применяется следующее:- Otherwise (bCTUboundary is TRUE), the following applies:
- В противном случае:- Otherwise:
- Если переменная availTL равна «Истинно» (TRUE) и параметр bCTUboundary равен «ЛОЖНО» (FALSE), применяется следующее:- If availTL is TRUE and bCTUboundary is FALSE, the following applies:
- В противном случае, если переменная availTL равна «Истинно» (TRUE) и параметр bCTUboundary равен «Истинно» (TRUE), применяется следующее:- Otherwise, if availTL is TRUE and bCTUboundary is TRUE, the following applies:
- В противном случае, если переменнавя availTL равна «ЛОЖНО» (FALSE) и параметр bCTUboundary равен «ЛОЖНО» (FALSE), применяется следующее:- Otherwise, if availTL is FALSE and bCTUboundary is FALSE, the following applies:
- В противном случае (переменная availTL равна «ЛОЖНО» (FALSE) и параметр bCTUboundary равен «Истинно» (TRUE)), применяется следующее:- Otherwise (availTL is FALSE and bCTUboundary is TRUE), the following applies:
− В противном случае, применяется следующее:− Otherwise, the following applies:
- Если параметр bCTUboundary равен «ЛОЖНО» (FALSE), применяется следующее:- If bCTUboundary is FALSE, the following applies:
− В противном случае парамсетр (bCTUboundary равен «Истинно» (TRUE)), применяется следующее:− Otherwise the parameter (bCTUboundary is TRUE), the following applies:
- В противном случае:- Otherwise:
- Если переменная availTL равна «Истинно» (TRUE) и параметр bCTUboundary равен «ЛОЖНО» (FALSE), применяется следующее:- If availTL is TRUE and bCTUboundary is FALSE, the following applies:
- В противном случае, если переменная availTL равна «Истинно» (TRUE) и параметр bCTUboundary равен «Истинно» (TRUE), применяется следующее:- Otherwise, if availTL is TRUE and bCTUboundary is TRUE, the following applies:
- В противном случае, если переменная availTL равна «ЛОЖНО» (FALSE) и параметр bCTUboundary равен «ЛОЖНО» (FALSE), применяется следующее:- Otherwise, if availTL is FALSE and bCTUboundary is FALSE, the following applies:
- В противном случае (переменная availTL равна «ЛОЖНО» (FALSE) и параметр bCTUboundary равен «Истинно» (TRUE)), применяется следующее:- Otherwise (availTL is FALSE and bCTUboundary is TRUE), the following applies:
7. Переменные a, b и k определяют следующим образом:7. Variables a, b and k are defined as follows:
- Если число numSampL равно 0, и число numSampT равно 0, применяется следующее:- If numSampL is 0 and numSampT is 0, the following applies:
- В противном случае, применяется следующее:- Otherwise, the following applies:
- Если diff не равно 0, применяется следующее:- If diff is not 0, the following applies:
где параметр divSigTable[ ] специфицирован следующим образом:where the divSigTable[ ] parameter is specified as follows:
divSigTable[ ] = { 0, 7, 6, 5, 5, 4, 4, 3, 3, 2, 2, 1, 1, 1, 1, 0 } (8-221)divSigTable[ ] = { 0, 7, 6, 5, 5, 4, 4, 3, 3, 2, 2, 1, 1, 1, 1, 0 } (8-221)
- В противном случае (diff равно 0), применяется следующее:- Otherwise (diff equals 0), the following applies:
8. Прогнозируемые отсчеты predSamples[ x ][ y ] при x = 0..nTbW − 1, y = 0.. nTbH − 1 определяют следующим образом:8. Predicted samples predSamples[ x ][ y ] for x = 0..nTbW − 1, y = 0.. nTbH − 1 are determined as follows:
predSamples[ x ][ y ] = Clip1C( ( ( pDsY[ x ][ y ] * a ) >> k ) + b ) (8-225)predSamples[ x ][ y ] = Clip1C( ( ( pDsY[ x ][ y ] * a ) >> k ) + b ) (8-225)
2.2.3.3 Разнообразные аспекты внутрикадрового прогнозирования 2.2.3.3 Various aspects of intra-frame prediction
Документ VTM4 содержит много инструментов внутрикадрового кодирования, отличных от стандарта кодирования HEVC, например, следующие признаки были включены в тестовую модель 3 стандарта кодирования VVC поверх структуры дерева блоков.The VTM4 document contains many intra-frame coding tools other than the HEVC coding standard, for example, the following features were included in the VVC coding standard test model 3 on top of the block tree structure.
- 67 режимов внутрикадрового прогнозирования с расширением на широкоугольные режимы - 67 intra-frame prediction modes with extension to wide-angle modes
- Зависимый от размеров блока и режима интерполяционный фильтр с 4 отводами - Block size and mode dependent interpolation filter with 4 taps
- Зависимая от позиции комбинация внутрикадрового прогнозирования (position dependent intra prediction combination (PDPC))- Position dependent intra prediction combination (PDPC)
- Внутрикадровое прогнозирование с использованием кросс-компонентной линейной модели- Intra-frame prediction using cross-component linear model
- Внутрикадровое прогнозирование с использованием нескольких опорных строк- Intra-frame prediction using multiple reference lines
- Внутрикадровое разбиение на субблоки - Intra-frame division into subblocks
2.2.4 Режим внутрикадрового прогнозирования в стандарте кодирования VVC2.2.4 Intra-prediction mode in the VVC coding standard
2.2.4.1 Комбинированный режим с внутрикадровым и межкадровым прогнозированием (CIIP)2.2.4.1 Combined intra-interprediction (CIIP) mode
В документе VTM4, когда единицу CU кодируют в режиме объединения, и если эта единица CU содержит по меньшей мере 64 отсчета яркостной составляющей (иными словами, произведение ширины единицы CU на высоту единицы CU не меньше 64), передают в виде сигнализации дополнительный флаг для индикации, применяется ли комбинированный режим с внутрикадровым и межкадровым прогнозированием (combined inter/intra prediction (CIIP)) к текущей единице CU. In the VTM4 document, when a CU is encoded in the combined mode, and if the CU contains at least 64 luminance samples (in other words, the product of the width of the CU and the height of the CU is at least 64), an additional flag is signaled to indicate whether combined inter/intra prediction (CIIP) is applied to the current CU.
Для формирования прогнозирования в комбинированном режиме CIIP сначала определяют режим внутрикадрового прогнозирования на основе двух дополнительных синтаксических элементов. Могут быть использованы вплоть до четырех возможных режимов внутрикадрового прогнозирования: DC-режим, планарный режим, горизонтальный режим или вертикальный режим. Затем формируют сигналы межкадрового и внутрикадрового прогнозирования с использованием регулярных процедур внутрикадрового и межкадрового прогнозирования. Наконец, осуществляют взвешенное усреднение этих сигналов межкадрового и внутрикадрового прогнозирования для получения прогнозирования в комбинированном режиме CIIP. To generate CIIP combined mode prediction, an intra-frame prediction mode is first determined based on two additional syntax elements. Up to four possible intra-prediction modes can be used: DC mode, planar mode, horizontal mode, or vertical mode. Then, inter- and intra-frame prediction signals are generated using regular intra- and inter-frame prediction procedures. Finally, weighted averaging of these inter- and intra-frame prediction signals is performed to obtain combined CIIP mode prediction.
2.2.4.2 Разнообразные аспекты внутрикадрового прогнозирования2.2.4.2 Various aspects of intra-frame prediction
Документ VTM4 содержит много инструментов кодирования с использованием межкадрового прогнозирования, отличающихся от стандарта кодирования HEVC, например, следующие признаки были включены в тестовую модель 3 стандарта кодирования VVC поверх структуры дерева блоков.The VTM4 document contains many inter-prediction coding tools that differ from the HEVC coding standard, for example, the following features were included in the VVC coding standard test model 3 on top of the block tree structure.
- Аффинное межкадровое прогнозирование движения - Affine interframe motion prediction
- Временное прогнозирование векторов движения на основе субблоков - Temporal prediction of motion vectors based on subblocks
- Адаптивное разрешение вектора движения- Adaptive motion vector resolution
- Сжатие движения на основе блоков 8x8 для временного прогнозирования движения - Motion compression based on 8x8 blocks for temporal motion prediction
- Сохранение векторов движения с высокой точностью (1/16 pel) и компенсация движения с использованием 8-отводного интерполяционного фильтра для яркостной составляющей и 4-отводного интерполяционного фильтра для цветностной составляющей - High precision motion vector storage (1/16 pel) and motion compensation using 8-tap luminance interpolation filter and 4-tap chrominance interpolation filter
- Треугольное разбиение - Triangular partition
- Комбинированный режим с внутрикадровым и межкадровым прогнозированием- Combined mode with intra-frame and inter-frame prediction
- Режим объединения с разностями MVD (MMVD)- Merge mode with differences MVD (MMVD)
- Симметричное кодирование разностей MVD - Symmetric MVD difference coding
- Двунаправленный оптический поток- Bidirectional optical flow
- Уточнение вектора движения на стороне декодирующего устройства- Clarification of the motion vector on the side of the decoding device
- Взвешенное усреднение с двунаправленным прогнозированием - Weighted averaging with bidirectional prediction
2.2.5 Внутриконтурные фильтры2.2.5 In-circuit filters
В документе VTM4 имеются всего три внутриконтурных фильтра. Помимо деблокирующего фильтра и нелинейного фильтра с адаптивным смещением (sample adaptive offset filter (SAO)), двух типов фильтров, используемых в стандарте кодирования HEVC, в документе VTM4 применяется адаптивный контурный фильтр (adaptive loop filter (ALF)). Фильтрация в документе VTM4 осуществляется в порядке – деблокирующий фильтр, фильтр SAO и фильтр ALF.There are only three in-loop filters in the VTM4 document. In addition to the deblocking filter and the sample adaptive offset filter (SAO), two types of filters used in the HEVC coding standard, the VTM4 document uses an adaptive loop filter (ALF). Filtering in a VTM4 document is done in the order of deblocking filter, SAO filter, and ALF filter.
В документе VTM4, процедуры фильтрации в фильтре SAO и деблокирующей фильтрации являются почти такими же, как в стандарте кодирования HEVC.In the VTM4 document, the filtering procedures in the SAO filter and deblocking filtering are almost the same as in the HEVC encoding standard.
В документе VTM4, была добавлена новая процедура, называемая режимом отображения яркостной составляющей с масштабированием цветностной составляющей (эта процедура была ранее известна под названием адаптивного внутриконтурного переформирования (adaptive in-loop reshaper)). Эта новая процедура осуществляется прежде деблокирования. In the VTM4 document, a new procedure was added called chroma scaling luma mode (previously known as adaptive in-loop reshaper). This new procedure is carried out before release.
2.2.6 Режим отображения яркостной составляющей с масштабированием цветностной составляющей (LMCS, также называется внутриконтурным переформированием)2.2.6 Luminance with Chroma Scaling (LMCS, also called in-loop resampling)
В документе VTM4, инструмент кодирования, называемый отображением яркостной составляющей с масштабированием цветностной составляющей (luma mapping with chroma scaling (LMCS)), добавлен в качестве нового процессорного блока прежде контурной фильтрации. Режим LMCS имеет два главных компонента: 1) внутриконтурное отображение яркостной составляющей на основе адаптивных кусочно-линейных моделей; 2) применение зависящего от яркостной составляющей масштабирования остатка цветностной составляющей к цветностным составляющим. Фиг. 4 показывает архитектуру осуществления режима LMCS с точки зрения декодирующего устройства. Заштрихованные светло-синим блоки на Фиг. 4 указывают, что обработка применяется в отображенной области; сюда входит обратное квантование, обратная трансформация, внутрикадровое прогнозирование яркостной составляющей и суммирование прогнозирования яркостной составляющей с остатком яркостной составляющей. Незаштрихованные блоки на Фиг. 4 указывают, где обработка применяется в исходной (т.е. неотображенной) области; и сюда входят контурные фильтры, такие как деблокирующие фильтры, фильтры ALF и фильтры SAO, прогнозирование с компенсацией движения, внутрикадровое прогнозирование цветностной составляющей, суммирование результата прогнозирования цветностной составляющей с остатком цветностной составляющей, и сохранение декодированных изображений в качестве опорных изображений. Блоки, заштрихованные светло-желтым, на Фиг. 4 представляют собой новые функциональные блоки для режима LMCS, включая прямое и обратное отображение сигнала яркостной составляющей и процедуру зависящего от яркостной составляющей масштабирования цветностной составляющей. Как и большинство других инструментов в стандарте кодирования VVC, режим масштабирования LMCS может быть активизирован/активизация отменена на уровне последовательности с использованием флага набора SPS. In the VTM4 document, an encoding tool called luma mapping with chroma scaling (LMCS) is added as a new processing unit before edge filtering. The LMCS mode has two main components: 1) in-circuit display of the brightness component based on adaptive piecewise linear models; 2) applying the scaling of the remainder of the chrominance component, depending on the luminance component, to the chrominance components. Fig. 4 shows an implementation architecture of the LMCS mode from the point of view of a decoder. The light blue shaded blocks in Fig. 4 indicate that processing is applied to the displayed area; This includes inverse quantization, inverse transformation, intra-frame luminance prediction, and summation of luminance prediction with the remainder of the luminance component. The unshaded blocks in Fig. 4 indicate where processing is applied in the original (ie, unmapped) region; and these include edge filters such as deblocking filters, ALF filters and SAO filters, motion compensation prediction, intra-frame chrominance prediction, summing the chrominance prediction result with the chrominance residual, and storing the decoded pictures as reference pictures. Blocks shaded in light yellow in Fig. 4 are new functional blocks for the LMCS mode, including forward and inverse luminance signal mapping and a luminance-dependent chrominance scaling procedure. Like most other tools in the VVC coding standard, the LMCS scaling mode can be enabled/disabled at the sequence level using the SPS set flag.
2.2.6.1 Отображение яркостной составляющей с использованием кусочно-линейной модели 2.2.6.1 Luminance display using a piecewise linear model
Внутриконтурное отображение яркостной составляющей подстраивает динамический диапазон входного сигнала путем перераспределения кодовых слов по динамическому диапазону с целью повышения эффективности сжатия. Процедура отображения яркостной составляющей использует функцию прямого отображения, FwdMap, и соответствующую функцию обратного отображения, InvMap. Функцию FwdMap передают в виде сигнализации с использованием кусочно-линейной модели из 16 равных отрезков. Функцию InvMap нет необходимости передавать в виде сигнализации, вместо этого ее выводят из функции FwdMap. In-loop luminance mapping adjusts the dynamic range of the input signal by redistributing codewords across the dynamic range to improve compression efficiency. The luma mapping procedure uses the forward mapping function, FwdMap, and the corresponding inverse mapping function, InvMap. The FwdMap function is signaled using a piecewise linear model of 16 equal segments. The InvMap function does not need to be signaled, but is instead derived from the FwdMap function.
Модель отображения яркостной составляющей передают в виде сигнализации на уровне группы плиток. Сначала передают в виде сигнализации флаг присутствия. Если модель отображения яркостной составляющей присутствует в текущей группе плиток, передают в виде сигнализации параметры соответствующей кусочно-линейной модели. Кусочно-линейная модель разбивает динамический диапазон входного сигнала на 16 равных отрезков, и для каждого отрезка, его параметры линейного отображения выражают с использованием ряда кодовых слов, назначенных этому отрезку. Возьмем в качестве примера 10-битовые входные данные. Каждый из 16 отрезков будет иметь 64 кодовых слова, назначенных ему по умолчанию. Сообщаемый в виде сигнализации ряд кодовых слов используют для вычисления коэффициента масштабирования и подстройки функции отображения для соответствующего отрезка согласно этому коэффициенту. На уровне группы плиток сообщают в виде сигнализации другой флаг активизации масштабирования LMCS с целью обозначения, применяется ли процедура отображения LMCS, показанная на Фиг. 4, к текущей группе плиток. The luminance component display model is signaled at the tile group level. First, a presence flag is transmitted as signaling. If a luminance component display model is present in the current tile group, the parameters of the corresponding piecewise linear model are signaled. The piecewise linear model divides the dynamic range of the input signal into 16 equal segments, and for each segment, its linear mapping parameters are expressed using a number of codewords assigned to that segment. Let's take 10-bit input data as an example. Each of the 16 segments will have 64 codewords assigned to it by default. The signaled series of code words is used to calculate the scaling factor and adjust the display function for the corresponding segment according to this factor. At the tile group level, another LMCS scaling enable flag is signaled to indicate whether the LMCS mapping procedure shown in FIG. 4, to the current tile group.
Каждый i-ый отрезок, i = 0 … 15, кусочно-линейной модели функции FwdMap определен двумя входными конечными точками (точками излома) InputPivot[] и двумя выходными (отображенными) конечными точками MappedPivot[].Each i-th segment, i = 0 ... 15, of the piecewise linear model of the FwdMap function is defined by two input endpoints (breakpoints) InputPivot[] and two output (mapped) endpoints MappedPivot[].
Точки InputPivot[] и MappedPivot[] вычисляют следующим образом (предполагая 10-битовые данные видео):The InputPivot[] and MappedPivot[] points are calculated as follows (assuming 10-bit video data):
1) OrgCW = 641) OrgCW = 64
2) Для i = 0:16, InputPivot[ i ] = i * OrgCW2) For i = 0:16, InputPivot[ i ] = i * OrgCW
3) Для i=0:16, MappedPivot[i] вычисляют следующим образом:3) For i=0:16, MappedPivot[i] is calculated as follows:
MappedPivot[0]=0;MappedPivot[0]=0;
для(i=0;i <16;i++)for(i=0;i <16;i++)
MappedPivot[i + 1] = MappedPivot[i] + SignalledCW[i],MappedPivot[i + 1] = MappedPivot[i] + SignalledCW[i],
где значения SignalledCW[i] представляют собой сообщаемый в виде сигнализации ряд кодовых слов для i-го отрезка. where the SignalledCW[i] values represent the number of codewords reported as signaling for the i-th segment.
Как показано на Фиг. 4, для блока, кодированного в режиме межкадрового прогнозирования, прогнозирование с компенсацией движения осуществляется в отображенной области. Другими словами, после вычисления прогнозируемого блока с компенсацией движения на основе опорных сигналов в буфере DPB, применяют функцию FwdMap для отображения прогнозируемого блока яркостной составляющей из исходной области в отображенную область, . Для блока, кодируемого в режиме внутрикадрового прогнозирования, функцию FwdMap не применяют, поскольку внутрикадровое прогнозирование осуществляется в отображенной области. После вычисления реконструированного блока применяют функцию InvMap для преобразования реконструированных значений яркостной составляющей из отображенной области назад к реконструированным значениям яркостной составляющей в исходной области, (). Функцию InvMap применяют к обоим блокам яркостной составляющей – кодированным с применением внутрикадрового и межкадрового прогнозирования.As shown in FIG. 4, for a block encoded in the inter-prediction mode, motion-compensated prediction is performed on the mapped area. In other words, after calculating the predicted block with motion compensation based on reference signals in the DPB buffer, apply the FwdMap function to map the predicted luminance component block from the source region to the mapped region, . For a block encoded in intra-prediction mode, the FwdMap function is not used because intra-prediction is performed on the mapped region. After calculating the reconstructed block apply the InvMap function to transform the reconstructed luminance values from the mapped region back to the reconstructed luminance values in the original region, ( ). The InvMap function is applied to both luminance blocks - those encoded using intra- and inter-frame prediction.
Процедура отображения яркостной составляющей (прямое и/или обратное отображение) может быть осуществлена либо с использованием преобразовательных (просмотровых) таблиц (look-up-table (LUT)), либо с использованием вычислений в реальном времени («на лету»). Если применяется таблица LUT, тогда таблицы и могут быть предварительно вычислены и предварительно сохранены для использования на уровне группы плиток, так что прямое и обратное отображение могут быть просто реализованы в виде и , соответственно. В альтернативном варианте могут быть использованы вычисления в реальном времени («на лету»). Возьмем в качестве примера функцию FwdMap прямого отображения. С целью определения отрезка, которому принадлежит некий отсчет яркостной составляющей, значение этого отсчета сдвигают вправо на 6 бит (что соответствует 16 равным отрезкам). Затем извлекают параметры линейной модели для этого отрезка и применяют вычисления «на лету» для определения отображенного значения яркостной составляющей. Пусть i обозначает индекс отрезка, a1, a2 обозначают точки InputPivot[i] и InputPivot[i+1], соответственно, и b1, b2 обозначают точки MappedPivot[i] и MappedPivot[i+1], соответственно. Функцию FwdMap вычисляют следующим образом: The procedure for displaying the brightness component (direct and/or inverse display) can be carried out either using look-up tables (LUTs) or using real-time calculations (“on the fly”). If a LUT is used, then the tables And can be pre-computed and pre-stored for use at the tile group level, so that forward and backward mapping can be simply implemented as And , respectively. Alternatively, real-time (“on-the-fly”) calculations can be used. Let's take the direct mapping function FwdMap as an example. In order to determine the segment to which a certain sample of the brightness component belongs, the value of this sample is shifted to the right by 6 bits (which corresponds to 16 equal segments). The linear model parameters for that segment are then retrieved and calculations are applied on the fly to determine the displayed luminance value. Let i denote the segment index, a1, a2 denote the points InputPivot[i] and InputPivot[i+1], respectively, and b1, b2 denote the points MappedPivot[i] and MappedPivot[i+1], respectively. The FwdMap function is calculated as follows:
Функция InvMap может быть вычислена «на лету» аналогичным образом за исключением того, что необходимо применить условные проверки вместо простого сдвига битов вправо при определении отрезка, которому принадлежит рассматриваемое значение отсчета, поскольку отрезки в отображенной области не имеют равные размеры. The InvMap function can be calculated on the fly in a similar way, except that it is necessary to apply conditional checks instead of simply shifting bits to the right when determining the segment to which the sample value in question belongs, since the segments in the mapped region are not of equal sizes.
2.2.6.2 Зависимое от яркостной составляющей масштабирование остатка цветностной составляющей 2.2.6.2 Luminance-dependent scaling of the remaining chrominance component
Масштабирование остатка цветностной составляющей предназначено для компенсации взаимодействия между сигналом яркостной составляющей и соответствующими ему сигналами цветностной составляющей. Активизировано ли масштабирование остатка цветностной составляющей или нет, также сообщают в виде сигнализации на уровне группы плиток. Если отображение яркостной составляющей активизировано и если разбиение по схеме двойного дерева (также известное как раздельное дерево разбиения цветностной составляющей) не применяется к текущей группе плиток, передают в виде сигнализации дополнительный флаг для индикации, активизировано ли зависимое от яркостной составляющей масштабирование остатка цветностной составляющей или нет. Когда отображение яркостной составляющей не используется, или когда разбиение по схеме двойного дерева используется в текущей группе плиток, зависимое от яркостной составляющей масштабирование остатка цветностной составляющей не активизируют. Далее, зависимое от яркостной составляющей масштабирование остатка цветностной составляющей всегда не активизировано для блоков цветностной составляющей, площади которых не больше 4.Chroma residual scaling is designed to compensate for the interaction between the luma signal and its corresponding chrominance signals. Whether chrominance residual scaling is enabled or not is also reported as an alarm at the tile group level. If luminance display is enabled, and if dual-tree partitioning (also known as split chroma partitioning tree) is not applied to the current tile group, an additional flag is signaled to indicate whether luminance-dependent scaling of the remaining chroma partition is enabled or not. . When luma display is not used, or when bi-tree tiling is used in the current tile group, luma-dependent scaling of the remaining chrominance is not enabled. Further, luminance component-dependent scaling of the remaining chrominance component is always disabled for chrominance component blocks whose area is no larger than 4.
Масштабирование остатка цветностной составляющей зависит от среднего значения соответствующего прогнозируемого блока яркостной составляющей (для блоков обоих типов – с внутрикадровым и с межкадровым прогнозированием). Обозначим как среднее значение прогнозируемого блока яркостной составляющей. Значение вычисляют следующим образом:The scaling of the remaining chrominance component depends on the average value of the corresponding predicted block of the luminance component (for blocks of both types - with intra-frame and inter-frame prediction). Let's denote as the average value of the predicted block of the brightness component. Meaning calculated as follows:
1) Нахождение индекса кусочно-линейной модели, которому принадлежит значение на основе функции InvMap.1) Finding the index piecewise linear model, to which the value belongs based on the InvMap function.
2) = cScaleInv[], где cScaleInv[] обозначает предварительно вычисленную таблицу LUT для 16 отрезков.2) = cScaleInv[ ], where cScaleInv[] denotes the precomputed LUT for 16 segments.
Если текущий блок кодируют с применением режима внутрикадрового прогнозирования, комбинированного режима прогнозирования CIIP или режима внутрикадрового копирования блоков (intra block copy) (IBC, иначе называется режимом использованием текущего изображения в качестве опоры (current picture referencing (CPR))), значение вычисляют как среднюю из значений яркостных составляющих, прогнозируемых в режиме внутрикадрового прогнозирования, комбинированном режиме CIIP или в режиме с копированием IBC; в противном случае, значение вычисляют как среднее значение из отображенных в прямом направлении значений яркостной составляющей при межкадровом прогнозировании ( на Фиг. 4). В отличие от отображения яркостной составляющей, осуществляемого на основе отсчетов, параметр имеет постоянное значение для всего блока цветностной составляющей. Имея , масштабирование остатка цветностной составляющей применяют следующим образом: If the current block is encoded using the intra-frame prediction mode, the combined CIIP prediction mode, or the intra block copy (IBC) mode, otherwise known as current picture referencing (CPR) mode, the value calculated as the average of the luminance component values predicted in the intra-prediction mode, the combined CIIP mode, or the IBC copy mode; otherwise, the value is calculated as the average of the forward-mapped values of the luminance component in inter-frame prediction ( in Fig. 4). In contrast to the display of the brightness component, carried out on the basis of samples, the parameter has a constant value for the entire block of the chrominance component. Having , the scaling of the remaining chrominance component is applied as follows:
Сторона кодирующего устройства: Encoder side:
Сторона декодирующего устройства: Decoder side:
2.2.6.3 Соответствующий рабочий проект в документе JVET-M1001_v7 с применением в документе JVET-N02202.2.6.3 Corresponding working draft in JVET-M1001_v7 with application in JVET-N0220
Следующее описание основано на модифицированном рабочем проекте из документа JVET-M1001 and the adoption in JVET-N0220. Модификация в принятом документе JVET-N0220 показана жирным шрифтом с подчеркиванием.The following description is based on a modified working draft from JVET-M1001 and the adoption in JVET-N0220. The modification in the accepted document JVET-N0220 is shown in bold with underlining.
Синтаксические таблицыSyntax tables
СемантикаSemantics
В 7.4.3.1 Семантика набора параметров последовательности RBSPB 7.4.3.1 Semantics of the RBSP sequence parameter set
Флаг равный 1 специфицирует, что режим отображения яркостной составляющей с масштабированием цветностной составляющей используется в последовательности CVS. Флаг sps_lmcs_enabled_flag равный 0 специфицирует, что режим отображения яркостной составляющей с масштабированием цветностной составляющей не используется в последовательности CVS.Flag equal to 1 specifies that the luma display mode with chrominance scaling is used in the CVS sequence. The sps_lmcs_enabled_flag flag equal to 0 specifies that the chrominance scaling luma display mode is not used in the CVS sequence.
Флаг равный 1 специфицирует, что параметр lmcs_data() присутствует в заголовке группы плиток. Флаг tile_group_lmcs_model_present_flag равный 0 специфицирует, что параметр lmcs_data() не присутствует в заголовке группы плиток. Когда флаг tile_group_lmcs_model_present_flag не присутствует, его признают равным 0.Flag equal to 1 specifies that the lmcs_data() parameter is present in the tile group header. A tile_group_lmcs_model_present_flag of 0 specifies that the lmcs_data() parameter is not present in the tile group header. When the tile_group_lmcs_model_present_flag is not present, it is set to 0.
Флаг равный 1 специфицирует, что режим отображения яркостной составляющей с масштабированием цветностной составляющей активизирован для текущей группы плиток. Флаг tile_group_lmcs_enabled_flag равный 0 специфицирует, что режим отображения яркостной составляющей с масштабированием цветностной составляющей не активизирован для текущей группы плиток. Когда флаг tile_group_lmcs_enabled_flag не присутствует, его признают равным 0.Flag equal to 1 specifies that the luminance component display mode with chrominance component scaling is activated for the current group of tiles. The tile_group_lmcs_enabled_flag flag equal to 0 specifies that the luma component display mode with chroma scaling is not enabled for the current group of tiles. When the tile_group_lmcs_enabled_flag is not present, it is set to 0.
Флаг равный 1 специфицирует, что масштабирование остатка цветностной составляющей активизировано для текущей группы плиток. Флаг tile_group_ chroma_residual_scale_flag равный 0 специфицирует, что масштабирование остатка цветностной составляющей не активизировано для текущей группы плиток. Когда флаг tile_group_ chroma_residual_scale_flag не присутствует, его признают равным 0.Flag equal to 1 specifies that chroma residual scaling is enabled for the current tile group. The tile_group_chroma_residual_scale_flag flag equal to 0 specifies that chroma residual scaling is not enabled for the current tile group. When the tile_group_chroma_residual_scale_flag is not present, it is set to 0.
В 7.4.5.4 Семантика данных в режиме отображения яркостной составляющей с масштабированием цветностной составляющей In 7.4.5.4 Data semantics in the luminance component display mode with chrominance component scaling
Параметр специфицирует минимальный индекс секции (разряда), используемый в процедуре построения режима отображения яркостной составляющей с масштабированием цветностной составляющей. Значение параметра lmcs_min_bin_idx должна быть в диапазоне от 0 до 15 включительно. Parameter specifies the minimum section (bit) index used in the procedure for constructing the display mode of the luminance component with scaling of the chrominance component. The value of the lmcs_min_bin_idx parameter must be in the range from 0 to 15 inclusive.
Параметр специфицирует значение разности между 15 и максимальным индексом LmcsMaxBinIdx секции (разряда), используемым в процедуре построения режима отображения яркостной составляющей с масштабированием цветностной составляющей. Значение параметра lmcs_delta_max_bin_idx должно быть в диапазоне от 0 до 15 включительно. Значение параметра LmcsMaxBinIdx устанавливают равным 15 − lmcs_delta_max_bin_idx. Значение LmcsMaxBinIdx должно быть не меньше lmcs_min_bin_idx. Parameter specifies the value of the difference between 15 and the maximum section (bit) index LmcsMaxBinIdx used in the procedure for constructing the luminance component display mode with chrominance component scaling. The value of the lmcs_delta_max_bin_idx parameter must be in the range from 0 to 15 inclusive. The value of the LmcsMaxBinIdx parameter is set equal to 15 − lmcs_delta_max_bin_idx. The value of LmcsMaxBinIdx must be no less than lmcs_min_bin_idx.
Параметр плюс 1 специфицирует число битов, используемых для представления синтаксиса lmcs_delta_abs_cw[ i ]. Значение параметра lmcs_delta_cw_prec_minus1 должно быть в диапазоне от 0 до BitDepthY − 2, включительно. Parameter plus 1 specifies the number of bits used to represent the lmcs_delta_abs_cw[ i ] syntax. The value of the lmcs_delta_cw_prec_minus1 parameter must be in the range from 0 to BitDepthY − 2, inclusive.
Параметр специфицирует абсолютное значение приращения (delta) кодового слова для i-ой секции (разряда).Parameter specifies the absolute value of the increment (delta) of the codeword for the i-th section (bit).
Флаг специфицирует знак переменной lmcsDeltaCW[ i ] следующим образом:Flag specifies the sign of the variable lmcsDeltaCW[ i ] as follows:
- Если lmcs_delta_sign_cw_flag[ i ] равно 0, параметр lmcsDeltaCW[ i ] имеет положительное значение.- If lmcs_delta_sign_cw_flag[ i ] is 0, the lmcsDeltaCW[ i ] parameter has a positive value.
- В противном случае ( lmcs_delta_sign_cw_flag[i] не равно 0), параметр lmcsDeltaCW[ i ] имеет отрицательное значение.- Otherwise ( lmcs_delta_sign_cw_flag[i] is not equal to 0), the lmcsDeltaCW[ i ] parameter has a negative value.
Когда флаг lmcs_delta_sign_cw_flag[ i ] не присутствует, его признают равным 0.When the lmcs_delta_sign_cw_flag[ i ] flag is not present, it is set to 0.
Переменную OrgCW определяют следующим образом:The OrgCW variable is defined as follows:
Переменную lmcsDeltaCW[i], при i = lmcs_min_bin_idx..LmcsMaxBinIdx, определяют следующим образом:The variable lmcsDeltaCW[i], with i = lmcs_min_bin_idx..LmcsMaxBinIdx, is defined as follows:
Переменную lmcsCW[ i ] определяют следующим образом:The variable lmcsCW[ i ] is defined as follows:
- Для i = 0.. lmcs_min_bin_idx − 1, переменную lmcsCW[i] устанавливают равной 0.- For i = 0.. lmcs_min_bin_idx − 1, the variable lmcsCW[i] is set to 0.
- Для i = lmcs_min_bin_idx..LmcsMaxBinIdx, применяется следующее:- For i = lmcs_min_bin_idx..LmcsMaxBinIdx, the following applies:
Значение переменной lmcsCW[i] должно быть в диапазоне от (OrgCW>>3) до (OrgCW<<3 − 1), включительно.The value of the lmcsCW[i] variable must be in the range from (OrgCW>>3) to (OrgCW<<3 − 1), inclusive.
- Для i = LmcsMaxBinIdx + 1..15, переменную lmcsCW[ i ] устанавливают равной 0.- For i = LmcsMaxBinIdx + 1..15, the variable lmcsCW[ i ] is set to 0.
Требование соответствия потока битов данных состоит в том, что следующее условие является истинным (true):The data bitstream compliance requirement is that the following condition be true:
Переменную InputPivot[ i ], при i = 0..16, определяют следующим образом:The variable InputPivot[ i ], with i = 0..16, is defined as follows:
Переменную LmcsPivot[ i ] при i = 0..16, переменные ScaleCoeff[ i ] и InvScaleCoeff[ i ] при i = 0..15, определяют следующим образом:The variable LmcsPivot[ i ] for i = 0..16, the variables ScaleCoeff[ i ] and InvScaleCoeff[ i ] for i = 0..15 are defined as follows:
LmcsPivot[0]=0;LmcsPivot[0]=0;
для(i=0;i<=15;i++) {for(i=0;i<=15;i++) {
LmcsPivot[ i + 1 ] = LmcsPivot[ i ] + lmcsCW[ i ] LmcsPivot[ i + 1 ] = LmcsPivot[ i ] + lmcsCW[ i ]
}
}
Переменную ChromaScaleCoeff[ i ], при i = 0…15, определяют следующим образом:The variable ChromaScaleCoeff[ i ], with i = 0…15, is determined as follows:
}
}
Переменные ClipRange, LmcsMinVal и LmcsMaxVal определяют следующим образом: The variables ClipRange, LmcsMinVal and LmcsMaxVal are defined as follows:
LmcsMaxVal = 235 << (BitDepthY − 8) LmcsMinVal = 16 << (BitDepth Y − 8)
LmcsMaxVal = 235 << (BitDepth Y − 8)
(7-79)(7-78)
(7-79)
ПРИМЕЧАНИЕ – Массивы InputPivot[ i ] и LmcsPivot[ i ], ScaleCoeff[ i ], и InvScaleCoeff[ i ], ChromaScaleCoeff[ i ], ClipRange, LmcsMinVal и LmcsMaxVal, обновляют только тогда, когда флаг tile_group_lmcs_model_present_flag равен 1. Таким образом, модель с масштабированием lmcs может быть передана с изображением IRAP, например, но масштабирование lmcs не актизируют для этого изображения IRAP.NOTE – The InputPivot[ i ] and LmcsPivot[ i ], ScaleCoeff[ i ], and InvScaleCoeff[ i ], ChromaScaleCoeff[ i ], ClipRange, LmcsMinVal and LmcsMaxVal arrays are updated only when the tile_group_lmcs_model_present_flag flag is 1. Thus, a model with scaling lmcs can be transmitted with an IRAP image, for example, but scaling lmcs is not activated for this IRAP image.
3. Недостатки существующих вариантов реализации3. Disadvantages of existing implementation options
Сегодняшняя конфигурация модели LMCS/CCLM может иметь следующие проблемы:Today's LMCS/CCLM model configuration may have the following problems:
1. В инструменте кодирования с применением масштабирования LMCS, коэффициент масштабирования остатка цветностной составляющей определяют посредством среднего значения расположенного в том же месте прогнозируемого блока яркостной составляющей, результатом чего является задержка обработки отсчетов цветностной составляющей при масштабировании остатка цветностной составляющей в режиме LMCS.1. In the LMCS scaling encoding tool, the chrominance residual scaling factor is determined by the average of a colocated luminance block prediction, resulting in a delay in processing the chrominance samples when scaling the chroma residual in LMCS mode.
a) В случае одиночного/совместно используемого дерева задержка обусловлена a) In case of single/shared tree, the delay is due to
(a) ожиданием доступности всех прогнозируемых отсчетов полного блока яркостной составляющей, и (b) усреднением всех прогнозируемых отсчетов яркостной составляющей, полученных в результате (a).(a) waiting for all predicted luminance samples of a complete luminance block to be available, and (b) averaging all predicted luminance samples resulting from (a).
b) В случае двойного/раздельного дерева, задержка оказывается даже хуже, поскольку в I-срезах активизирована раздельная структура разбиения блоков для яркостной и цветностной составляющих. Поэтому один блок цветностной составляющей может соответствовать нескольким блокам яркостной составляющей, и один блок размером 4x4 цветностной составляющей может соответствовать блоку размером 64x64 яркостной составляющей. Таким образом, худший случай состоит в том, что может быть необходимо ожидать коэффициента масштабирования остатка цветностной составляющей для текущего блока размером 4x4 цветностной составляющей до тех пор, пока не станут доступными все прогнозируемые отсчеты в полном блоке размером 64x64 яркостной составляющей. Короче говоря, проблема с задержкой в случае двойного/раздельного дерева может оказаться гораздо более серьезной.b) In the case of a dual/split tree, the latency is even worse since the I-slices enable separate blocking structures for luma and chrominance components. Therefore, one chroma block can correspond to several luminance blocks, and one 4x4 chrominance block can correspond to a 64x64 luminance block. Thus, the worst case is that it may be necessary to wait for the remaining chrominance scaling factor for the current 4x4 chrominance block until all predicted samples in the full 64x64 luminance block are available. In short, the latency problem in the dual/split tree case can be much more severe.
2. В инструменте кодирования с применением модели CCLM, вычисления этой модели CCLM для внутрикадрового прогнозирования цветностной составляющей зависят от опорных отсчетов сверху и слева для обоих блоков – блока яркостной составляющей и блока цветностной составляющей. И прогнозирование по модели CCLM для блока цветностной составляющей зависят от расположенных в том же месте реконструированных отсчетов яркостной составляющей из той же самой единицы CU. Это может вызвать большую задержку при использовании двойного/раздельного дерева.2. In a CCLM encoding tool, the CCLM model's calculations for intra-chrominance prediction depend on the top and left reference samples for both the luma block and the chrominance block. And the CCLM predictions for a chroma block depend on co-located reconstructed luminance samples from the same CU. This may cause more latency when using dual/split trees.
- В случае двойного/раздельного дерева, один блок размером 4x4 цветностной составляющей может соответствовать блоку размером 64x64 яркостной составляющей. Таким образом, худший случай состоит в том, что процедуре использования модели CCLM для текущего блока цветностной составляющей может быть необходимо ожидать до тех пор, пока не будет реконструирован полный блок размером 64x64 яркостной составляющей. Эта проблема с задержкой может быть аналогична ситуации с использованием масштабирования цветностной составляющей в режиме LMCS в структуре с двойным/раздельным деревом.- In the case of a double/split tree, one 4x4 chrominance block can correspond to a 64x64 luminance block. Thus, the worst case is that the CCLM procedure for the current chrominance block may have to wait until the full 64x64 luminance block has been reconstructed. This latency issue may be similar to the situation when using LMCS chroma scaling in a dual/split tree structure.
4. Примеры способов и вариантов4. Examples of methods and options
Для решения этой проблемы мы предлагаем несколько способов исключения/уменьшения/ограничения кросс-компонентной задержки при использовании зависимого от яркостной составляющей масштабирования остатка цветностной составляющей, модели CCLM и других инструментов кодирования, опирающихся на информацию от другой цветовой составляющей. To address this issue, we propose several ways to eliminate/reduce/limit the cross-component delay using luminance-dependent chrominance residual scaling, the CCLM model, and other encoding tools that rely on information from other chrominance components.
Подробные описания вариантов, приведенные ниже, следует рассматривать в качестве примеров для пояснения общих концепций. Эти варианты не следует интерпретировать в узком смысле. Более того, эти варианты можно комбинировать любым способом.The detailed descriptions of the options below should be considered as examples to clarify general concepts. These options should not be interpreted in a narrow sense. Moreover, these options can be combined in any way.
Отметим, что, хотя в рассматриваемых ниже разделах в явном виде упоминается модель LMCS/CCLM, эти способы также применимы и другим инструментам кодирования, опирающимся на информацию от другой цветовой составляющей. В дополнение к этому, термины «яркостной» (‘luma’) и «цветностной» (‘chroma’), упоминаемые ниже, могут быть заменены на «первую цветовую составляющую» и «вторую цветовую составляющую» соответственно, такие как «зеленая (G) составляющая» и «синяя/красная (B/R) составляющая» в цветовом формате RGB.Note that although the LMCS/CCLM model is explicitly mentioned in the sections below, these methods are also applicable to other encoding tools that rely on information from other color components. In addition to this, the terms "luma" and "chroma" mentioned below may be replaced by "first color component" and "second color component" respectively, such as "green (G ) component" and "blue/red (B/R) component" in RGB color format.
В последующем обсуждении, определение «расположенный в том же месте отсчет/блок» (“collocated sample/block”) соответствует определению расположенного в том же месте отсчета/блока в рабочем проекте JVET-M1001 стандарта кодирования VVC. Более конкретно, в цветовом формате 4:2:0, предположим, что верхний левый отсчет блока цветностной составляющей находится в позиции ( xTbC, yTbC ), тогда позицию ( xTbY, yTbY ) верхнего левого отсчета расположенного в том же месте блока яркостной составляющей определяют следующим образом: ( xTbY, yTbY ) = ( xTbC << 1, yTbC << 1 ). Как иллюстрировано на Фиг. 5, верхний левый отсчет текущего блока цветностной составляющей расположен в точке (x=16,y=16) на цветностном изображении, тогда верхний левый отсчет расположенного в том же месте блока яркостной составляющей находится в точке (x=32,y=32) яркостного изображения, независимо от разбиенимя на блоки этого расположенного в том же месте блока яркостной составляющей на яркостном изображении. В качестве другого примера, говоря о той же цветовой составляющей, позиция верхнего левого отсчета расположенного в том же месте блока в опорном кадре должна совпадать с позицией верхнего левого отсчета текущего блока в текущем кадре, как это иллюстрировано на Фиг. 6, предположим, что верхний левый отсчет текущего блока располагается в точке (x,y) в текущем кадре, тогда верхний левый отсчет расположенного в том же месте блока относительно текущего блока имеет ту же самую позицию (x,y) в опорном кадре.In the following discussion, the definition of “collocated sample/block” corresponds to the definition of collocated sample/block in the JVET-M1001 working draft of the VVC encoding standard. More specifically, in a 4:2:0 color format, suppose the top-left sample of a chrominance block is at position ( xTbC, yTbC ), then the position ( xTbY, yTbY ) of the top-left sample of a co-located luminance block is determined as follows thus: ( xTbY, yTbY ) = ( xTbC << 1, yTbC << 1 ). As illustrated in FIG. 5, the upper left sample of the current chrominance component block is located at the point (x=16,y=16) on the chrominance image, then the upper left sample of the luminance component block located at the same place is located at the point (x=32,y=32) of the luminance component image, regardless of the division into blocks of this located in the same place block of the luminance component in the luminance image. As another example, regarding the same color component, the position of the top left sample of a co-located block in the reference frame must match the position of the top left sample of the current block in the current frame, as illustrated in FIG. 6, suppose that the top left sample of the current block is located at point (x,y) in the current frame, then the top left sample of the block located at the same location relative to the current block has the same position (x,y) in the reference frame.
В последующем обсуждении, «соответствующий блок» может занимать позицию, отличную от положения текущего блока. В качестве примера, может иметь место сдвиг движения между текущим блоком и соответствующим ему блоком в опорном кадре. Как иллюстрировано на Фиг. 6, предположим, что текущий блок расположен в точке (x,y) в текущем кадре и имеет вектор (mvx, mvy) движения, тогда соответствующий блок относительно этого текущего блока может находиться в точке (x+mvx,y+mvy) в опорном кадре. И для блока, кодированного в режиме копирования IBC, расположенный в том же месте блок яркостной составляющей (указываемый нулевым вектором) и соответствующий ему блок яркостной составляющей (указываемый ненулевым вектором BV) могут находиться в разных местах опорного кадра. В качестве другого примера, когда разбиение блока яркостной составляющей не совпадает с разбиением блока цветностной составляющей (при разбиении I-срезов по схеме двойного дерева), расположенный в том же месте блок яркостной составляющей относительно текущего блока цветностной составляющей может принадлежать большему блоку яркостной составляющей, что зависит от размера единиц разбиения наложенного на него блока кодирования яркостной составляющей, покрывающего верхний левый отсчет расположенного в том же месте блока яркостной составляющей. Как иллюстрировано на Фиг. 5, предполагается, что жирный прямоугольник обозначает разбиения блока, так что блок размером 64x64 яркостной составляющей сначала разбит по схеме двоичного дерева (BT), а затем правую часть блока размером 64x64 яркостной составляющей дополнительно разбили по схеме троичного (TT) дерева, результатом чего являются три блока яркостной составляющей с размерами, равными 32x16, 32x32, 32x16, соответственно. Таким образом, если взглянуть на верхний левый отсчет (x=32, y=32) расположенного в том же месте блока яркостной составляющей относительно текущего блока цветностной составляющей, этот отсчет принадлежит центральному блоку размером 32x32 яркостной составляющей из разбиения по схеме троичного (TT) дерева. В таком случае, мы называем соответствующий блок яркостной составляющей, покрывающий верхний левый отсчет расположенного в том же месте блока яркостной составляющей как «соответствуюий блок яркостной составляющей». Следовательно, в этом примере, верхний левый отсчет соответствующего блока яркостной составляющей расположен в точке с координатами (x=32, y=16). In the following discussion, the "corresponding block" may occupy a position different from the current block. As an example, there may be a motion shift between the current block and its corresponding block in the reference frame. As illustrated in FIG. 6, suppose that the current block is located at point (x,y) in the current frame and has a motion vector (mv x , mv y ), then the corresponding block relative to this current block can be located at point (x+mv x ,y+mv y ) in the reference frame. And for a block encoded in the IBC copy mode, a luma block located at the same location (indicated by a zero vector) and its corresponding luma block (indicated by a non-zero BV vector) may be located at different locations in the reference frame. As another example, when the partition of a luma block is not the same as the partition of a chroma block (in a dual-tree split of I-slices), a colocated luma block relative to the current chroma block may belong to a larger luma block, such that depends on the size of the partition units of the superimposed luminance coding block covering the upper left sample of the co-located luminance block. As illustrated in FIG. 5, the bold rectangle is assumed to represent block splits such that the 64x64 luma block is first split into a binary tree (BT), and then the right side of the 64x64 luma block is further split into a ternary tree (TT), resulting in three blocks of the brightness component with dimensions equal to 32x16, 32x32, 32x16, respectively. Thus, if you look at the top left sample (x=32, y=32) of the same location luma block relative to the current chrominance block, this sample belongs to the central 32x32 luma block from the ternary (TT) tree partition . In such a case, we call the corresponding luminance component block covering the upper left sample of the luminance component block located at the same location as the “corresponding luminance component block”. Therefore, in this example, the top left sample of the corresponding luminance component block is located at the point with coordinates (x=32, y=16).
В дальнейшем, здесь понятие «способ получения вектора движения на стороне декодирующего устройства» (DMVD (decoder-side motion vector derivation)) используется для представления двунаправленного оптического потока BDOF (также называется BIO) или/и способа уточнения вектора движения на стороне декодирующего устройства (DMVR (decode-side motion vector refinement)) или/и способа повышающего преобразования частоты кадров (FRUC (frame rate up-conversion)) или/и другого способа, позволяющего уточнить вектор движения или/и прогнозируемый отсчет в декодирующем устройстве.Hereinafter, the concept of “decoder-side motion vector derivation” (DMVD) is used to represent the bidirectional optical flow BDOF (also called BIO) or/and the decoder-side motion vector refinement method ( DMVR (decode-side motion vector refinement)) and/or frame rate up-conversion method (FRUC) and/or another method that allows one to refine the motion vector and/or the predicted sample in the decoding device.
Устранение задержки масштабирования цветностной составляющей в режиме LMCS и вычисления модели CCLM Eliminate delay in LMCS chroma scaling and CCLM model calculations
1. Предлагается, что для блока, кодированного в режиме внутрикадрового прогнозирования, один или несколько опорных отсчетов из текущего блока в опорных кадрах могут быть использованы для определения коэффициента масштабирования остатка цветностной составляющей в режиме масштабирования LMCS. 1. It is proposed that for a block encoded in the intra-frame prediction mode, one or more reference samples from the current block in the reference frames can be used to determine the chrominance residual scaling factor in the LMCS scaling mode.
a) В одном из примеров, опорные отсчеты яркостной составляющей могут быть прямо использованы для определения коэффициента масштабирования остатка цветностной составляющей.a) In one example, the luma reference samples can be directly used to determine the scaling factor of the chrominance residual.
i. В качестве альтернативы, интерполяция может быть сначала применена к опорным отсчетам, а интерполированные отсчеты могут быть использованы для определения коэффициента масштабирования остатка цветностной составляющей.i. Alternatively, interpolation may be first applied to the reference samples, and the interpolated samples may be used to determine a scaling factor for the chroma residual.
ii. В качестве альтернативы, опорные отсчеты в разных опорных кадрах могут быть использованы для определения конечных опорных отсчетов, используемых для определения коэффициента масштабирования остатка цветностной составляющей. ii. Alternatively, reference samples in different reference frames can be used to determine the final reference samples used to determine the chroma residual scaling factor.
1) В одном из примеров, для двунаправлено кодированных блоков могут быть применены приведенные выше способы.1) In one example, the above methods may be applied to bidirectionally encoded blocks.
iii. В одном из примеров, интенсивности опорных отсчетов могут быть преобразованы в переформированную область прежде использования для определения коэффициента масштабирования остатка цветностной составляющей.iii. In one example, the reference sample intensities may be converted to the reshaped region before being used to determine the chrominance residual scaling factor.
iv. В одном из примеров, линейная комбинация опорных отсчетов может быть использована для определения коэффициента масштабирования остатка цветностной составляющей.iv. In one example, a linear combination of reference samples can be used to determine the scaling factor of the chroma residual.
1) Например, выражение a×S+b может быть использовано для определения коэффициента масштабирования остатка цветностной составляющей, где S обозначает опорный отсчет, a и b параметры. В одном из примеров, параметры a и b могут быть определены посредством локальной компенсации освещенности (Localized Illuminate Compensation (LIC)).1) For example, the expression a×S+b can be used to determine the scaling factor of the chrominance component residual, where S denotes the reference sample, a and b parameters. In one example, the parameters a and b may be determined by Localized Illuminate Compensation (LIC).
b) В одном из примеров, расположение опорных отсчетов яркостной составляющей в опорном кадре может зависеть от вектора (ов) движения для текущего блока.b) In one example, the location of the luminance component reference samples in the reference frame may depend on the motion vector(s) for the current block.
i. В одном из примеров, опорные отсчеты принадлежат опорному блоку яркостной составляющей, который находится в опорном изображении и имеет такие же ширину и высоту, как и текущий блок яркостной составляющей. Позиция опорного отсчета яркостной составляющей в опорном изображении может быть вычислена как позиция соответствующего отсчета яркостной составляющей в текущем изображении с добавлением вектора движения. i. In one example, the reference samples belong to a luminance reference block that is in the reference image and has the same width and height as the current luminance block. The position of a reference luminance sample in a reference image can be calculated as the position of a corresponding luminance sample in the current image plus a motion vector.
ii. В одном из примеров, позиции опорных отсчетов яркостной составляющей могут быть определены на основе позиции верхнего левого (или центрального, или нижнего правого) отсчета текущего блока яркостной составляющей и вектора движения для этого текущего блока, где указанный отсчет называется соответствующим отсчетом яркостной составляющей в опорном кадре.ii. In one example, the positions of the reference luminance samples may be determined based on the position of the top left (or center or bottom right) sample of the current luminance block and a motion vector for that current block, where said sample is referred to as the corresponding luminance sample in the reference frame .
1) В одном из примеров, целочисленный вектор движения может быть использован для определения соответствующего отсчета яркостной составляющей в опорном кадре. В одном из примеров, для получения целочисленного вектора движения, вектор движения, ассоциированный с одним блоком, может быть либо округлен в направлении нуля, либо округлен в направлении прочь от нуля.1) In one example, an integer motion vector can be used to determine the corresponding luminance component sample in the reference frame. In one example, to obtain an integer motion vector, the motion vector associated with one block may be either rounded toward zero or rounded away from zero.
2) В качестве альтернативы, для определения соответствующего отсчета яркостной составляющей в опорном кадре может быть использован дробный вектор движения, так что может потребоваться процедура интерполяции для определения дробных опорных отсчетов.2) Alternatively, a fractional motion vector may be used to determine the corresponding luminance component sample in the reference frame, so an interpolation procedure may be required to determine the fractional reference samples.
iii. В качестве альтернативы, позиции опорных отсчетов яркостной составляющей могут быть определены на основе позиции верхнего левого (или центрального, или нижнего правого) отсчета текущего блока яркостной составляющей.iii. Alternatively, the positions of the reference luminance samples may be determined based on the position of the top left (or center or bottom right) sample of the current luminance block.
iv. В качестве альтернативы, множество соответствующих отсчетов яркостной составляющей в некоторых предварительно заданных позициях в опорном кадре могут быть выбраны для вычисления коэффициента масштабирования остатка цветностной составляющей. iv. Alternatively, a plurality of corresponding luminance samples at certain predetermined positions in the reference frame may be selected to calculate a scaling factor for the chrominance residual.
c) В одном из примеров, медианное или среднее значение множества опорных отсчетов яркостной составляющей может быть использовано для определения коэффициента масштабирования остатка цветностной составляющей.c) In one example, the median or average value of a plurality of luminance reference samples may be used to determine a scaling factor for the chroma residual.
d) В одном из примеров, опорные отсчеты яркостной составляющей в предварительно заданных опорных кадрах могут быть использованы для определения коэффициента масштабирования остатка цветностной составляющей.d) In one example, luminance reference samples in predetermined reference frames can be used to determine a scaling factor for the chrominance residual.
i. В одном из примеров, предварительно заданный опорный кадр может быть кадром с равным нулю опорным индексом в списке 0 опорных изображений.i. In one example, the predetermined reference frame may be a frame with a reference index of zero in the reference picture list 0.
ii. В качестве альтернативы, опорный индекс и/или список опорных изображений для предварительно заданного опорного кадра могут быть переданы в виде сигнализации на уровне последовательности/изображения/группы плиток/среза/плитки/строки единиц CTU/единицы видео.ii. Alternatively, the reference index and/or list of reference pictures for a predetermined reference frame may be signaled at the sequence/picture/tile group/slice/tile/line of CTUs/video unit level.
iii. В качестве альтернативы, могут быть определены опорные отсчеты яркостной составляющей в нескольких опорных кадрах и усредненные или взвешенные средние значения могут быть использованы для получения коэффициента масштабирования остатка цветностной составляющей.iii. Alternatively, reference luminance samples in multiple reference frames may be determined and the average or weighted averages may be used to obtain a scaling factor for the remaining chrominance component.
2. Предлагается, что следует ли и как определять коэффициент масштабирования остатка цветностной составляющей на основе отсчетов яркостной составляющей в режиме масштабирования LMCS, может зависеть от того, применяется ли двунаправленное прогнозирование для текущего блока.2. It is proposed that whether and how to determine the chrominance residual scaling factor from the luminance samples in the LMCS scaling mode may depend on whether bidirectional prediction is applied for the current block.
a) В одном из примеров, коэффициент масштабирования остатка цветностной составляющей определяют для каждого направления прогнозирования индивидуально.a) In one example, the chrominance residual scaling factor is determined for each prediction direction individually.
3. Предлагается, что следует ли и как определять коэффициент масштабирования остатка цветностной составляющей на основе отсчетов яркостной составляющей в режиме масштабирования LMCS, может зависеть от того, применяется ли прогнозирование на основе субблоков.3. It is proposed that whether and how to determine the chrominance residual scaling factor from the luminance samples in the LMCS scaling mode may depend on whether subblock-based prediction is applied.
a) В одном из примеров, прогнозирование на основе субблоков представляет собой аффинное прогнозирование;a) In one example, subblock-based prediction is affine prediction;
b) В одном из примеров, способ прогнозирования на основе субблоков представляет собой способ прогнозирования альтернативного временного вектора движения (Alternative Temporal Motion Vector Prediction (ATMVP)).b) In one example, the subblock-based prediction method is an Alternative Temporal Motion Vector Prediction (ATMVP) method.
c) В одном из примеров, коэффициент масштабирования остатка цветностной составляющей определяют для каждого субблока индивидуально.c) In one example, the chrominance residual scaling factor is determined for each subblock individually.
d) В одном из примеров, коэффициент масштабирования остатка цветностной составляющей определяют для всего блока, даже если его прогнозируют по субблокам. d) In one example, the chrominance residual scaling factor is determined for the entire block, even if it is predicted across subblocks.
i. В одном из примеров, вектор движения для одного выбранного субблока (например, верхнего левого субблока) может быть использован для идентификации опорных отсчетов текущего блока, как это описано в разделе 1.i. In one example, the motion vector for one selected subblock (eg, the top left subblock) can be used to identify reference samples of the current block, as described in Section 1.
4. Предлагается, что прогнозируемые значения яркостной составляющей, используемые для определения коэффициента масштабирования остатка цветностной составляющей, могут представлять собой промежуточные прогнозируемые значения яркостной составляющей вместо конечных прогнозируемых значений яркостной составляющей. 4. It is proposed that the predicted luminance values used to determine the chroma residual scaling factor may be intermediate predicted luminance values instead of the final predicted luminance values.
a) В одном из примеров, прогнозируемые значения яркостной составляющей прежде процедуры двунаправленного оптического потока (Bi-Directional Optical Flow (BDOF, также называется BIO)) могут быть использованы для определения коэффициента масштабирования остатка цветностной составляющей.a) In one example, the predicted luminance values before the Bi-Directional Optical Flow (BDOF, also called BIO) procedure can be used to determine the scaling factor of the remaining chrominance component.
b) В одном из примеров, прогнозируемые значения яркостной составляющей прежде процедуры уточнения вектора движения на стороне декодирующего устройства (Decoder-side Motion Vector Refinement (DMVR)) могут быть использованы для определения коэффициента масштабирования остатка цветностной составляющей.b) In one example, the predicted luminance values prior to the Decoder-side Motion Vector Refinement (DMVR) procedure can be used to determine the scaling factor of the remaining chrominance component.
c) В одном из примеров, прогнозируемые значения яркостной составляющей прежде процедуры компенсации LIC могут быть использованы для определения коэффициента масштабирования остатка цветностной составляющей.c) In one example, the predicted luminance values before the LIC compensation procedure can be used to determine the scaling factor for the remaining chrominance component.
d) В одном из примеров, прогнозируемые значения яркостной составляющей прежде процедуры уточнения прогнозируемого оптического потока (Prediction Refinement Optical Flow (PROF)), как это предлагается в документе JVET-N0236, могут быть использованы для определения коэффициента масштабирования остатка цветностной составляющей.d) In one example, the predicted luminance values prior to the Prediction Refinement Optical Flow (PROF) procedure, as proposed in JVET-N0236, can be used to determine the scaling factor of the chrominance residual.
5. Промежуточные векторы движения могут быть использованы для идентификации опорных отсчетов.5. Intermediate motion vectors can be used to identify reference samples.
a) В одном из примеров, вектор движения прежде процедуры потока BDOF или/и уточнения DMVR или/и других способов DMVD может быть использован для идентификации опорных отсчетов.a) In one example, the motion vector prior to the BDOF flow procedure and/or DMVR refinement and/or other DMVD methods may be used to identify reference samples.
b) В одном из примеров, вектор движения прежде процедуры уточнения прогнозируемого оптического потока (PROF), как это предлагается в документе JVET-N0236, могут быть использованы для идентификации опорных отсчетов.b) In one example, the motion vector prior to the predicted optical flow (PROF) refinement procedure, as proposed in JVET-N0236, can be used to identify reference samples.
6. Приведенные выше способы могут быть применимы, когда текущий блок кодирован в режиме межкадрового прогнозирования.6. The above methods may be applicable when the current block is encoded in inter-frame prediction mode.
7. Предлагается, что для блока, кодированного в режиме копирования IBC, один или несколько опорных отсчетов в опорном блоке текущего кадра могут быть использованы для определения коэффициента масштабирования остатка цветностной составляющей в режиме масштабирования LMCS. Когда блок кодирован в режиме IBC, термин «вектор движения» может быть эквивалентен термину «блочный вектор», где это опорное изображение установлено в качестве текущего изображения.7. It is proposed that for a block encoded in the IBC copy mode, one or more reference samples in the reference block of the current frame can be used to determine the chroma residual scaling factor in the LMCS scaling mode. When a block is encoded in IBC mode, the term "motion vector" may be equivalent to the term "block vector", where this reference picture is set as the current picture.
a) В одном из примеров, опорный отсчет принадлежит опорному блоку, который находится в текущем изображении и имеет такие же ширину и высоту, как текущий блок. Позиция опорного отсчета может быть вычислена как позиция соответствующего ему отсчета с добавлением вектора движения. a) In one example, the reference sample belongs to a reference block that is in the current image and has the same width and height as the current block. The position of a reference sample can be calculated as the position of its corresponding sample plus a motion vector.
b) В одном из примеров, позиции опорных отсчетов яркостной составляющей могут быть определены посредством позиции верхнего левого (или центрального или нижнего правого) отсчета текущего блока яркостной составляющей с добавлением вектора движения.b) In one example, the positions of the luminance reference samples may be determined by the position of the top left (or center or bottom right) sample of the current luminance block plus a motion vector.
c) В качестве альтернативы, позиции опорных отсчетов яркостной составляющей могут быть определены посредством позиции верхнего левого (или центрального или нижнего правого) отсчета текущего блока яркостной составляющей с добавлением блочного вектора текущего блока.c) Alternatively, the positions of the luminance reference samples may be determined by the position of the top left (or center or bottom right) sample of the current luminance block plus the block vector of the current block.
d) В качестве альтернативы, несколько соответствующих отсчетов яркостной составляющей в некоторых предварительно заданных позициях в опорной области текущего блока яркостной составляющей могут быть выбраны для вычисления коэффициента масштабирования остатка цветностной составляющей. d) Alternatively, several corresponding luminance samples at some predetermined positions in the reference region of the current luminance block may be selected to calculate a chrominance residual scaling factor.
e) В одном из примеров, несколько соответствующих отсчетов яркостной составляющей могут быть вычислены с использованием функции для определения коэффициента масштабирования остатка цветностной составляющей.e) In one example, several corresponding luminance samples may be calculated using a function to determine a scaling factor for the chrominance residual.
i. Например, медианное или среднее значение нескольких соответствующих отсчетов яркостной составляющей может быть вычислено для определения коэффициента масштабирования остатка цветностной составляющей.i. For example, the median or average value of several corresponding luminance samples may be calculated to determine a scaling factor for the chrominance residual.
f) В одном из примеров, интенсивности опорных отсчетов могут быть преобразованы в переформированную область прежде использования для определения коэффициента масштабирования остатка цветностной составляющей.f) In one example, the reference sample intensities may be converted to the reshaped region before being used to determine the chroma residual scaling factor.
i. В качестве альтернативы, интенсивности опорных отсчетов могут быть преобразованы в исходную область прежде использования для определения коэффициента масштабирования остатка цветностной составляющейi. Alternatively, the reference sample intensities can be converted to the original domain before being used to determine the chroma residual scaling factor
8. Предлагается, что один или несколько прогнозируемых/реконструированных отсчетов, расположенных в идентифицированной позиции (ях) текущего блока яркостной составляющей в текущем кадре могут быть использованы для определения коэффициента масштабирования остатка цветностной составляющей для текущего блока цветностной составляющей в режиме масштабирования LMCS.8. It is proposed that one or more predicted/reconstructed samples located at the identified position(s) of the current luminance block in the current frame can be used to determine the chroma residual scaling factor for the current chrominance block in the LMCS scaling mode.
a) В одном из примеров, если текущий блок кодирован в режиме межкадрового прогнозирования, прогнозируемый (или реконструированный) отсчет яркостной составляющей, расположенный в центре текущего блока яркостной составляющей, может быть выбран для определения коэффициента масштабирования остатка цветностной составляющей. a) In one example, if the current block is inter-predictive encoded, a predicted (or reconstructed) luminance sample located at the center of the current luminance block may be selected to determine a chrominance residual scaling factor.
b) В одном из примеров, среднее значение первых MxN прогнозируемых (или реконструированных) отсчетов яркостной составляющей может быть выбрана для определения коэффициента масштабирования остатка цветностной составляющей, где MxN может быть меньше размера (произведения ширина х высота) расположенного в том же месте блока яркостной составляющей.b) In one example, the average of the first MxN predicted (or reconstructed) luminance samples may be selected to determine the scaling factor of the remaining chrominance component, where MxN may be less than the size (width x height product) of a co-located luminance block .
9. Предлагается, что процедура вычисления модели CCLM полностью или частично может быть использована для определения коэффициента масштабирования остатка цветностной составляющей для блока цветностной составляющей в режиме масштабирования LMCS.9. It is proposed that the CCLM model calculation procedure, in whole or in part, can be used to determine the chrominance residual scaling factor for a chrominance block in the LMCS scaling mode.
a) В одном из примеров, опорные отсчеты, расположенные в идентифицированных позициях соседних отсчетов яркостной составляющей расположенного в том же месте блока яркостной составляющей в ходе процедуры определения параметров модели CCLM могут быть использованы для определения коэффициента масштабирования остатка цветностной составляющей.a) In one example, reference samples located at identified positions of adjacent luminance samples of a colocated luminance block during the CCLM model parameter determination procedure may be used to determine the scaling factor of the chrominance residual.
i. В одном из примеров, эти опорные отсчеты могут быть использованы непосредственно.i. In one example, these reference samples can be used directly.
ii. В качестве альтернативы, к этим опорным отсчетам может быть применена субдискретизация, и далее могут быть использованы субдискретизированные опорные отсчеты.ii. Alternatively, subsampling may be applied to these reference samples, and the subsampled reference samples may then be used.
b) В одном из примеров, K отсчетов из S опорных отсчетов, выбранных для вычислений модели CCLM, могут быть использованы для определения коэффициента масштабирования остатка цветностной составляющей в режиме масштабирования LMCS. Например, K равно 1, и S равно 4.b) In one example, the K samples of the S reference samples selected for the CCLM model calculations can be used to determine the chroma residual scaling factor in the LMCS scaling mode. For example, K is 1 and S is 4.
c) В одном из примеров, среднее/минимальное/максимальное значение опорных отсчетов из расположенного в том же месте блока яркостной составляющей в режиме на основе модели CCLM может быть использовано для определения коэффициента масштабирования остатка цветностной составляющей в режиме масштабирования LMCS.c) In one example, the average/minimum/maximum value of the reference samples from a colocated luminance block in the CCLM model-based mode can be used to determine the chrominance residual scaling factor in the LMCS scaling mode.
10. Как именно выбирать отсчеты для определения коэффициента масштабирования остатка цветностной составляющей может зависеть от кодированной информации текущего блока.10. How exactly to select samples to determine the scaling factor of the remaining chrominance component may depend on the encoded information of the current block.
a) Эта кодированная информация может содержать параметр QP, указание режима кодирования, номер POC, индикацию режима внутрикадрового прогнозирования, информацию о движении и т.п.a) This encoded information may include a QP parameter, encoding mode indication, POC number, intra prediction mode indication, motion information, etc.
b) В одном из примеров, для блоков, кодированных в режиме с копированием IBC или не в режиме с копированием IBC (Non-IBC), способ выбора отсчетов может различаться.b) In one example, for blocks coded in IBC copy mode or non-IBC copy mode (Non-IBC), the sample selection method may be different.
c) В одном из примеров, способ выбора отсчетов может быть разным на основе информации опорного изображения, такой как расстояние в номерах POC между опорными изображениями и текущим изображением. c) In one example, the sample selection method may be different based on reference picture information, such as the distance in POC numbers between the reference pictures and the current picture.
11. Предлагается, что коэффициент масштабирования остатка цветностной составляющей и/или вычисление модели CCLM может зависеть от соседних отсчетов соответствующего блока яркостной составляющей, покрывающего верхний левый отсчет расположенного в том же месте блока яркостной составляющей.11. It is proposed that the chrominance residual scaling factor and/or CCLM model calculation may depend on neighboring samples of a corresponding luminance block covering the top left sample of a co-located luminance block.
a) «Соответствующий блок кодирования яркостной составляющей» может быть определен как блок кодирования, покрывающий верхнюю левую позицию расположенного в том же месте блока кодирования яркостной составляющей. a) A “corresponding luminance coding block” may be defined as a coding block covering the upper left position of a co-located luminance coding block.
i. На Фиг. 5 показан пример, в котором для кодированного в режиме внутрикадрового прогнозирования блока цветностной составляющей в случае двойного дерева разбиение единицы CTU для цветностной составляющей может отличаться от разбиения единицы CTU для яркостной составляющей. Сначала выделяют «соответствующий блок кодирования яркостной составляющей», покрывающий верхний левый отсчет расположенного в том же месте блока яркостной составляющей относительно текущего блока цветностной составляющей. Затем, используя информацию о размере этого «соответствующего блока кодирования яркостной составляющей», может быть определен верхний левый отсчет рассматриваемого «соответствующего блока кодирования яркостной составляющей», этот верхний левый отсчет яркостной составляющей «соответствующего блока кодирования яркостной составляющей», покрывающего верхний левый отсчет расположенного в том же месте блока яркостной составляющей, расположен в точке с координатами (x=32, y=16).i. In FIG. 5 shows an example in which, for an intra-predictive encoded chrominance block in the case of a dual tree, the CTU partition for the chrominance component may be different from the CTU partition for the luma component. First, a “corresponding luminance coding block” covering the upper left sample of a co-located luminance block with respect to the current chrominance block is isolated. Then, using the size information of this "corresponding luminance coding block", the upper left sample of the considered "corresponding luminance coding block", this upper left luminance sample of the "corresponding luminance coding block" covering the upper left sample located at in the same place of the brightness component block, located at the point with coordinates (x=32, y=16).
b) В одном из примеров, реконструированные отсчеты, находящиеся не в указанном «соответствующем блоке кодирования яркостной составляющей», могут быть использованы для определения коэффициента масштабирования остатка цветностной составляющей и/или вычисления модели CCLM.b) In one example, reconstructed samples not in the specified "corresponding luma coding block" may be used to determine the chrominance residual scaling factor and/or calculate the CCLM model.
i. В одном из примеров, для определения коэффициента масштабирования остатка цветностной составляющей и/или вычисления модели CCLM могут быть использованы реконструированные отсчеты, находящиеся рядом с «соответствующим блоком кодирования яркостной составляющей».i. In one example, the reconstructed samples adjacent to the "corresponding luminance coding block" may be used to determine the chrominance residual scaling factor and/or calculate the CCLM model.
1) В одном из примеров, N отсчетов, расположенных в соседних слева столбцах и/или в соседних сверху строках «соответствующего блока кодирования яркостной составляющей», могут быть использованы для определения коэффициента масштабирования остатка цветностной составляющей и/или вычисления модели CCLM, где N=1…2W+2H, W и H обозначают ширину и высоту «соответствующего блока кодирования яркостной составляющей».1) In one example, N samples located in the left-adjacent columns and/or in the top-adjacent rows of the “corresponding luma coding block” may be used to determine the chrominance residual scaling factor and/or calculate the CCLM model, where N= 1...2W+2H, W and H denote the width and height of the “corresponding luminance component encoding block”.
a) Предположим, что верхний левый отсчет «соответствующего блока кодирования яркостной составляющей» находится в точке (xCb, yCb), тогда в одном из примеров, соседний сверху отсчет яркостной составляющей может находиться в точке (xCb + W/2, yCb - 1), или (xCb -1, yCb - 1). В альтернативном примере, соседний слева отсчет яркостной составляющей может находиться в точке (xCb+W-1, yCb-1).a) Assume that the top left sample of the "corresponding luminance coding block" is at the point (xCb, yCb), then in one example, the upper adjacent luminance sample may be at the point (xCb + W/2, yCb - 1) , or (xCb -1, yCb - 1). In an alternative example, the luminance component sample next to the left may be at the point (xCb+W-1, yCb-1).
b) В одном из примеров, позиция (и) соседнего отсчета (ов) может быть фиксированной, и/или находиться в заданном порядке проверки.b) In one example, the position(s) of the adjacent sample(s) may be fixed, and/or be in a specified test order.
2) В одном из примеров, 1 из N соседних отсчетов может быть выбран для определения коэффициента масштабирования остатка цветностной составляющей и/или вычисления модели CCLM. Предположим, что N=3, и порядок проверки трех соседних отсчетов имеет вид (xCb -1, yCb - H -1), (xCb + W/2, yCb - 1), (xCb -1, yCb - 1), тогда первый доступный соседний отсчет в списке проверки может быть выбран для определения коэффициента масштабирования остатка цветностной составляющей.2) In one example, 1 of the N adjacent samples may be selected to determine the chroma residual scaling factor and/or calculate the CCLM model. Suppose that N=3, and the order of checking three adjacent readings is (xCb -1, yCb - H -1), (xCb + W/2, yCb - 1), (xCb -1, yCb - 1), then the first available adjacent sample in the check list can be selected to determine the scaling factor of the chroma residual.
3) В одном из примеров, медианное или среднее значение N отсчетов, расположенных в соседних слева столбцах и/или соседних сверху строках «соответствующего блока кодирования яркостной составляющей», может быть использовано для определения коэффициента масштабирования остатка цветностной составляющей и/или вычисления модели CCLM, где N=1…2W+2H, W и H обозначают ширину и высоту «соответствующего блока кодирования яркостной составляющей».3) In one example, the median or average value of the N samples located in the left-adjacent columns and/or top-adjacent rows of the “corresponding luma coding block” may be used to determine the chrominance residual scaling factor and/or calculate the CCLM model, where N=1...2W+2H, W and H denote the width and height of the “corresponding luminance component encoding block”.
c) В одном из примеров, следует ли осуществлять масштабирование остатка цветностной составляющей, может зависеть от «доступных» соседних отсчетов соответствующего блока яркостной составляющей.c) In one example, whether to scale the chrominance residual may depend on the "available" neighboring samples of the corresponding luminance block.
i. В одном из примеров, «доступность» соседних отсчетов может зависеть от режима кодирования текущего блока/субблока или/и режима кодирования соседнего отсчета.i. In one example, the "availability" of neighboring samples may depend on the encoding mode of the current block/sub-block and/or the encoding mode of the adjacent sample.
1) В одном из примеров, для блока, кодируемого в режиме межкадрового прогнозирования, соседние отсчеты, кодируемые в режиме внутрикадрового прогнозирования или/и в режиме копирования IBC или/и в комбинированном режиме прогнозирования CIIP или/и в режиме компенсации LIC, могут считаться «недоступными».1) In one example, for a block encoded in the inter-prediction mode, adjacent samples encoded in the intra-prediction mode and/or in the IBC copy mode and/or in the combined CIIP prediction mode and/or in the LIC compensation mode may be considered " inaccessible."
2) В одном из примеров, для блока, кодируемого в режиме межкадрового прогнозирования, соседние отсчеты, использующие рассеивающий фильтр или/и двусторонний фильтр или/и фильтр на основе преобразования Адамара, могут считаться «недоступными.2) In one example, for a block encoded in the inter-frame prediction mode, neighboring samples using a diffusion filter and/or a two-way filter and/or a Hadamard transform filter may be considered "unavailable."
ii. В одном из примеров, «доступность» соседних отсчетов может зависеть от ширины и/или высоты текущего изображения/плитки/группы плиток/единицы VPDU/среза.ii. In one example, the "availability" of neighboring samples may depend on the width and/or height of the current image/tile/group of tiles/VPDU/slice.
1) В одном из примеров, если соседний блок располагается вне текущего изображения, тогда его считают «недоступным».1) In one example, if a neighboring block is located outside the current image, then it is considered "inaccessible".
iii. В одном из примеров, когда отсутствуют «доступные» соседние отсчеты, масштабирование остатка цветностной составляющей может быть недопустимым.iii. In one example, when there are no "available" neighboring samples, scaling of the chroma residual may not be valid.
iv. В одном из примеров, когда число «доступных» соседних отсчетов меньше K (K >= 1), масштабирование остатка цветностной составляющей может быть недопустимым.iv. In one example, when the number of "available" neighboring samples is less than K (K >= 1), scaling the chroma residual may not be valid.
v. В качестве альтернативы, недоступный соседний отсчет может быть замещен фиксированным значением по умолчанию, или посредством заполнения, или подстановки, так что масштабирование остатка цветностной составляющей может быть всегда применено.v. Alternatively, the unavailable adjacent sample can be replaced with a fixed default value, either by padding or substitution, so that scaling of the remaining chrominance component can always be applied.
i) В одном из примеров, если соседний отсчет недоступен, тогда он может быть замещен посредством 1 << (bitDepth − 1), где параметр bitDepth специфицирует битовую глубину отсчетов яркостной/цветностных составляющих.i) In one example, if an adjacent sample is not available, then it can be replaced by 1 << (bitDepth − 1), where the bitDepth parameter specifies the bit depth of the luma/chrominance samples.
2) В качестве альтернативы, если соседний отсчет недоступен, тогда он может быть замещен посредством заполнения от окружающих отсчетов, являющихся соседями слева/справа/сверху/снизу.2) Alternatively, if a neighboring sample is not available, then it can be replaced by padding from surrounding samples that are left/right/top/bottom neighbors.
3) В качестве альтернативы, если соседний отсчет недоступен, тогда он может быть замещен посредством подстановки первого доступного соседнего отсчета в предварительно заданном порядке проверки.3) Alternatively, if a neighbor sample is not available, then it can be replaced by substituting the first available neighbor sample in a predefined test order.
d) В одном из примеров, фильтрованные/отображенные отсчеты по соседству с «соответствующим блоком кодирования яркостной составляющей» могут быть использованы для определения коэффициента масштабирования остатка цветностной составляющей и/или вычисления модели CCLM. d) In one example, the filtered/mapped samples adjacent to the "corresponding luma coding block" may be used to determine the chrominance residual scaling factor and/or calculate the CCLM model.
i. В одном из примеров, процедура фильтрации/отображения может содержать сглаживающую фильтрацию опоры для блоков с внутрикадровым прогнозированием, пост-фильтрацию, такую как применение двустороннего фильтра, фильтра на основе преобразования Адамара, прямого отображения переформированной области и т.п. i. In one example, the filtering/mapping procedure may comprise support smoothing filtering for intra-prediction blocks, post-filtering such as applying a two-way filter, a Hadamard transform filter, direct mapping of the reshaped region, and the like.
Ограничения на то, применяется ли масштабирование остатка цветностной составляющей и/или модель CCLM или нет Restrictions on whether chroma residual scaling and/or CCLM is applied or not
12. Предлагается, что применяется ли масштабирование остатка цветностной составляющей или модель CCLM или нет, может зависеть от разбиения соответствующего и/или расположенного в том же месте блока яркостной составляющей.12. It is proposed that whether chrominance residual scaling or CCLM is applied or not may depend on the partitioning of the corresponding and/or co-located luminance block.
a) В одном из примеров, следует ли активизировать или не активизировать инструменты с применением кросс-компонентной информации, может зависеть от числа единиц CU/единиц PU/единиц TU в пределах расположенного в том же месте блока яркостной (например, Y или G) составляющей.a) In one example, whether or not to activate tools using cross-component information may depend on the number of CUs/PUs/TUs within a colocated luminance (eg, Y or G) component block .
i. В одном из примеров, если число единиц CU/единиц PU/единиц TU в пределах расположенного в том же месте блока яркостной (например, Y или G) составляющей превосходит пороговое число, такие инструменты могут быть не активизированы.i. In one example, if the number of CU units/PU units/TU units within a colocated luma (eg, Y or G) component block exceeds a threshold number, such tools may not be activated.
ii. В качестве альтернативы, следует ли активизировать или не активизировать инструменты с применением кросс-компонентной информации, может зависеть от глубины дерева разбиения.ii. Alternatively, whether or not to activate tools using cross-component information may depend on the depth of the partitioning tree.
1) В одном из примеров, если максимальная (или минимальная или средняя или какая-то другая) глубина дерева квадратов для единиц CU в пределах расположенного в том же месте блока яркостной составляющей превышает пороговое значение, такие инструменты могут быть не активизированы (активизация отменена).1) In one example, if the maximum (or minimum or average or whatever) quadtree depth for CUs within a colocated luminance block exceeds a threshold, such tools may not be activated (deactivated) .
2) В одном из примеров, если максимальная (или минимальная или средняя или какая-то другая) глубина двоичного (BT) и/или троичного (TT) дерева для единиц CU в пределах расположенного в том же месте блока яркостной составляющей превышает пороговое значение, такие инструменты могут быть не активизированы (активизация отменена).2) In one example, if the maximum (or minimum or average or whatever) binary (BT) and/or ternary (TT) tree depth for CUs within a co-located luminance block exceeds a threshold, such tools may not be activated (activation cancelled).
iii. В качестве альтернативы, кроме того, следует ли активизировать или не активизировать инструменты с применением кросс-компонентной информации, может зависеть от размеров блока цветностной составляющей.iii. Alternatively, in addition, whether or not to activate tools using cross-component information may depend on the chrominance block sizes.
iv. В качестве альтернативы, следует ли активизировать или не активизировать инструменты с применением кросс-компонентной информации, может зависеть от того охватывает ли расположенный в том же месте блок яркостной составляющей несколько размеров единиц VPDU/предварительно заданных областей.iv. Alternatively, whether or not to activate tools using cross-component information may depend on whether a colocated luminance component block spans multiple VPDU/predefined area unit sizes.
v. Пороговые значения в приведенном выше обсуждении могут быть фиксированными числами или могут быть сообщены в виде сигнализации или могут зависеть от стандартных профилей/уровней/ярусов.v. The thresholds in the above discussion may be fixed numbers or may be communicated as alarms or may depend on standard profiles/levels/tiers.
b) В одном из примеров, если расположенный в том же месте блок яркостной составляющей относительно текущего блока цветностной составляющей разбивают на несколько уровней деления (например, как показано на Фиг. 7), тогда масштабирование остатка цветностной составляющей и/или применение модели CCLM может быть запрещено.b) In one example, if a luminance block located at the same location relative to the current chrominance block is split into multiple division levels (eg, as shown in FIG. 7), then scaling the remaining chroma and/or applying a CCLM model may be forbidden.
i. В качестве альтернативы, если расположенный в том же месте блок яркостной составляющей относительно блока цветностной составляющей не разбивают (например, в пределах одной единицы CU/единицы TU/единицы PU), тогда может быть применено масштабирование остатка цветностной составляющей и/или модель CCLM.i. Alternatively, if a co-located luma block relative to a chrominance block is not partitioned (eg, within a single CU/TU/PU), then chrominance residual scaling and/or a CCLM model can be applied.
c) В одном из примеров, если расположенный в том же месте блок яркостной составляющей относительно текущего блока цветностной составляющей содержит больше чем M единиц CU/единиц PU/единиц TU, тогда масштабирование остатка цветностной составляющей и/или применение модели CCLM может быть запрещено.c) In one example, if a luminance block located at the same location relative to the current chrominance block contains more than M CUs/PUs/TUs, then scaling of the remaining chrominance and/or application of the CCLM model may be prohibited.
i. В одном из примеров, M может быть целым числом больше 1. i. In one example, M can be an integer greater than 1.
ii. В одном из примеров, M может зависеть от того, является ли это моделью CCLM или процедурой масштабирования остатка цветностной составляющей.ii. In one example, M may depend on whether it is a CCLM model or a chroma residual scaling procedure.
iii. Число M может быть фиксированным числом или может быть передано в виде сигнализации или может зависеть от стандартных профилей/уровней/ярусов iii. The M number may be a fixed number or may be signaled or may depend on standard profiles/layers/tiers
d) Приведенные выше единицы CU в пределах расположенного в том же месте блока яркостной составляющей могут быть интерпретированы как все единицы CU в пределах расположенного в том же месте блока яркостной составляющей. В качестве альтернативы, единицы CU в пределах расположенного в том же месте блока яркостной составляющей могут быть интерпретированы как только часть единиц CU в пределах этого расположенного в том же месте блока яркостной составляющей, такую как единицы CU вдоль границы этого расположенного в том же месте блока яркостной составляющей.d) The above CUs within a co-located luminance component block can be interpreted as all CUs within a co-located luminance component block. Alternatively, CUs within a colocated luminance block may be interpreted as just a portion of the CUs within that colocated luminance block, such as CUs along the boundary of that colocated luminance block. component.
e) Упомянутые выше единицы CU в пределах расположенного в том же месте блока яркостной составляющей могут быть интерпретированы в качестве субъединиц CU или субблоков.e) The above-mentioned CUs within a co-located luminance component block can be interpreted as CU subunits or subblocks.
i. Например, субъединицы CU или субблоки могут быть использованы в режиме прогнозирования ATMVP;i. For example, CU subunits or subunits may be used in ATMVP prediction mode;
ii. Например, субъединицы CU или субблоки могут быть использованы при аффинном прогнозировании;ii. For example, CU subunits or subblocks can be used in affine prediction;
iii. Например, субъединицы CU или субблоки могут быть использованы в режиме внутрикадрового подразделения (Intra Sub-Partition (ISP)).iii. For example, CU subunits or subblocks can be used in Intra Sub-Partition (ISP) mode.
f) В одном из примеров, если единица CU/единица PU/единицы TU, покрывающая верхний левый отсчет яркостной составляющей расположенного в том же месте блока яркостной составляющей больше заданного размера блока яркостной составляющей, тогда масштабирование остатка цветностной составляющей и/или применение модели CCLM может быть запрещено.f) In one example, if the CU unit/PU unit/TU unit covering the top left luminance sample of a luminance block located at the same location is larger than the specified luminance block size, then scaling the chrominance residual and/or applying a CCLM model may be prohibited.
i. В примере, показанном на Фиг. 8, расположенный в том же месте блок яркостной составляющей имеет размер 32x32, но находится в пределах соответствующего блока яркостной составляющей размером 64x64, тогда если заданный размер блока яркостной составляющей равен 32x64, в этом случае масштабирование остатка цветностной составляющей и/или применение модели CCLM запрещено i. In the example shown in FIG. 8, a luminance block located at the same location is 32x32, but is within a corresponding 64x64 luminance block, then if the specified luminance block size is 32x64, then scaling of the remaining chrominance and/or application of the CCLM model is prohibited
ii. В качестве альтернативы, если расположенный в том же месте блок яркостной составляющей относительно текущего блока цветностной составляющей не разделен, и соответствующий блок яркостной составляющей, покрывающий верхний левый отсчет яркостной составляющей расположенного в том же месте блока яркостной составляющей, полностью входит в пределы ограничивающей рамки, тогда для текущего блока цветностной составляющей может быть применено масштабирование остатка цветностной составляющей и/или модель CCLM. Ограничивающая рамка может иметь форму прямоугольника шириной W и высотой H, что обозначено WxH, как показано на Фиг. 9, соответствующий блок яркостной составляющей имеет ширину 32 и высоту 64, и ограничивающий контур имеет ширину 40 и высоту 70. ii. Alternatively, if a colocated luma block relative to the current chrominance block is not divided, and the corresponding luma block covering the top left luminance sample of the colocated luma block is completely contained within the bounding box, then For the current chroma block, chroma residual scaling and/or a CCLM model can be applied. The bounding box may be in the shape of a rectangle of width W and height H, denoted WxH, as shown in FIG. 9, the corresponding luminance component block has a width of 32 and a height of 64, and the bounding box has a width of 40 and a height of 70.
1) В одном из примеров, размер WxH ограничивающей рамки может быть определен в соответствии с шириной и/или высотой единицы CTU, либо в соответствии с шириной и/или высотой единицы CU, либо в соответствии с произвольными значениями.1) In one example, the size WxH of the bounding box may be determined according to the width and/or height of the CTU, or according to the width and/or height of the CU, or according to arbitrary values.
g) В одном из примеров, если расположенный в том же месте блок яркостной составляющей относительно текущего блока цветностной составляющей разбивают на несколько уровней деления, тогда только прогнозируемые отсчеты (или реконструированные отсчеты) внутри предварительно заданной единицы разбиения расположенного в том же месте блока яркостной составляющей используются для определения коэффициента масштабирования остатка цветностной составляющей в режиме масштабирования LMCS.g) In one example, if a co-located luminance block relative to the current chrominance block is partitioned into multiple division levels, then only the predicted samples (or reconstructed samples) within a predefined partition unit of the co-located luminance block are used to determine the scaling factor for the remaining chrominance component in the LMCS scaling mode.
i. В одном из примеров, среднее значение всех прогнозируемых отсчетов (или реконструированных отсчетов) в первой единице разбиения расположенного в том же месте блока яркостной составляющей используется для определения коэффициента масштабирования остатка цветностной составляющей в режиме масштабирования LMCS.i. In one example, the average of all predicted samples (or reconstructed samples) in the first partition unit of a colocated luma block is used to determine the scaling factor of the remaining chrominance component in the LMCS scaling mode.
ii. В качестве альтернативы, верхний левый прогнозируемый отсчет (или реконструированный отсчет) в первой единице разбиения расположенного в том же месте блока яркостной составляющей используется для определения коэффициента масштабирования остатка цветностной составляющей в режиме масштабирования LMCS.ii. Alternatively, the top left predicted sample (or reconstructed sample) in the first partition unit of the co-located luma block is used to determine the scaling factor of the remaining chrominance component in the LMCS scaling mode.
iii. В качестве альтернативы, центральный прогнозируемый отсчет (или реконструированный отсчет) в первой единице разбиения расположенного в том же месте блока яркостной составляющей используется для определения коэффициента масштабирования остатка цветностной составляющей в режиме масштабирования LMCS.iii. Alternatively, the central predicted sample (or reconstructed sample) in the first partition unit of a co-located luminance block is used to determine the scaling factor of the chroma remainder in the LMCS scaling mode.
h) Предлагается, что применять ли и как применять кросс-компонентные инструменты, такие как модель CCLM и масштабирование LMCS может зависеть от режима (ов) кодирования одной или нескольких единиц CU яркостных составляющей, покрывающих по меньшей мере один отсчет в расположенном в том же месте блоке яркостной составляющей.h) It is proposed that whether and how to apply cross-component tools such as the CCLM model and LMCS scaling may depend on the encoding mode(s) of one or more luminance component CUs covering at least one sample in a co-located block of the brightness component.
i. Например, кросс-компонентные инструменты не активизируют, если одна или несколько единиц CU яркостной составляющей, которые покрывают по меньшей мере один отсчет расположенного в том же месте блока яркостной составляющей, кодированы в аффинном режиме;i. For example, cross-component tools are not activated if one or more luma CUs that cover at least one sample of a colocated luma block are affine-mode encoded;
ii. Например, кросс-компонентные инструменты не активизируют, если одна или несколько единиц CU яркостной составляющей, которые покрывают по меньшей мере один отсчет расположенного в том же месте блока яркостной составляющей, кодированы в режиме с двунаправленным прогнозированием;ii. For example, cross-component tools are not activated if one or more luminance CUs that cover at least one sample of a colocated luminance block are encoded in a bidirectional predictive mode;
iii. Например, кросс-компонентные инструменты не активизируют, если одна или несколько единиц CU яркостной составляющей, которые покрывают по меньшей мере один отсчет расположенного в том же месте блока яркостной составляющей, кодированы в режиме потока BDOF;iii. For example, cross-component tools are not activated if one or more luma CUs that cover at least one sample of a colocated luma block are encoded in the BDOF stream mode;
iv. Например, кросс-компонентные инструменты не активизируют, если одна или несколько единиц CU яркостной составляющей, которые покрывают по меньшей мере один отсчет расположенного в том же месте блока яркостной составляющей, кодированы с использованием уточнения DMVR;iv. For example, cross-component tools are not activated if one or more luminance CUs that cover at least one sample of a colocated luminance block are encoded using DMVR refinement;
v. Например, кросс-компонентные инструменты не активизируют, если одна или несколько единиц CU яркостной составляющей, которые покрывают по меньшей мере один отсчет расположенного в том же месте блока яркостной составляющей, кодированы с использованием режима аффинного прогнозирования матрицы, как это предлагается в документе JVET-N0217;v. For example, cross-component tools are not activated if one or more luminance CUs that cover at least one sample of a colocated luminance block are encoded using an affine matrix prediction mode, as proposed in JVET-N0217 ;
vi. Например, кросс-компонентные инструменты не активизируют, если одна или несколько единиц CU яркостной составляющей, которые покрывают по меньшей мере один отсчет расположенного в том же месте блока яркостной составляющей, кодированы с использованием режима межкадрового прогнозирования;vi. For example, cross-component tools are not activated if one or more luminance CUs that cover at least one sample of a colocated luminance block are encoded using an inter-prediction mode;
vii. Например, кросс-компонентные инструменты не активизируют, если одна или несколько единиц CU яркостной составляющей, которые покрывают по меньшей мере один отсчет расположенного в том же месте блока яркостной составляющей, кодированы с использованием режима разбиения ISP;vii. For example, cross-component tools are not activated if one or more luma CUs that cover at least one sample of a colocated luma block are encoded using the ISP split mode;
viii. В одном из примеров, слова «одна или несколько единиц CU яркостной составляющей, которые покрывают по меньшей мере один отсчет расположенного в том же месте блока яркостной составляющей» могут обозначать соответствующий блок яркостной составляющей.viii. In one example, the words “one or more luminance component CUs that cover at least one sample of a colocated luminance component block” may refer to a corresponding luminance component block.
i) Когда режим CCLM/LMCS запрещен, передача сигнализации использования режима CCLM/LMCS может быть пропущена.i) When CCLM/LMCS mode is disabled, CCLM/LMCS mode use signaling may be skipped.
j) В настоящем описании, обозначение CCLM может относиться к каким-либо вариантам режимов CCLM, включая режим LM, режим LM-T и режим LM-L.j) As used herein, CCLM may refer to any of the CCLM modes, including LM mode, LM-T mode, and LM-L mode.
13. Предлагается, что решение, следует ли применять и как применять кросс-компонентные инструменты, такие как модель CCLM и масштабирование LMCS, могут быть принято для части блока цветностной составляющей.13. It is proposed that the decision of whether and how to apply cross-component tools such as the CCLM model and LMCS scaling can be made for a portion of the chrominance block.
a) В одном из примеров, следует ли и как применять кросс-компонентные инструменты, такие как модель CCLM и масштабирование LMCS, решают на уровне субблоков цветностной составляющей.a) In one example, whether and how to apply cross-component tools such as the CCLM model and LMCS scaling is decided at the chrominance subblock level.
i. В одном из примеров, субблок цветностной составляющей определен как блок размером 2x2 или 4x4 в единице CU цветностной составляющей.i. In one example, a chrominance subblock is defined as a 2x2 or 4x4 block in a chrominance CU.
ii. В одном из примеров, для субблока цветностной составляющей, когда соответствующий блок кодирования яркостной составляющей относительно текущей единицы CU цветностной составляющей покрывает все отсчеты соответствующего блока или субблока, может быть применена модель CCLM.ii. In one example, for a chrominance subblock, when the corresponding luminance coding block relative to the current chroma CU covers all samples of the corresponding block or subblock, the CCLM model may be applied.
iii. В одном из примеров, для субблока цветностной составляющей, когда не все отсчеты соответствующего блока покрыты соответствующим блоком кодирования яркостной составляющей относительно текущей единицы CU цветностной составляющей, модель CCLM не применяется.iii. In one example, for a chrominance subblock, when not all samples of the corresponding block are covered by the corresponding luminance coding block relative to the current chroma CU, the CCLM model is not applied.
iv. В одном из примеров, параметры модели CCLM или масштабирования LMCS определяют для каждого субблока цветной составляющей, рассматривая этот субблок в качестве единицы CU цветностной составляющей.iv. In one example, the CCLM model or LMCS scaling parameters are determined for each chroma sub-block, considering that sub-block as a chrominance CU.
v. В одном из примеров, когда модель CCLM или масштабирование LMCS применяются к субблоку цветностной составляющей, могут быть использованы отсчеты из расположенного в том же месте блока.v. In one example, when a CCLM model or LMCS scaling is applied to a chrominance subblock, samples from a colocated block may be used.
Применимость масштабирования остатка цветностной составляющей в режиме LMCS Applicability of chrominance residual scaling in LMCS mode
14. Предлагается, что можно ли применить зависимое от яркостной составляющей масштабирование остатка цветностной составляющей, можно сообщить в виде сигнализации на другом синтаксическом уровне в дополнение к заголовку группы плиток, как это специфицировано в документе JVET-M1001. 14. It is proposed that whether luma-dependent scaling of the chrominance residual can be applied can be signaled at another syntactic level in addition to the tile group header, as specified in JVET-M1001.
a) Например, флаг можно передать в виде сигнализации на уровне последовательности (например, в наборе SPS), на уровне изображения (например, в наборе PPS или в заголовке изображения), на уровне среза (например, в заголовке среза), на уровне плитки, на уровне строки единиц CTU, на уровне единицы CTU, на уровне единицы CU. Флаг равный 1 специфицирует, что масштабирование остатка цветностной составляющей активизировано для единиц CU ниже сообщенного в виде сигнализации уровня синтаксиса. Флаг равный 0 специфицирует, что масштабирование остатка цветностной составляющей не активизировано для уровня ниже сообщенного в виде сигнализации уровня синтаксиса. Когда флаг chroma_residual_scale_flag не присутствует, его признают равным 0.a) For example, a flag can be signaled at the sequence level (e.g. in an SPS set), at the picture level (e.g. in a PPS set or in a picture header), at the slice level (e.g. in a slice header), at the tile level, at the line of units level CTU, at unit level CTU, at unit level CU. Flag equal to 1 specifies that chrominance residual scaling is enabled for CUs below the signaled syntax level. Flag equal to 0 specifies that chrominance residual scaling is not enabled for a level below the signaled syntax level. When the chroma_residual_scale_flag is not present, it is set to 0.
b) В одном из примеров, если масштабирование остатка цветностной составляющей ограничено на уровне узла разбиения, тогда флаг может не быть передан в виде сигнализации, и его признают равным 0 для единиц CU, покрытых узлом разбиения. В одном из примеров, узел разбиения может представлять собой единицу CTU (единицу CTU рассматривают в качестве корневого узла при разбиении по схеме четвертичного дерева).b) In one example, if the chrominance residual scaling is limited at the split node level, then the flag may not be signaled and is set to 0 for CUs covered by a split node. In one example, the split node may be a CTU (the CTU is considered the root node in a quaternary tree split).
c) В одном из примеров, если масштабирование остатка цветностной составляющей ограничено для размера блока цветностной составляющей не больше 32x32, тогда флаг может не быть передан в виде сигнализации и тогда его признают равным 0 для размеров блока цветностной составляющей не больше 32x32. c) In one example, if chrominance residual scaling is limited for a chrominance block size of no more than 32x32, then the flag may not be transmitted in the form of signaling and then it is recognized as equal to 0 for the block size of the chrominance component not exceeding 32x32.
Применимость режима на основе модели CCLMApplicability of CCLM based regime
15. Предлагается, что можно ли применить режим на основе модели CCLM, может быть сообщено посредством сигнализации на других синтаксических уровнях в дополнение к уровню набора sps, как это специфицировано в документе JVET-M1001.15. It is proposed that whether a CCLM-based mode can be applied may be signaled at other syntax levels in addition to the sps set level as specified in JVET-M1001.
a) Например, это может быть сообщено в виде сигнализации на уровне изображения (например, в наборе PPS или в заголовке изображения), на уровне среза (например, в заголовке среза), на уровне группы плиток (например, в заголовке группы плиток), на уровне плитки, на уровне строки единиц CTU, на уровне единицы CTU, на уровне единицы CU.a) For example, this may be signaled at the picture level (eg in the PPS set or picture header), at the slice level (eg in the slice header), at the tile group level (eg in the tile group header), at tile level, at CTU line level, at CTU level, at CU level.
b) В одном из примеров, флаг может не быть передан в виде сигнализации и тогда признан равным 0, если модель CCLM не может быть применена.b) In one example, the flag may not be signaled and is then set to 0 if the CCLM model cannot be applied.
i. В одном из примеров, если масштабирование остатка цветностной составляющей ограничено для размера блока цветностной составляющей не больше 8x8, тогда флаг может не быть передан в виде сигнализации и тогда его признают равным 0 для размеров блока цветностной составляющей не больше 8x8. i. In one example, if chroma remainder scaling is limited to a chrominance block size of no more than 8x8, then the flag may not be transmitted in the form of signaling and then it is recognized as equal to 0 for chrominance component block sizes no larger than 8x8.
Унификация определения коэффициента масштабирования остатка цветностной составляющей для режима внутрикадрового прогнозирования и режима межкадрового прогнозирования Unification of determination of the scaling factor of the remainder of the chrominance component for the intra-frame prediction mode and the inter-frame prediction mode
16. Коэффициент масштабирования остатка цветностной составляющей может быть определен после кодирования/декодирования блока яркостной составляющей и может быть сохранен и использован для последующих кодированных блоков.16. The chrominance residual scaling factor can be determined after encoding/decoding a luminance block and can be stored and used for subsequent encoded blocks.
a) В одном из примеров, некоторые прогнозируемые отсчеты или/и промежуточные прогнозируемые отсчеты или/и реконструированные отсчеты или/и реконструированные отсчеты прежде контурной фильтрации (например, прежде обработки деблокирующим фильтром или/и фильтром SAO или/и двусторонним фильтром или/и фильтром на основе преобразования Адамара или/и фильтром ALF) в блоке яркостной составляющей могут быть использованы для определения коэффициента масштабирования остатка цветностной составляющей.a) In one example, some predicted samples and/and intermediate predicted samples and/and reconstructed samples and/and reconstructed samples before loop filtering (for example, before processing by a deblocking filter and/or an SAO filter and/or a two-way filter and/or a filter based on the Hadamard transform and/or an ALF filter) in the luma block can be used to determine the scaling factor of the remaining chrominance component.
i. Например, для определения коэффициента масштабирования остатка цветностной составляющей могут быть использованы частичные отсчеты в нижней строке или/и в правом столбце блока яркостной составляющей.i. For example, partial samples in the bottom row and/or in the right column of the luminance block may be used to determine the scaling factor for the chrominance component residual.
b) В случае одиночного дерева, при кодировании блока в режиме внутрикадрового прогнозирования, или/и режиме копирования IBC или/и в режиме межкадрового прогнозирования найденный коэффициент масштабирования остатка цветностной составляющей для соседних блоков может быть использован для определения коэффициента масштабирования для текущего блока.b) In the case of a single tree, when encoding a block in intra-prediction mode and/or IBC copy mode and/or inter-prediction mode, the found chrominance residual scaling factor for neighboring blocks can be used to determine the scaling factor for the current block.
i. В одном из примеров, определенные соседние блоки могут быть проверены по порядку, и первый доступный коэффициент масштабирования остатка цветностной составляющей может быть использован для текущего блока.i. In one example, certain neighboring blocks may be examined in order, and the first available chrominance residual scale factor may be used for the current block.
ii. В одном из примеров, некоторые соседние блоки могут быть проверены по порядку, и коэффициент масштабирования может быть определен на основе первых K доступных соседних коэффициентов масштабирования остатка цветностной составляющей.ii. In one example, some neighboring blocks may be examined in order, and a scale factor may be determined based on the first K available neighboring chrominance component residual scale factors.
iii. В одном из примеров, для блока, кодированного в режиме межкадрового прогнозирования или/и в комбинированном режиме прогнозирования CIIP, если соседний блок кодирован в режиме внутрикадрового прогнозирования или/и в режиме копирования IBC или/и в комбинированном режиме прогнозирования CIIP, коэффициент масштабирования остатка цветностной составляющей для этого соседнего блока может считаться «недоступным».iii. In one example, for a block encoded in the inter-prediction mode and/or the combined CIIP prediction mode, if an adjacent block is encoded in the intra-prediction mode and/or the IBC copy mode and/or the combined CIIP prediction mode, the residual chrominance scaling factor component for this neighboring block may be considered "unreachable".
iv. В одном из примеров, соседние блоки могут быть проверены по порядку от левого (или верхнего левого) -> к верхнему (или верхнему правому).iv. In one example, adjacent blocks can be checked in order from left (or top left) -> to top (or top right).
1) В качестве альтернативы, соседние блоки могут быть проверены по порядку от верхнего (или верхнего правого) -> к левому (или верхнему левому.1) Alternatively, adjacent blocks can be checked in order from top (or top right) -> to left (or top left.
c) В случае раздельного дерева, при кодировании блока цветностной составляющей, может быть сначала идентифицирован соответствующий блок яркостной составляющей. Затем найденный коэффициент масштабирования остатка цветностной составляющей для соседних с ним блоков (например, соответствующего блока яркостной составляющей) может быть использован для определения коэффициента масштабирования для текущего блока.c) In the case of a split tree, when encoding a chrominance block, the corresponding luminance block may first be identified. The found scaling factor for the remaining chrominance component for its neighboring blocks (eg, the corresponding luma component block) can then be used to determine the scaling factor for the current block.
i. В одном из примеров, определенные соседние блоки могут быть проверены по порядку, и первый доступный коэффициент масштабирования остатка цветностной составляющей может быть использован для текущего блока.i. In one example, certain neighboring blocks may be examined in order, and the first available chrominance residual scale factor may be used for the current block.
ii. В одном из примеров, определенные соседние блоки могут быть проверены по порядку, и коэффициент масштабирования может быть определен на основе первых K доступных соседних коэффициентов масштабирования остатка цветностной составляющей.ii. In one example, certain neighboring blocks may be examined in order, and the scaling factor may be determined based on the first K available neighboring chrominance component residual scaling factors.
d) Соседние блоки могут быть проверены в предварительно заданном порядке.d) Adjacent blocks can be checked in a predefined order.
i. В одном из примеров, соседние блоки могут быть проверены по порядку от левого (или верхнего левого) -> к верхнему (или верхнему правому). i. In one example, adjacent blocks can be checked in order from left (or top left) -> to top (or top right).
ii. В одном из примеров, соседние блоки могут быть проверены по порядку от верхнего (или верхнего правого) -> к левому (или верхнему левому).ii. In one example, adjacent blocks can be checked in order from top (or top right) -> to left (or top left).
iii. В одном из примеров, соседние блоки могут быть проверены по порядку нижний левый -> левый -> верхний правый -> верхний -> верхний левый.iii. In one example, adjacent blocks can be checked in the order bottom left -> left -> top right -> top -> top left.
iv. В одном из примеров, соседние блоки могут быть проверены по порядку левый -> верхний -> верхний правый -> нижний левый -> верхний левый.iv. In one example, adjacent blocks can be checked in the order left -> top -> top right -> bottom left -> top left.
e) В одном из примеров, следует ли применить масштабирование остатка цветностной составляющей, может зависеть от «доступности» соседнего блока.e) In one example, whether to apply chroma residual scaling may depend on the "availability" of an adjacent block.
i. В одном из примеров, когда нет «доступного» соседнего блока, масштабирование остатка цветностной составляющей может быть недопустимо.i. In one example, when there is no "available" neighboring block, scaling the remaining chrominance component may not be valid.
ii. В одном из примеров, когда число «доступных» соседних блоков меньше K (K >= 1), масштабирование остатка цветностной составляющей может быть недопустимо.ii. In one example, when the number of "available" neighboring blocks is less than K (K >= 1), scaling the remaining chrominance component may not be valid.
iii. В качестве альтернативы, когда нет «доступного» соседнего блока, в качестве коэффициента масштабирования остатка цветностной составляющей может быть взято значение по умолчанию.iii. Alternatively, when there is no "available" adjacent block, a default value can be taken as the scaling factor for the remaining chrominance component.
1) В одном из примеров, значение по умолчанию согласно 1<< (BitDepth -1) может быть использована для определения коэффициента масштабирования остатка цветностной составляющей.1) In one example, the default value of 1<< (BitDepth -1) can be used to determine the scaling factor for the remaining chrominance component.
5. Примеры реализации предлагаемой технологии 5. Examples of implementation of the proposed technology
На Фиг. 10 представлена блок-схема аппаратуры 1000 для обработки видео. Эта аппаратура 1000 может быть использована для реализации одного или нескольких описываемых здесь способов. Эта аппаратура 1000 может представлять собой смартфон, планшетный компьютер, обычный компьютер, приемник Интернет вещей (Internet of Things (IoT)) и т.д. Аппаратура 1000 может содержать один или несколько процессоров 1002, одно или несколько запоминающих устройств 1004 и оборудование 1006 для обработки видео. Процессор (ы) 1002 может быть конфигурирован для осуществления одного или нескольких способов (включая, не ограничиваясь, способы 800 и 900), описываемых в настоящем документе. Запоминающее устройство (а) 1004 может быть использовано для сохранения данных и кода, применяемых для реализации описываемых здесь способов и технологии. Оборудование 1006 для обработки видео может быть использовано для осуществления, в аппаратной схеме, некоторых способов и технологий, описываемых в настоящем документе.In FIG. 10 is a block diagram of video processing hardware 1000. This apparatus 1000 may be used to implement one or more of the methods described herein. The hardware 1000 may be a smartphone, a tablet computer, a conventional computer, an Internet of Things (IoT) receiver, etc. The hardware 1000 may include one or more processors 1002, one or more storage devices 1004, and video processing hardware 1006. Processor(s) 1002 may be configured to implement one or more of the methods (including, but not limited to, methods 800 and 900) described herein. Storage device(s) 1004 may be used to store data and code used to implement the methods and technology described herein. Video processing equipment 1006 may be used to implement, in hardware, some of the methods and technologies described herein.
В некоторых вариантах, способы кодирования видео могут быть осуществлены с использованием устройства, реализованного на аппаратной платформе, как описано применительно к Фиг. 10.In some embodiments, video encoding methods may be implemented using an apparatus implemented on a hardware platform, as described in connection with FIG. 10.
На Фиг. 11 показана логическая схема примера способа 1100 определения линейной модели для кросс-компонентного прогнозирования в соответствии с предлагаемой технологией. Этот способ 1100 содержит, на этапе 1110, осуществление преобразования между текущим видеоблоком и представлением этого текущего видеоблока в виде потока битов данных, где, в процессе преобразования, определяют второй набор значений цветовых составляющих для текущего видеоблока из первого набора значений цветовых составляющих, входящего в один или несколько опорных кадров, где первый набор значений цветовых составляющих может быть использован в линейной модели на этапе кодирования видео.In FIG. 11 shows the logic diagram of an example method 1100 for defining a linear model for cross-component forecasting in accordance with the proposed technology. This method 1100 comprises, at step 1110, converting between the current video block and a data bitstream representation of that current video block, wherein the conversion process determines a second set of color component values for the current video block from the first set of color component values included in one or multiple reference frames, where the first set of color component values can be used in a linear model during the video encoding stage.
Некоторые варианты могут быть описаны с использованием следующего постатейного формата.Some options may be described using the following clause-by-clause format.
1. Способ обработки видео, содержащий:1. A video processing method containing:
осуществление преобразования между текущим видеоблоком и представлением этого текущего видеоблока в виде потока битов данных, где, в процессе преобразования, определяют второй набор значений цветовых составляющих для текущего видеоблока из первого набора значений цветовых составляющих, входящего в один или несколько опорных кадров, где первый набор значений цветовых составляющих может быть использован в линейной модели на этапе кодирования видео.performing a conversion between the current video block and a representation of this current video block as a stream of data bits, where, in the conversion process, a second set of color component values for the current video block is determined from a first set of color component values included in one or more reference frames, where the first set of values color components can be used in a linear model at the video encoding stage.
2. Способ согласно статье 1, отличающийся тем, что первый набор значений цветовых составляющих интерполируют прежде использования в линейной модели на этапе кодирования видео.2. The method according to article 1, characterized in that the first set of color component values is interpolated before being used in the linear model at the video encoding stage.
3. Способ согласно какой-либо одной или нескольким из статей 1-2, отличающийся тем, что в качестве параметров линейной модели может быть использована линейная комбинация первого набора значений цветовых составляющих.3. A method according to any one or more of Articles 1-2, characterized in that a linear combination of the first set of color component values can be used as parameters of the linear model.
4. Способ согласно статье 1, отличающийся тем, что позиции первого набора значений цветовых составляющих, входящих в один или несколько опорных кадров, выбирают на основе по меньшей мере частично, информации о движении текущего видеоблока.4. The method according to article 1, characterized in that the positions of the first set of color component values included in one or more reference frames are selected based at least in part on motion information of the current video block.
5. Способ согласно статье 4, отличающийся тем, что позицию значения яркостной составляющей в одном или нескольких опорных кадров вычисляют на основе позиции соответствующего значения яркостной составляющей в текущем видеоблоке и информации о движении текущего видеоблока.5. The method according to Article 4, characterized in that the position of the luminance component value in one or more reference frames is calculated based on the position of the corresponding luminance component value in the current video block and motion information of the current video block.
6. Способ согласно статье 5, отличающийся тем, что позиция указанного соответствующего значения яркостной составляющей представляет собой позицию верхнего левого отсчета, центрального отсчета или нижнего правого отсчета в текущем видеоблоке.6. The method according to Article 5, characterized in that the position of said corresponding luminance component value is the position of the upper left sample, the central sample or the lower right sample in the current video block.
7. Способ согласно статье 6, отличающийся тем, что информация о движении текущего видеоблока соответствует целочисленному вектору движения или дробному вектору движения.7. The method according to Article 6, characterized in that the motion information of the current video block corresponds to an integer motion vector or a fractional motion vector.
8. Способ согласно статье 7, отличающийся тем, что дробный вектор движения определяют с использованием дробного значения яркостной составляющей в одном или нескольких опорных кадров.8. The method according to Article 7, characterized in that the fractional motion vector is determined using the fractional value of the luminance component in one or more reference frames.
9. Способ согласно статье 7, отличающийся тем, что целочисленный вектор движения определяют путем округления в направлении нуля или в направлении прочь от нуля. 9. The method according to Article 7, characterized in that the integer motion vector is determined by rounding towards zero or away from zero.
10. Способ согласно статье 1, отличающийся тем, что позиции первого набора значений цветовых составляющих, входящего в один или несколько опорных кадров, представляют собой предварительно заданные позиции.10. The method according to Article 1, characterized in that the positions of the first set of color component values included in one or more reference frames are predetermined positions.
11. Способ согласно какой-либо одной или нескольким из статей 1-10, отличающийся тем, что медианное или среднее значение первого набора значений цветовых составляющих используются для определения второго набора значений цветовых составляющих для текущего видеоблока.11. The method according to any one or more of clauses 1-10, characterized in that the median or average value of the first set of color component values is used to determine the second set of color component values for the current video block.
12. Способ согласно какой-либо одной или нескольким из статей 1-11, отличающийся тем, что указанные один или несколько опорных кадров представляют собой предварительно заданные опорные кадры.12. A method according to any one or more of Articles 1 to 11, characterized in that said one or more reference frames are predefined reference frames.
13. Способ согласно статье 12, отличающийся тем, что совокупность предварительно заданных опорных кадров содержит кадр с опорным индексом из списка опорных изображений.13. The method according to Article 12, characterized in that the set of predetermined reference pictures contains a frame with a reference index from the list of reference pictures.
14. Способ согласно статье 13, отличающийся тем, что опорный индекс равен нулю и список опорных изображений является нулевым.14. The method according to Article 13, characterized in that the reference index is zero and the list of reference images is zero.
15. Способ согласно статье 13, отличающийся тем, что опорный индекс и/или список опорных изображений передают в виде сигнализации в представлении в виде потока битов данных, ассоциированном с одним или несколькими объектами из следующего списка: последовательностью, изображением, плиткой, группой, срезом, строкой единиц дерева кодирования или видеоблоком.15. The method according to article 13, characterized in that the reference index and/or the list of reference pictures is signaled in a data bitstream representation associated with one or more objects from the following list: sequence, image, tile, group, slice , a string of coding tree units, or a video block.
16. Способ согласно статье 1, отличающийся тем, что второй набор значений цветовых составляющих для текущего видеоблока определяют на основе математического среднего или взвешенного среднего для первого набора значений цветовых составляющих, входящего в один или несколько опорных кадров.16. The method according to article 1, characterized in that the second set of color component values for the current video block is determined on the basis of a mathematical average or weighted average for the first set of color component values included in one or more reference frames.
17. Способ согласно статье 1, отличающийся тем, что второй набор значений цветовых составляющих для текущего видеоблока получают избирательно на основе первого набора значений цветовых составляющих, входящего в один или несколько опорных кадров, на основе того, кодируют ли текущий видеоблок в режиме двунаправленного прогнозирования. 17. The method according to Clause 1, wherein the second set of color component values for the current video block is obtained selectively based on the first set of color component values included in one or more reference frames, based on whether the current video block is encoded in a bidirectional predictive mode.
18. Способ согласно статье 17, отличающийся тем, что второй набор значений цветовых составляющих для текущего видеоблока индивидуально определяют для каждого направления прогнозирования для первого набора значений цветовых составляющих.18. The method according to article 17, characterized in that the second set of color component values for the current video block is individually determined for each prediction direction for the first set of color component values.
19. Способ согласно статье 1, отличающийся тем, что второй набор значений цветовых составляющих для текущего видеоблока избирательно определяют на основе первого набора значений цветовых составляющих, входящего в один или несколько опорных кадров, в зависимости от того, ассоциирован ли текущий видеоблок с прогнозированием на основе субблоков. 19. The method according to article 1, characterized in that the second set of color component values for the current video block is selectively determined based on the first set of color component values included in one or more reference frames, depending on whether the current video block is associated with prediction based on subblocks.
20. Способ согласно статье 1, отличающийся тем, что прогнозирование на основе субблоков соответствует аффинному прогнозированию или прогнозированию альтернативного временного вектора движения (ATMVP). 20. The method according to Article 1, characterized in that the subblock-based prediction corresponds to affine prediction or alternative time motion vector prediction (ATMVP).
21. Способ согласно какой-либо одной или нескольким из статей 19-20, отличающийся тем, что второй набор значений цветовых составляющих для текущего видеоблока определяют для индивидуальных субблоков.21. The method according to any one or more of articles 19-20, characterized in that the second set of color component values for the current video block is determined for individual subblocks.
22. Способ согласно какой-либо одной или нескольким из статей 19-21, отличающийся тем, что второй набор значений цветовых составляющих для текущего видеоблока определяют для всего текущего видеоблока независимо от прогнозирования на основе субблоков. 22. The method according to any one or more of clauses 19-21, characterized in that the second set of color component values for the current video block is determined for the entire current video block independent of the subblock-based prediction.
23. Способ согласно какой-либо одной или нескольким из статей 19-22, отличающийся тем, что первый набор значений цветовых составляющих, входящий в один или несколько опорных кадров, выбирают на основе, по меньшей мере частично, вектора движения для субблока текущего видеоблока.23. The method according to any one or more of clauses 19-22, characterized in that the first set of color component values included in the one or more reference frames is selected based at least in part on a motion vector for a subblock of the current video block.
24. Способ согласно какой-либо одной или нескольким из статей 1-23, отличающийся тем, что первый набор значений цветовых составляющих, входящий в один или несколько опорных кадров, представляет собой промежуточные значения цветовых составляющих.24. A method according to any one or more of Articles 1-23, characterized in that the first set of color component values included in one or more reference frames represents intermediate color component values.
25. Способ согласно какой-либо одной или нескольким из статей 1-24, отличающийся тем, что указанный этап кодирования видео предшествует другому этапу кодированию видео.25. A method according to any one or more of Articles 1-24, characterized in that said video encoding step precedes another video encoding step.
26. Способ согласно статье 25, отличающийся тем, что первый набор значений цветовых составляющих, входящий в один или несколько опорных кадров, выбирают на основе, по меньшей мере частично, промежуточного вектора движения текущего видеоблока или субблока этого текущего видеоблока, и отличающийся тем, что этот промежуточный вектор движения вычисляют прежде указанного другого этапа кодирования видео.26. The method according to article 25, characterized in that the first set of color component values included in one or more reference frames is selected based at least in part on an intermediate motion vector of the current video block or subblock of that current video block, and characterized in that this intermediate motion vector is calculated before said other video encoding step.
27. Способ согласно какой-либо одной или нескольким из статей 24-26, отличающийся тем, что указанный другой этап кодирования видео содержит или комбинацию следующих этапов: этапа двунаправленного оптического потока (BDOF), этапа уточнения вектора движения на стороне декодирующего устройства (DMVR), этапа уточнения прогнозируемого оптического потока (PROF). 27. The method according to any one or more of Articles 24-26, wherein said other video encoding step comprises or a combination of the following steps: a bidirectional optical flow (BDOF) step, a decoder-side motion vector refinement (DMVR) step ,Predicted Optical Flow (PROF) refinement stage.
28. Способ согласно какой-либо одной или нескольким из статей 1-27, отличающийся тем, что первый набор значений цветовых составляющих, входящий в один или несколько опорных кадров, соответствует MxN значениям цветовых составляющих, ассоциированным с соответствующим блоком яркостной составляющей.28. A method according to any one or more of clauses 1-27, characterized in that the first set of chroma values included in the one or more reference frames corresponds to MxN chroma values associated with the corresponding luminance component block.
29. Способ согласно статье 28, отличающийся тем, что соответствующий блок яркостной составляющей представляет собой расположенный в том же месте блок яркостной составляющей относительно текущего видеоблока. 29. The method according to Article 28, characterized in that the corresponding luminance component block is a luminance component block located at the same location relative to the current video block.
30. Способ согласно статье 29, отличающийся тем, что произведение M на N меньше произведения ширины блока на высоту блока для расположенного в том же месте блока яркостной составляющей относительно текущего видеоблока.30. The method according to Article 29, characterized in that the product of M by N is less than the product of the block width by the block height for the luminance component block located in the same place relative to the current video block.
31. Способ согласно какой-либо одной или нескольким из статей 27-30, отличающийся тем, что первый набор значений цветовых составляющих, входящий в один или несколько опорных кадров, соответствует по меньшей мере части опорных отсчетов, идентифицированных в позициях соседних отсчетов яркостной составляющей расположенного в том же месте блока яркостной составляющей. 31. A method according to any one or more of Articles 27-30, characterized in that the first set of color component values included in one or more reference frames corresponds to at least a portion of the reference samples identified in the positions of adjacent luminance component samples of the located in the same place of the luminance component block.
32. Способ согласно какой-либо одной или нескольким из статей 1-31, отличающийся тем, что первый набор значений цветовых составляющих субдискретизируют прежде использования в линейной модели этапа кодирования видео.32. A method according to any one or more of clauses 1-31, characterized in that the first set of color component values is downsampled before being used in the linear model of the video encoding step.
33. Способ согласно статье 1, отличающийся тем, что второй набор значений цветовых составляющих текущего видеоблока выбирают, на основе, по меньшей мере частично, одной или нескольких составляющих следующей информации относительно текущего видеоблока: параметра квантования, режима кодирования или порядкового номера картинки (picture order count (POC)).33. The method of Clause 1, wherein the second set of color component values of the current video block is selected based at least in part on one or more of the following information regarding the current video block: a quantization parameter, an encoding mode, or a picture order count (POC)).
34. Способ согласно статье 31, отличающийся тем, что позиции соседних отсчетов яркостной составляющей, являются такими, что верхний левый отсчет расположенного в том же месте блока яркостной составляющей оказывается покрытым.34. The method according to Article 31, characterized in that the positions of adjacent luminance component samples are such that the upper left sample of a luminance component block located at the same location is covered.
35. Способ согласно статье 28, отличающийся тем, что первый набор значений цветовых составляющих, входящий в один или несколько опорных кадров, соответствует по меньшей мере части опорных отсчетов, идентифицированных в позициях вне соответствующего блока яркостной составляющей. 35. The method according to article 28, characterized in that the first set of color component values included in one or more reference frames corresponds to at least a portion of the reference samples identified at positions outside the corresponding luma component block.
36. Способ согласно статье 28, отличающийся тем, что второй набор значений цветовых составляющих для текущего видеоблока избирательно получают из первого набора значений цветовых составляющих, входящего в один или несколько опорных кадров, на основе доступности соседних отсчетов соответствующего блока яркостной составляющей.36. The method according to clause 28, characterized in that the second set of chroma values for the current video block is selectively obtained from the first set of chroma values included in one or more reference frames based on the availability of adjacent samples of the corresponding luminance component block.
37. Способ согласно статье 28, отличающийся тем, что доступность соседних отсчетов соответствующего блока яркостной составляющей основана на одном или нескольких из следующих факторов: использовании режима кодирования текущего видеоблока, использовании режима кодирования соседних отсчетов соответствующего блока яркостной составляющей, использовании типа фильтра, ассоциированного с соседними отсчетами соответствующего блока яркостной составляющей, или положении соседних отсчетов соответствующего блока яркостной составляющей относительно текущих видеоблоков или их субблоков.37. The method according to article 28, characterized in that the availability of neighboring samples of the corresponding luminance component block is based on one or more of the following factors: the use of the coding mode of the current video block, the use of the coding mode of neighboring samples of the corresponding luminance component block, the use of a filter type associated with the neighboring samples of the corresponding block of the luminance component, or the position of adjacent samples of the corresponding block of the luminance component relative to the current video blocks or their subblocks.
38. Способ согласно статье 28, дополнительно содержащий:38. The method according to Article 28, additionally containing:
в ответ на недостаток доступности соседних отсчетов из соответствующего блока яркостной составляющей, подстановку, замещение или заполнение недоступных отсчетов другими отсчетами.in response to the lack of availability of neighboring samples from the corresponding block of the luminance component, substitution, replacement or filling of the unavailable samples with other samples.
39. Способ согласно статье 28, дополнительно содержащий:39. The method according to Article 28, additionally containing:
применение сглаживающего фильтра к отсчетам, соседним с соответствующим блоком яркостной составляющей.applying a smoothing filter to samples adjacent to the corresponding block of the brightness component.
40. Способ обработки видео, содержащий:40. A method of video processing, containing:
осуществление преобразования между текущим видеоблоком и представлением текущего видеоблока в виде потока битов данных, где, в процессе преобразования, второй набор значений цветовых составляющих текущего видеоблока получают из первого набора значений цветовых составляющих, входящего в один или несколько опорных кадров, где первый набор значений цветовых составляющих может быть использован в линейной модели этапа кодирования видео; иperforming a conversion between the current video block and a data bitstream representation of the current video block, where, in the conversion process, a second set of color component values of the current video block is obtained from a first set of color component values included in one or more reference frames, wherein the first set of color component values can be used in a linear model of the video encoding stage; And
в ответ на определение, что первый набор значений цветовых составляющих, входящий в один или несколько опорных кадров, представляет собой расположенный в том же месте блок яркостной составляющей относительно текущего видеоблока, избирательно активизируют или отменяют активизацию определения второго набора значений цветовых составляющих для текущего видеоблока на основе одного или нескольких условий, ассоциированных с расположенным в том же месте блоком яркостной составляющей относительно текущего видеоблока.in response to determining that a first set of chroma values included in one or more reference frames is a colocated luminance component block relative to the current video block, determining a second set of chroma values for the current video block is selectively activated or deactivated based on one or more conditions associated with a colocated luminance component block relative to the current video block.
41. Способ согласно статье 40, отличающийся тем, что совокупность указанных одного или нескольких условий, ассоциированных с расположенным в том же месте блоком яркостной составляющей относительно текущего видеоблока, содержит: размер единиц разбиения расположенного в том же месте блока яркостной составляющей, достижение числом единиц кодирования расположенного в том же месте блока яркостной составляющей порогового числа, достижение верхним левым отсчетом яркостной составляющей расположенного в том же месте блока яркостной составляющей порогового размера, глубину дерева разбиения расположенного в том же месте блока яркостной составляющей, или соответствующий блок яркостной составляющей покрывает верхний левый отсчет яркостной составляющей расположенного в том же месте блока яркостной составляющей, и дополнительно находится в пределах ограничительной рамки предварительно заданного размера.41. The method according to Article 40, characterized in that the set of said one or more conditions associated with a luminance component block located at the same location relative to the current video block contains: the size of the partition units of the luminance component block located at the same location, reaching the number of coding units the luminance component block located at the same location reaches the threshold number, the upper left luminance component sample of the luminance component block located at the same location reaches the threshold size, the depth of the partition tree of the luminance component block located at the same location, or the corresponding luminance component block covers the upper left luminance component block component of a luminance component block located at the same location, and is further within a bounding box of a predetermined size.
42. Способ согласно статье 40, отличающийся тем, что в представление в виде потока битов данных включена информация, обозначающая активизацию или отмену активизации указанного определения второго набора.42. The method according to article 40, characterized in that information indicating activation or deactivation of said second set definition is included in the data bit stream representation.
43. Способ согласно статье 28, отличающийся тем, что доступность соседних отсчетов соответствующего блока яркостной составляющей ассоциирована с проверкой этих соседних отсчетов в соответствии с предварительно заданным порядком.43. The method according to article 28, characterized in that the availability of neighboring samples of the corresponding block of the luminance component is associated with checking these neighboring samples in accordance with a predetermined order.
44. Способ согласно какой-либо одной или нескольким из статей 1-43, отличающийся тем, что второй набор значений цветовых составляющих для текущего видеоблока сохраняют для использования в соединении с одним или несколькими другими видеоблоками.44. A method according to any one or more of clauses 1-43, characterized in that a second set of color component values for the current video block is stored for use in conjunction with one or more other video blocks.
45. Способ согласно какой-либо одной или нескольким из статей 1-44, отличающийся тем, что указанная линейная модель соответствует кросс-компонентной линейной модели (CCLM) и указанный этап кодирования видео соответствует режиму отображения яркостной составляющей с масштабированием цветностной составляющей (LMCS).45. A method according to any one or more of clauses 1 to 44, wherein said linear model corresponds to a cross-component linear model (CCLM) and said video encoding step corresponds to a luma chrominance scaling (LMCS) display mode.
46. Способ согласно какой-либо одной или нескольким из статей 1-45, отличающийся тем, что текущий видеоблок является блоком, кодируемым в режиме межкадрового прогнозирования, в режиме двунаправленного прогнозирования или в режиме внутрикадрового прогнозирования с копированием блоков (IBC).46. A method according to any one or more of Clauses 1 to 45, wherein the current video block is a block encoded in an inter-prediction mode, a bidirectional mode, or an intra-block copy (IBC) mode.
47. Способ согласно какой-либо одной или нескольким из статей 1-46, отличающийся тем, что первый набор значений цветовых составляющих соответствует значениям отсчетов яркостной составляющей, и второй набор значений цветовых составляющих соответствует коэффициентам масштабирования для цветностной составляющей.47. A method according to any one or more of clauses 1-46, characterized in that the first set of color component values correspond to luminance component sample values, and the second set of color component values correspond to scaling factors for the chroma component.
48. Устройство в видео системе, содержащее процессор и энергонезависимое запоминающее устройство с записанными в нем командами, при выполнении которых процессором этот процессор осуществляет способ согласно какой-либо одной из статей 1 – 47.48. A device in a video system containing a processor and a non-volatile storage device with commands recorded in it, when executed by the processor, this processor implements the method in accordance with any one of Articles 1 to 47.
49. Компьютерный программный продукт, сохраняемый на читаемых компьютером энергонезависимых носителях информации, это компьютерный программный продукт содержит программный код для осуществления способа согласно какой-либо одной из статей 1 – 47.49. A computer program product stored on computer-readable non-volatile storage media, this computer program product contains program code for implementing a method in accordance with any one of Articles 1 – 47.
На Фиг. 12 представлена блок-схема, показывающая пример системы 1200 обработки видео, в которой могут быть реализованы разнообразные описываемые здесь способы. Разнообразные варианты реализации могут содержать некоторые или все компоненты системы 1200. Система 1200 может содержать вход 1202 для приема видео контента. Этот видео контент может быть принят в исходном или несжатом формате, например, в виде 8 или 10-битовых значений многокомпонентных пикселей, либо может быть в сжатом или в кодированном формате. Этот вход 1202 может представлять собой сетевой интерфейс, интерфейс шины периферийных устройств или интерфейс запоминающих устройств. К примерам сетевых интерфейсов относятся проводные интерфейсы шин, такие Этернет, пассивная оптическая сеть (passive optical network (PON)) и т.п., и беспроводные интерфейсы, такие как Wi-Fi или сотовые интерфейсы. In FIG. 12 is a block diagram showing an example of a video processing system 1200 in which the various methods described herein may be implemented. Various implementations may include some or all of the components of the system 1200. The system 1200 may include an input 1202 for receiving video content. This video content may be received in a native or uncompressed format, such as 8 or 10-bit multi-pixel pixel values, or may be in a compressed or encoded format. This input 1202 may be a network interface, a peripheral bus interface, or a storage device interface. Examples of network interfaces include wired bus interfaces such as Ethernet, passive optical network (PON), etc., and wireless interfaces such as Wi-Fi or cellular interfaces.
Система 1200 может содержать кодирующий компонент 1204, способный реализовать различные способы кодирования, описываемые в настоящем документе. Кодирующий компонент 1204 может уменьшить среднюю скорость передачи битов данных видео от входа 1202 к выходу кодирующего компонента 1204 для получения кодированного представления видео. Поэтому, эти способы кодирования иногда называют способами сжатия видео или транскодирования видео. Выходные данные кодирующего компонента 1204 могут быть либо сохранены, либо переданы через присоединенные средства связи, представленные здесь компонентом 1206. Сохраняемое или передаваемое (или кодированное) представление видео в виде потока битов данных, принимаемое на вход 1202, может быть использовано компонентом 1208 для генерации значений пикселей или представляемого на дисплее видео, передаваемого интерфейсу 1210 дисплея. Процедура генерации просматриваемого пользователем видео из его представления в виде потока битов данных иногда называется декомпрессией (расширением) видео. Кроме того, хотя некоторые операции обработки видео называются операциями или инструментами «кодирования», следует понимать, что инструменты или операции кодирования используются в кодирующих устройствах и соответствующие инструменты или операции декодирования, которые обращают результаты кодирования, будут осуществляться декодирующим устройством. System 1200 may include an encoding component 1204 capable of implementing various encoding techniques described herein. The encoding component 1204 may reduce the average bit rate of video data from the input 1202 to the output of the encoding component 1204 to obtain an encoded representation of the video. Therefore, these encoding methods are sometimes called video compression methods or video transcoding methods. The output of encoding component 1204 may be either stored or transmitted via attached communications media, represented here by component 1206. The stored or transmitted (or encoded) representation of the video as a stream of data bits received as input 1202 may be used by component 1208 to generate values pixels or display video transmitted to display interface 1210. The procedure of generating user-viewable video from its representation as a stream of data bits is sometimes called video decompression (expansion). In addition, although some video processing operations are referred to as "encoding" operations or tools, it should be understood that the encoding tools or operations are used in the encoding devices and the corresponding decoding tools or operations that reverse the encoding results will be performed by the decoding device.
Примеры интерфейса шины периферийных устройств или интерфейса дисплея могут представлять собой универсальную последовательную шину (universal serial bus (USB)) или мультимедийный интерфейс высокой четкости (high definition multimedia interface (HDMI)) или Displayport, и т.д. К примерам интерфейса запоминающих устройств относятся интерфейс усовершенствованного последовательного соединения (SATA (serial advanced technology attachment)), интерфейс периферийных устройств (PCI), интерфейс IDE и другие подобные интерфейсы. Способы, описываемые в настоящем документе, могут быть реализованы в разнообразных электронных устройствах, таких как мобильные телефоны, портативные компьютеры, смартфоны или другие устройства, способные осуществлять цифровую обработку данных и/или представлять видео на дисплее. Examples of a peripheral bus interface or display interface may be a universal serial bus (USB) or a high definition multimedia interface (HDMI) or Displayport, etc. Examples of storage interfaces include the serial advanced technology attachment (SATA) interface, the peripheral device interface (PCI), the IDE interface, and other similar interfaces. The methods described herein may be implemented in a variety of electronic devices, such as mobile phones, laptop computers, smartphones, or other devices capable of digital processing and/or displaying video.
На Фиг. 13 показана логическая схема примера способа обработки сигналов визуальных медиа. Этапы этой логической схемы обсуждаются в соединении с примерами вариантов 7d и 7e8 в Разделе 4 этого документа. На этапе 1302, процедура осуществляет преобразование между текущим видеоблоком цветностной составляющей визуальных медиаданных и представлением этого текущего видеоблока цветностной составляющей в виде потока битов данных, где, в процессе преобразования, остаток цветностной составляющей для текущего видеоблока цветностной составляющей масштабируют на основе некоторого коэффициента масштабирования, где этот коэффициент масштабирования определяют по меньшей мере на основе отсчетов яркостной составляющей, расположенных в предварительно заданных позициях.In FIG. 13 is a logic diagram of an example of a method for processing visual media signals. The steps of this logic circuit are discussed in conjunction with example options 7d and 7e8 in Section 4 of this document. At step 1302, the procedure performs a conversion between the current chroma video block of the visual media and a representation of that current chroma video block as a stream of data bits, where, during the conversion process, the remaining chrominance for the current chroma video block is scaled based on some scaling factor, where this the scaling factor is determined at least based on the luminance component samples located at predetermined positions.
На Фиг. 14 показана логическая схема примера способа обработки сигналов визуальных медиа. Этапы этой логической схемы обсуждаются в соединении с примером варианта 1 в Разделе 4 этого документа. На этапе 1402, процедура осуществляет преобразование между текущим видеоблоком визуальных медиаданных и представлением этого текущего видеоблока в виде потока битов данных, где, в процессе преобразования, определяют второй набор значений цветовых составляющих для текущего видеоблока, с использованием кросс-компонентной линейной модели (CCLM) и/или в режиме отображения яркостной составляющей с масштабированием цветностной составляющей (LMCS), из первого набора значений цветовых составляющих для визуальных медиаданных.In FIG. 14 is a logic diagram of an example of a method for processing visual media signals. The steps of this logic diagram are discussed in conjunction with the Case 1 example in Section 4 of this document. At step 1402, the routine converts between the current video block of visual media and a data bitstream representation of that current video block, where, in the conversion process, a second set of color component values for the current video block is determined using a cross-component linear model (CCLM) and /or in luma display mode with chrominance scaling (LMCS), from the first set of chroma values for the visual media.
На Фиг. 15 показана логическая схема примера способа обработки сигналов визуальных медиа. Этапы этой логической схемы обсуждаются в соединении с примером варианта 7 в Разделе 4 этого документа. На этапе 1502, процедура осуществляет преобразование между текущим видеоблоком визуальных медиаданных и представлением этого текущего видеоблока в виде потока битов данных, где, в процессе преобразования, один или несколько реконструированных отсчетов, ассоциированных с текущим кадром визуальных медиаданных, используют для определения коэффициента масштабирования остатка цветностной составляющей на этапе обработки в режиме отображения яркостной составляющей с масштабированием цветностной составляющей (LMCS).In FIG. 15 is a logic diagram of an example of a method for processing visual media signals. The steps of this logic diagram are discussed in conjunction with the example of option 7 in Section 4 of this document. At step 1502, the routine converts between the current visual media video block and a data bitstream representation of that current video block, where, during the conversion process, one or more reconstructed samples associated with the current visual media frame are used to determine the scaling factor of the remaining chrominance component. at the processing stage in the luminance component display mode with chrominance component scaling (LMCS).
На Фиг. 16 показана логическая схема примера способа обработки сигналов визуальных медиа. Этапы этой логической схемы обсуждаются в соединении с примером варианта 8 в Разделе 4 этого документа. На этапе 1602, процедура осуществляет преобразование между текущим видеоблоком визуальных медиаданных и представлением этого текущего видеоблока в виде потока битов данных, где, в процессе преобразования, один или несколько прогнозируемых отсчетов яркостной составляющей или реконструированных отсчетов яркостной составляющей располагаются в текущем кадре, отличном от опорного кадра, и используются для определения коэффициента масштабирования остатка цветностной составляющей на этапе обработки в режиме отображения яркостной составляющей с масштабированием цветностной составляющей (LMCS).In FIG. 16 is a logic diagram of an example of a method for processing visual media signals. The steps of this logic circuit are discussed in conjunction with the example of option 8 in Section 4 of this document. At step 1602, the routine converts between the current video block of visual media and a representation of that current video block as a stream of data bits where, during the conversion process, one or more predicted luminance samples or reconstructed luminance samples are located in a current frame other than the reference frame. , and are used to determine the scaling factor of the remaining chrominance component at the processing stage in the luma display mode with chroma component scaling (LMCS).
На Фиг. 17 показана логическая схема примера способа обработки сигналов визуальных медиа. Этапы этой логической схемы обсуждаются в соединении с примерами вариантов 11a, 11b, 11c и 11d в Разделе 4 этого документа. На этапе 1702, процедура проверяет, в процессе преобразования между текущим видеоблоком цветностной составляющей и представлением этого текущего видеоблока цветностной составляющей в виде потока битов данных, доступность одного или нескольких соседних блоков яркостной составляющей из соответствующего блока яркостной составляющей, который покрывает верхний левый отсчет расположенного в том же месте блока яркостной составляющей. На этапе 1704, процедура определяет, на основе доступности одного или нескольких соседних блоков яркостной составляющей, следует ли извлечь соседние отсчеты яркостной составляющей из соответствующего блока яркостной составляющей. На этапе 1706, процедура получает, на основе указанного определения, коэффициент масштабирования. На этапе 1708, процедура масштабирует, на основе найденного коэффициента масштабирования, остаток цветностной составляющей для текущего видеоблока цветностной составляющей для генерации масштабированного остатка цветностной составляющей. На этапе 1710, процедура осуществляет преобразование на основе масштабированного остатка цветностной составляющей.In FIG. 17 is a logic diagram of an example of a method for processing visual media signals. The steps of this logic circuit are discussed in conjunction with example options 11a, 11b, 11c and 11d in Section 4 of this document. At step 1702, the procedure checks, in the process of converting between the current chrominance video block and the data bit stream representation of that current chroma video block, the availability of one or more adjacent luminance blocks from the corresponding luminance block that covers the upper left sample located therein. the same location of the brightness component block. At step 1704, the routine determines, based on the availability of one or more adjacent luminance blocks, whether adjacent luminance samples should be extracted from the corresponding luminance block. At step 1706, the procedure obtains, based on the specified determination, a scaling factor. At step 1708, the procedure scales, based on the found scaling factor, the chrominance residual for the current chrominance video block to generate a scaled chrominance residual. At step 1710, the procedure performs a conversion based on the scaled chrominance component residual.
На Фиг. 18 показана логическая схема примера способа обработки сигналов визуальных медиа. Этапы этой логической схемы обсуждаются в соединении с примером варианта 11 в Разделе 4 этого документа. На этапе 1802, процедура определяет, в процессе преобразования между текущим видеоблоком визуальных медиаданных и представлением этого текущего видеоблока в виде потока битов данных, второй набор значений цветовых составляющих для текущего видеоблока из первого набора значений цветовых составляющих для визуальных медиаданных с использованием модели, ассоциированной с этапом процедуры, где первый набор значений цветовых составляющих представляет собой соседние отсчеты из соответствующего блока яркостной составляющей, покрывающего верхний левый отсчет расположенного в том же месте блока яркостной составляющей.In FIG. 18 is a logic diagram of an example of a method for processing visual media signals. The steps of this logic circuit are discussed in conjunction with the example of option 11 in Section 4 of this document. At step 1802, the procedure determines, in the process of converting between the current video block of visual media data and the data bitstream representation of that current video block, a second set of color component values for the current video block from the first set of color component values for the visual media data using a model associated with the step procedures wherein the first set of chroma values are adjacent samples from a corresponding luminance block covering the top left sample of a co-located luminance block.
На Фиг. 19 показана логическая схема примера способа обработки сигналов визуальных медиа. Этапы этой логической схемы обсуждаются в соединении с примером варианта 12 в Разделе 4 этого документа. На этапе 1902, процедура, в процессе преобразования между текущим видеоблоком цветностной составляющей визуальных медиаданных и представлением этого текущего видеоблока цветностной составляющей в виде потока битов данных, выполняет определение избирательной активизацию или отмены активизации применения кросс-компонентной линейной модели (CCLM) и/или масштабирования остатка цветностной составляющей (CRS) для текущего видеоблока цветностной составляющей, на основе по меньшей мере частично одного или нескольких условий, ассоциированных с расположенным в том же месте блоком яркостной составляющей относительно текущего видеоблока цветностной составляющей.In FIG. 19 is a logic diagram of an example of a method for processing visual media signals. The steps of this logic circuit are discussed in conjunction with the example of option 12 in Section 4 of this document. At step 1902, the procedure, in the process of converting between the current chrominance video block of the visual media and the data bitstream representation of that current chrominance video block, determines whether to selectively activate or deactivate the application of a cross-component linear model (CCLM) and/or residual scaling. chrominance component (CRS) for the current chrominance component video block, based at least in part on one or more conditions associated with a colocated luminance component block relative to the current chrominance component video block.
На Фиг. 20 показана логическая схема примера способа кодирования сигналов визуальных медиа. Этапы этой логической схемы обсуждаются в соединении с примером варианта 14 в Разделе 4 этого документа. На этапе 2002, процедура избирательно активизирует или отменяет активизацию применения зависимого от яркостной составляющей масштабирования остатка цветностной составляющей (CRS) к цветностной составляющей текущего видеоблока визуальных медиаданных для кодирования текущего видеоблока в видеообласти визуальных медиаданных и превращения в представление визуальных медиаданных в виде потока битов данных. На этапе 2004, процедура осуществляет определение включения или исключения некоторого поля из представления визуальных медиаданных в виде потока битов данных, где это поле обозначает избирательную активизацию или отмену активизации и, если оно включено, его передают в виде сигнализации на уровне, отличном от первого синтаксического уровня, ассоциированного с текущим видеоблоком.In FIG. 20 is a logic diagram of an example method for encoding visual media signals. The steps of this logic circuit are discussed in conjunction with the example of option 14 in Section 4 of this document. At step 2002, the procedure selectively enables or disables the application of luminance-dependent scaling of a chrominance residual (CRS) to the chrominance component of the current video block of visual media to encode the current video block into the video domain of the visual media and turn into a representation of the visual media as a stream of data bits. At step 2004, the procedure determines the inclusion or exclusion of a certain field from the representation of the visual media data in the form of a stream of data bits, where this field indicates selective activation or deactivation and, if included, it is signaled at a level other than the first syntax level. associated with the current video block.
На Фиг. 21 показана логическая схема примера способа декодирования сигналов визуальных медиа. Этапы этой логической схемы обсуждаются в соединении с примером варианта 14 в Разделе 4 этого документа. На этапе 2102, процедура выполняет синтаксический анализ для выделения некого поля из представления визуальных медиаданных в виде потока битов данных, где это поле включено на уровне, отличном от первого синтаксического уровня, ассоциированного с текущего видеоблока. На этапе 2104, процедура избирательно активизирует или отменяет активизацию, на основе этого поля, применения зависимого от яркостной составляющей масштабирования остатка цветностной составляющей (CRS) к цветностной составляющей текущего видеоблока визуальных медиаданных для генерации декодированной видеообласти на основе представления в виде потока битов данных.In FIG. 21 is a logic diagram of an example method for decoding visual media signals. The steps of this logic circuit are discussed in conjunction with the example of option 14 in Section 4 of this document. At step 2102, the routine parses to extract a field from the data bitstream representation of the visual media where the field is included at a level other than the first syntax level associated with the current video block. At step 2104, the routine selectively enables or disables, based on this field, the application of luminance-dependent scaling of a chrominance residual (CRS) to the chrominance component of the current video block of visual media to generate a decoded video region based on the data bitstream representation.
На Фиг. 22 показана логическая схема примера способа кодирования сигналов визуальных медиа. Этапы этой логической схемы обсуждаются в соединении с примером варианта 15 в Разделе 4 этого документа. На этапе 2202, процедура избирательно активизирует или отменяет активизацию применения кросс-компонентной линейной модели (CCLM) к текущему видеоблоку визуальных медиаданных для кодирования текущего видеоблока для превращения его в представление визуальных медиаданных в виде потока битов данных. На этапе 2204, процедура выполняет определение включения или исключения некого поля из представления визуальных медиаданных в виде потока битов данных, где это поле обозначает избирательную активизацию или отмену активизации и, если оно включено, его передают в виде сигнализации на уровне, отличном от первого синтаксического уровня, ассоциированного с текущим видеоблоком.In FIG. 22 is a logic diagram of an example method for encoding visual media signals. The steps of this logic diagram are discussed in conjunction with the example of option 15 in Section 4 of this document. At step 2202, the procedure selectively enables or disables the application of a cross-component linear model (CCLM) to the current visual media video block to encode the current video block into a representation of the visual media data as a stream of data bits. At step 2204, the procedure determines the inclusion or exclusion of a certain field from the representation of the visual media data in the form of a stream of data bits, where the field indicates selective activation or deactivation and, if included, it is signaled at a level other than the first syntax level. associated with the current video block.
На Фиг. 23 показана логическая схема примера способа декодирования сигналов визуальных медиа. Этапы этой логической схемы обсуждаются в соединении с примером варианта 15 в Разделе 4 этого документа. На этапе 2302, процедура выполняет синтаксический анализ для выделения некого поля из представления визуальных медиаданных в виде потока битов данных, где это поле включено на уровне, отличном от первого синтаксического уровня, ассоциированного с текущим видеоблоком. На этапе 2304, процедура избирательно активизирует или отменяет активизацию, на основе этого поля, применения кросс-компонентной линейной модели (CCLM) к текущему видеоблоку визуальных медиаданных для генерации декодированной видеообласти на основе представления в виде потока битов данных.In FIG. 23 is a logic diagram of an example method for decoding visual media signals. The steps of this logic diagram are discussed in conjunction with the example of option 15 in Section 4 of this document. At step 2302, the routine parses to extract a field from the data bitstream representation of the visual media where the field is included at a level other than the first syntax level associated with the current video block. At step 2304, the routine selectively enables or disables, based on this field, applying a cross-component linear model (CCLM) to the current video block of visual media to generate a decoded video region based on the data bitstream representation.
Некоторые варианты, обсуждаемые в настоящем документе, теперь представлены в постатейном формате.Some of the options discussed in this document are now presented in clause-by-clause format.
X1. Способ обработки визуальных медиаданных, содержащий: X1. A method for processing visual media data, comprising:
осуществление преобразования между текущим видеоблоком цветностной составляющей визуальных медиаданных и представлением этого текущего видеоблока цветностной составляющей в виде потока битов данных, где, в процессе преобразования, остаток цветностной составляющей текущего видеоблока цветностной составляющей масштабируют на основе некого коэффициента масштабирования, где этот коэффициент масштабирования определяют по меньшей мере на основе отсчетов яркостной составляющей, расположенных в заданных позициях.performing a conversion between a current chrominance video block of the visual media and a representation of that current chrominance video block as a stream of data bits, where, during the conversion process, the remainder of the chrominance component of the current chrominance video block is scaled based on a certain scaling factor, where this scaling factor is determined by at least based on samples of the brightness component located at specified positions.
X2. Способ согласно статье X1, отличающийся тем, что указанный коэффициент масштабирования вычисляют с использованием функции, применяемой к отсчетам яркостной составляющей, находящимся в заданных позициях.X2. The method according to Article X1, characterized in that the specified scaling factor is calculated using a function applied to the luminance component samples located at specified positions.
X3. Способ согласно статье X1, отличающийся тем, что эта функция представляет собой функцию медианного значения или функцию среднего значения на основе округления.X3. The method according to Article X1, characterized in that the function is a median value function or a rounding-based average value function.
X4. Способ согласно статье X1, отличающийся тем, что указанные заданные позиции определяют на основе расположенного в том же месте блока яркостной составляющей, соответствующего текущему видеоблоку цветностной составляющей.X4. The method according to Article X1, characterized in that said predetermined positions are determined based on a luminance component block located at the same location corresponding to the current chrominance component video block.
A1. Способ обработки визуальных медиаданных, содержащий: A1. A method for processing visual media data, comprising:
осуществление преобразования между текущим видеоблоком визуальных медиаданных и представлением этого текущего видеоблока в виде потока битов данных, где, в процессе преобразования, определяют второй набор значений цветовых составляющих для текущего видеоблока с использованием кросс-компонентной линейной модели (CCLM) и/или на этапе процедуры в режиме отображения яркостной составляющей с масштабированием цветностной составляющей (LMCS), из первого набора значений цветовых составляющих для визуальных медиаданных.performing a transformation between a current video block of visual media and a representation of that current video block as a stream of data bits, where, during the transformation process, a second set of color component values for the current video block is determined using a cross-component linear model (CCLM) and/or a procedure step in luma chroma scaling (LMCS) display mode, from the first set of chroma values for the visual media.
A2. Способ согласно статье A1, отличающийся тем, что указанный первый набор значений цветовых составляющих представляет собой опорные отсчеты текущего видеоблока, и указанный второй набор значений цветовых составляющих содержит коэффициент масштабирования остатка цветностной составляющей в режиме LMCS.A2. The method according to Article A1, wherein said first set of chroma values represents reference samples of the current video block, and said second set of chroma values contains a scaling factor for the remainder of the chroma in LMCS mode.
A3. Способ согласно статье A2, отличающийся тем, что указанные опорные отсчеты представляют собой опорные отсчеты яркостной составляющей, подвергаемые интерполяции для определения коэффициента масштабирования остатка цветностной составляющей.A3. The method according to Article A2, characterized in that said reference samples are reference samples of the luminance component, subject to interpolation to determine the scaling factor of the remainder of the chrominance component.
A4. Способ согласно статье A1, отличающийся тем, что первый набор значений цветовых составляющих представляет собой опорные отсчеты, входящие в разные опорные кадры.A4. The method according to Article A1, characterized in that the first set of color component values are reference samples included in different reference frames.
A5. Способ согласно какой-либо одной или нескольким из статей A1-A4, отличающийся тем, что позицию опорного отсчета вычисляют на основе позиции соответствующего значения яркостной составляющей в текущем видеоблоке и информации о движении этого текущего видеоблока.A5. The method according to any one or more of articles A1 to A4, characterized in that the position of the reference sample is calculated based on the position of the corresponding luminance component value in the current video block and motion information of this current video block.
A6. Способ согласно статье A5, отличающийся тем, что указанная позиция соответствующего значения яркостной составляющей представляет собой позицию верхнего левого отсчета, центрального отсчета или нижнего правого отсчета в текущем видеоблоке.A6. The method according to Article A5, characterized in that the specified position of the corresponding luminance component value is the position of the upper left sample, the central sample or the lower right sample in the current video block.
A7. Способ согласно статье A6, отличающийся тем, что информация о движении текущего видеоблока соответствует целочисленному вектору движения или дробному вектору движения.A7. The method according to Article A6, characterized in that the motion information of the current video block corresponds to an integer motion vector or a fractional motion vector.
A8. Способ согласно статье A7, отличающийся тем, что дробный вектор движения получают с использованием дробного значения яркостной составляющей в опорном кадре.A8. The method according to Article A7, characterized in that the fractional motion vector is obtained using the fractional value of the luminance component in the reference frame.
A9. Способ согласно статье A7, отличающийся тем, что целочисленный вектор движения определяют путем округления в направлении нуля или в направлении прочь от нуля. A9. The method according to Article A7, characterized in that the integer motion vector is determined by rounding towards zero or away from zero.
A10. Способ согласно какой-либо одной или нескольким из статей A1-A2, отличающийся тем, что первый набор значений цветовых составляющих входит в предварительно заданные опорные кадры визуальных медиаданных.A10. The method according to any one or more of articles A1-A2, characterized in that the first set of color component values are included in predefined reference frames of the visual media data.
A11. Способ согласно какой-либо одной или нескольким из статей A1-A10, отличающийся тем, что медианное или среднее значение первого набора значений цветовых составляющих используют для определения второго набора значений цветовых составляющих для текущего видеоблока.A11. A method according to any one or more of articles A1-A10, characterized in that the median or average value of the first set of color component values is used to determine the second set of color component values for the current video block.
A12. Способ согласно статье A10, отличающийся тем, что совокупность предварительно заданных опорных кадров содержит кадр с опорным индексом списка опорных изображений.A12. The method according to article A10, characterized in that the plurality of predefined reference frames contains a frame with a reference index of the reference picture list.
A13. Способ согласно статье A12, отличающийся тем, что опорный индекс равен нулю и список опорных изображений является нулевым.A13. The method according to Article A12, characterized in that the reference index is zero and the list of reference images is zero.
A14. Способ согласно какой-либо одной или нескольким из статей A1-A2, отличающийся тем, что первый набор значений цветовых составляющих входит в несколько опорных кадров визуальных медиаданных и взвешенную комбинацию первого набора значений цветовых составляющих используют для определения второго набора значений цветовых составляющих.A14. A method according to any one or more of Clauses A1 to A2, wherein a first set of color component values is included in multiple reference frames of the visual media and a weighted combination of the first set of color component values is used to determine a second set of color component values.
A15. Способ согласно статье A13, отличающийся тем, что опорный индекс и/или список опорных изображений передают в виде сигнализацию в качестве полей в представлении в виде потока битов данных, ассоциированных с одним или несколькими из следующих объектов: последовательностью, группой изображений, изображением, плиткой, группой плиток, срезом, субизображением, строкой единиц дерева кодирования, единицей дерева кодирования, единицей данных виртуального конвейера (virtual pipeline data unit (VPDU)) или видеоблоком.A15. A method according to Article A13, characterized in that the reference index and/or the list of reference pictures are signaled as fields in a data bit stream representation associated with one or more of the following objects: a sequence, a group of pictures, an image, a tile, a group of tiles, a slice, a sub-image, a string of coding tree units, a coding tree unit, a virtual pipeline data unit (VPDU), or a video block.
A16. Способ согласно статье A1, отличающийся тем, что второй набор значений цветовых составляющих для текущего видеоблока избирательно определяют из первого набора значений цветовых составляющих, на основе того, кодируют ли текущий видеоблок в режиме двунаправленного прогнозирования. A16. The method of Clause A1, wherein a second set of color component values for the current video block is selectively determined from the first set of color component values based on whether the current video block is bidirectionally predicted.
A17. Способ согласно статье A16, отличающийся тем, что второй набор значений цветовых составляющих для текущего видеоблока индивидуально определяют для каждого направления прогнозирования, ассоциированного с первым набором значений цветовых составляющих.A17. The method according to clause A16, characterized in that the second set of color component values for the current video block is individually determined for each prediction direction associated with the first set of color component values.
A18. Способ согласно статье A1, отличающийся тем, что второй набор значений цветовых составляющих для текущего видеоблока избирательно определяют из первого набора значений цветовых составляющих, на основе того, ассоциирован ли текущий видеоблок с прогнозированием на основе субблоков. A18. The method of Clause A1, wherein a second set of color component values for the current video block is selectively determined from the first set of color component values based on whether the current video block is associated with subblock-based prediction.
A19. Способ согласно статье A18, отличающийся тем, что указанное прогнозирование на основе субблоков соответствует аффинному прогнозированию или прогнозированию альтернативного временного вектора движения (ATMVP). A19. The method according to Article A18, characterized in that said sub-block-based prediction corresponds to affine prediction or alternative time motion vector prediction (ATMVP).
A20. Способ согласно какой-либо одной или нескольким из статей A18-A19, отличающийся тем, что второй набор значений цветовых составляющих для текущего видеоблока определяют для индивидуальных субблоков.A20. A method according to any one or more of clauses A18-A19, characterized in that a second set of color component values for the current video block is determined for individual subblocks.
A21. Способ согласно какой-либо одной или нескольким из статей A18-A19, отличающийся тем, что второй набор значений цветовых составляющих для текущего видеоблока определяют на основе всей полноты текущего видеоблока независимо от прогнозирования на основе субблоков. A21. The method according to any one or more of articles A18-A19, characterized in that the second set of color component values for the current video block is determined based on the entirety of the current video block, regardless of the subblock-based prediction.
A22. Способ согласно какой-либо одной или нескольким из статей A18-A21, отличающийся тем, что первый набор значений цветовых составляющих выбирают на основе, по меньшей мере частично, вектора движения субблока из текущего видеоблока.A22. The method according to any one or more of articles A18-A21, characterized in that the first set of color component values is selected based at least in part on a motion vector of a subblock from the current video block.
A23. Способ согласно какой-либо одной или нескольким из статей A18-A21, отличающийся тем, что вектор движения, ассоциированный с субблоком или текущим видеоблоком, используют для выбора первого набора значений цветовых составляющих.A23. A method according to any one or more of clauses A18-A21, characterized in that a motion vector associated with a sub-block or a current video block is used to select a first set of color component values.
A24. Способ согласно какой-либо одной или нескольким из статей A1-A23, отличающийся тем, что первый набор значений цветовых составляющих представляет собой промежуточные значения цветовых составляющих.A24. A method according to any one or more of Articles A1 to A23, characterized in that the first set of color component values are intermediate color component values.
A25. Способ согласно какой-либо одной или нескольким из статей A1-A24, отличающийся тем, что этап обработки в режиме масштабирования LMCS предшествует другому последующему этапу обработки.A25. A method according to any one or more of Articles A1 to A24, characterized in that a processing step in the LMCS scaling mode precedes another subsequent processing step.
A26. Способ согласно статье A25, отличающийся тем, что первый набор значений цветовых составляющих выбирают на основе, по меньшей мере частично, промежуточного вектора движения для текущего видеоблока или субблока этого текущего видеоблока, и отличающийся тем, что промежуточный вектор движения вычисляют прежде другого этапа кодирования видео.A26. The method of Article A25, characterized in that the first set of color component values is selected based at least in part on an intermediate motion vector for a current video block or subblock of that current video block, and characterized in that the intermediate motion vector is calculated before another video encoding step.
A27. Способ согласно статье A26, отличающийся тем, что указанный другой этап содержит один из или комбинацию следующих этапов: этап двунаправленного оптического потока (BDOF), этап уточнения вектора движения на стороне декодирующего устройства (DMVR) или этап уточнения прогнозируемого оптического потока (PROF). A27. A method according to Article A26, wherein said other step comprises one or a combination of the following steps: a bidirectional optical flow (BDOF) step, a decoder-side motion vector refinement (DMVR) step, or a predictive optical flow refinement (PROF) step.
A28. Способ обработки визуальных медиаданных, содержащий: A28. A method for processing visual media data, comprising:
осуществление преобразования между текущим видеоблоком визуальных медиаданных и представлением этого текущего видеоблока в виде потока битов данных, где, в процессе преобразования, один или несколько реконструированных отсчетов, ассоциированных с текущим кадром визуальных медиаданных, используются для определения коэффициента масштабирования остатка цветностной составляющей на этапе обработки в режиме отображения яркостной составляющей с масштабированием цветностной составляющей (LMCS).performing a conversion between the current video block of visual media and a representation of that current video block as a stream of data bits, where, during the conversion, one or more reconstructed samples associated with the current frame of visual media are used to determine the scaling factor of the remainder of the chrominance component during the mode processing step luma display with chrominance scaling (LMCS).
A29. Способ согласно статье A28, отличающийся тем, что текущий видеоблок кодируют в режиме внутрикадрового копирования блоков (IBC).A29. The method according to article A28, characterized in that the current video block is encoded in intra-block copy (IBC) mode.
A30. Способ согласно статье A28, отличающийся тем, что указанные один или несколько реконструированных отсчетов представляют собой опорные отсчеты в опорном блоке, ассоциированном с текущим кадром.A30. The method according to article A28, characterized in that said one or more reconstructed samples are reference samples in a reference block associated with the current frame.
A31. Способ согласно статье A28, отличающийся тем, что позиции одного или нескольких реконструированных отсчетов предварительно заданы. A31. Method according to Article A28, characterized in that the positions of one or more reconstructed samples are preset.
A32. Способ согласно статье A31, отличающийся тем, что указанные один или несколько реконструированных отсчетов представляют собой реконструированные отсчеты яркостной составляющей, расположенные в строке сверху и в столбце слева, смежных с блоком, покрывающим соответствующий блок яркостной составляющей относительно текущего видеоблока.A32. The method according to Article A31, characterized in that said one or more reconstructed samples are reconstructed luminance samples located in a row at the top and a column at the left adjacent to a block covering the corresponding luminance component block relative to the current video block.
A33. Способ согласно статье A28, отличающийся тем, что позиции одного или нескольких реконструированных отсчетов основаны на позиции соответствующего блока яркостной составляющей относительно текущего видеоблока и информации о движении текущего видеоблока.A33. The method of Clause A28, wherein the positions of the one or more reconstructed samples are based on the position of the corresponding luminance component block relative to the current video block and motion information of the current video block.
A34. Способ обработки визуальных медиаданных, содержащий: A34. A method for processing visual media data, comprising:
осуществление преобразования между текущим видеоблоком визуальных медиаданных и представлением этого текущего видеоблока в виде потока битов данных, где, в процессе преобразования, один или несколько прогнозируемых отсчетов яркостной составляющей или реконструированных отсчетов яркостной составляющей находятся в текущем кадре, отличном от опорного кадра, и используются для определения коэффициента масштабирования остатка цветностной составляющей на этапе процедуры в режиме отображения яркостной составляющей с масштабированием цветностной составляющей (LMCS).performing a conversion between a current video block of visual media and a representation of that current video block as a stream of data bits where, during the conversion process, one or more predicted luminance samples or reconstructed luminance samples are located in a current frame other than a reference frame and are used to determine scaling factor of the remaining chrominance component at the procedure stage in the luminance component display mode with chrominance component scaling (LMCS).
A35. Способ согласно статье A34, отличающийся тем, что один или несколько прогнозируемых отсчетов яркостной составляющей или реконструированных отсчетов яркостной составляющей расположены в соседней области блока размером MxN яркостной составляющей, покрывающего соответствующий блок яркостной составляющей. A35. The method according to Article A34, characterized in that one or more predicted luminance samples or reconstructed luminance samples are located in an adjacent MxN luminance block region covering the corresponding luminance block.
A36. Способ согласно статье A35, отличающийся тем, что соответствующий блок яркостной составляющей является расположенным в том же месте блоком яркостной составляющей относительно текущего видеоблока. A36. The method according to article A35, characterized in that the corresponding luminance component block is a luminance component block located at the same location relative to the current video block.
A37. Способ согласно статье A36, отличающийся тем, что произведение M на N меньше произведения ширины блока на высоту блока для расположенного в том же месте блока яркостной составляющей относительно текущего видеоблока.A37. The method according to Article A36, characterized in that the product of M by N is less than the product of the block width by the block height for the luminance component block located in the same location relative to the current video block.
A38. Способ согласно статье A36, отличающийся тем, что M и N обозначают соответственно заданную ширину и заданную высоту видеоблока, покрывающего расположенный в том же месте блок яркостной составляющей относительно текущего видеоблока.A38. The method according to Article A36, characterized in that M and N denote, respectively, a predetermined width and a predetermined height of a video block covering a luminance component block located at the same location relative to the current video block.
A39. Способ согласно статье A36, отличающийся тем, что M и N обозначают соответственно заданную ширину и заданную высоту единицы данных виртуального конвейера (VPDU), покрывающей расположенный в том же месте блок яркостной составляющей относительно текущего видеоблока.A39. The method according to Article A36, wherein M and N denote, respectively, a predetermined width and a predetermined height of a virtual pipeline data unit (VPDU) covering a colocated luminance component block relative to the current video block.
A40. Способ согласно какой-либо одной или нескольким из статей A1-A39, отличающийся тем, что, в процессе преобразования, опорные отсчеты используют непосредственно или субдискретизируют прежде использования для определения. A40. A method according to any one or more of Articles A1 to A39, characterized in that, during the conversion process, the reference samples are used directly or downsampled before being used for determination.
A41. Способ согласно какой-либо одной или нескольким из статей A1-A40, отличающийся тем, что отсчеты, используемые при определении коэффициентов масштабирования остатка цветностной составляющей выбирают на основе, по меньшей мере частично, одного или нескольких объектов из следующей информации относительно текущего видеоблока: параметра квантования, режима кодирования или порядкового номера картинки (POC).A41. A method according to any one or more of articles A1-A40, characterized in that the samples used in determining the chroma residual scaling factors are selected based at least in part on one or more of the following information regarding the current video block: a quantization parameter , encoding mode or picture order number (POC).
A42. Способ согласно какой-либо одной или нескольким из статей A1-A41, отличающийся тем, что текущий видеоблок является блоком, кодируемым в режиме межкадрового прогнозирования, блоком, кодируемым в режиме внутрикадрового прогнозирования, блоком, кодируемым в режиме двунаправленного прогнозирования, или блоком, кодируемым в режиме внутрикадрового кодирования блоков (IBC).A42. The method according to any one or more of Articles A1 to A41, wherein the current video block is an inter-prediction mode encoded block, an intra-prediction mode encoded block, a bidirectional prediction mode encoded block, or a block encoded in the bidirectional mode. Intrablock coding (IBC) mode.
A43. Способ согласно какой-либо одной или нескольким из статей A1-A42, отличающийся тем, что первый набор значений цветовых составляющих соответствует значениям отсчетов яркостной составляющей, и второй набор значений цветовых составляющих соответствует коэффициентам масштабирования для цветностной составляющей текущего видеоблока.A43. A method according to any one or more of clauses A1 to A42, characterized in that the first set of chroma component values correspond to luminance component sample values, and the second set of chroma component values correspond to scaling factors for the chrominance component of the current video block.
A44. Способ согласно какой-либо одной или нескольким из статей A1-A43, отличающийся тем, что процедура преобразования содержит генерацию представления в виде потока битов данных на основе текущего видеоблока.A44. A method according to any one or more of Articles A1 to A43, wherein the conversion procedure comprises generating a data bit stream representation based on the current video block.
A45. Способ согласно какой-либо одной или нескольким из статей A1-A43, отличающийся тем, что процедура преобразования содержит генерацию значений пикселей текущего видеоблока на основе представления в виде потока битов данных. A45. A method according to any one or more of Articles A1 to A43, wherein the conversion procedure comprises generating pixel values of the current video block based on a data bit stream representation.
A46. Кодирующее устройство для видео, содержащее процессор, конфигурированный для осуществления способа согласно одной или нескольким из статей A1-A45. A46. A video encoder comprising a processor configured to implement a method according to one or more of Articles A1 to A45.
A47. Декодирующее устройство для видео, содержащее процессор, конфигурированный для осуществления способа согласно одной или нескольким из статей A1-A45.A47. A video decoding device comprising a processor configured to implement a method according to one or more of Articles A1 to A45.
A48. Читаемый компьютером носитель информации с записанным на нем кодом, этот код содержит выполняемые процессором команды для осуществления способа согласно одной или нескольким из статей A1-A38.A48. A computer-readable storage medium with code written thereon, the code containing instructions executable by a processor to carry out the method of one or more of Clauses A1 to A38.
Y1. Способ обработки визуальных медиаданных, содержащий: Y1. A method for processing visual media data, comprising:
проверку, в процессе преобразования между текущим видеоблоком цветностной составляющей и представлением этого текущего видеоблока цветностной составляющей в виде потока битов данных, доступности одного или нескольких соседних блоков яркостной составляющей относительно соответствующего блока яркостной составляющей, покрывающего верхний левый отсчет расположенного в том же месте блока яркостной составляющей;checking, in the process of conversion between the current chrominance video block and the data bit stream representation of the current chrominance video block, the availability of one or more adjacent luminance blocks relative to a corresponding luminance block covering the upper left sample of a co-located luminance block;
определение, на основе доступности одного или нескольких соседних блоков яркостной составляющей, следует ли извлечь соседние отсчеты яркостной составляющей относительно соответствующего блока яркостной составляющей;determining, based on the availability of one or more adjacent luminance component blocks, whether adjacent luminance component samples relative to the corresponding luminance component block should be extracted;
получение коэффициента масштабирования на основе указанного определения;obtaining a scaling factor based on said definition;
масштабирование, на основе полученного коэффициента масштабирования, остатка цветностной составляющей текущего видеоблока цветностной составляющей для генерации масштабированного остатка цветностной составляющей; иscaling, based on the obtained scaling factor, the chrominance component residual of the current chrominance component video block to generate a scaled chrominance component residual; And
осуществление преобразования на основе масштабированного остатка цветностной составляющей.performing a transformation based on the scaled remainder of the chrominance component.
Y2. Способ согласно статье Y1, отличающийся тем, что совокупность указанных одного или нескольких соседних блоков яркостной составляющей содержит соседний слева блок яркостной составляющей и соседний сверху блок яркостной составляющей.Y2. The method according to article Y1, characterized in that the set of said one or more adjacent luminance component blocks contains a left-adjacent luminance component block and a top-adjacent luminance component block.
Y3. Способ согласно статье Y1, отличающийся тем, что совокупность указанных одного или нескольких соседних отсчетов яркостной составляющей содержит один или несколько соседних слева столбцов отсчетов и/или одну или несколько соседних сверху строк отсчетов относительно соответствующего блока яркостной составляющей.Y3. The method according to article Y1, characterized in that the set of said one or more adjacent samples of the brightness component contains one or more adjacent columns of samples to the left and/or one or more rows of samples adjacent to the top relative to the corresponding block of the brightness component.
Y4. Способ согласно какой-либо одной или нескольким из статей Y1 or Y3, отличающийся тем, что указанные соседние отсчеты яркостной составляющей извлекают и усредняют на основе округления с целью получения коэффициента масштабирования в случае, когда доступны один или несколько соседних блоков яркостной составляющей.Y4. A method according to any one or more of clauses Y1 or Y3, wherein said adjacent luminance samples are extracted and averaged based on rounding to obtain a scaling factor when one or more adjacent luminance blocks are available.
Y5. Способ согласно статье Y1 или Y3, отличающийся тем, что извлекают указанные соседние отсчеты яркостной составляющей и используют медианное значение этих соседних отсчетов яркостной составляющей для определения коэффициента масштабирования в случае, когда один или несколько соседних блоков яркостной составляющей доступны.Y5. The method of Article Y1 or Y3, characterized in that it extracts said adjacent luminance samples and uses the median value of these adjacent luminance samples to determine a scaling factor in the case where one or more adjacent luminance blocks are available.
Y6. Способ согласно статье Y3, отличающийся тем, что число соседних отсчетов яркостной составляющей равно N, где 1<=N<=2W+2H, W и H обозначают ширину и высоту соответствующего блока яркостной составляющей.Y6. The method according to article Y3, characterized in that the number of adjacent luminance component samples is N, where 1<=N<=2W+2H, W and H denote the width and height of the corresponding luminance component block.
Y7. Способ согласно статье Y1 или Y2, отличающийся тем, что доступность одного или нескольких соседних блоков яркостной составляющей определяют на основе ширины и/или высоты текущего изображения, плитки, группы плиток, единицы данных виртуального конвейера (VPDU) или среза.Y7. The method of clause Y1 or Y2, wherein the availability of one or more adjacent luminance component blocks is determined based on the width and/or height of the current image, tile, group of tiles, virtual pipeline data unit (VPDU), or slice.
Y8. Способ согласно статье Y7, отличающийся тем, что один или несколько соседних блоков яркостной составляющей недоступны в случае, когда эти один или несколько соседних блоков расположены в другом изображении, другой плитке, другой группе плиток, другой единице VPDU, или другом срезе.Y8. The method of Clause Y7, wherein one or more adjacent luminance component blocks are unavailable in the case where the one or more adjacent blocks are located in another image, another tile, another group of tiles, another VPDU, or another slice.
Y9. Способ согласно статье Y1, отличающийся тем, что соседние отсчеты яркостной составляющей относительно соответствующего блока пропускают и не извлекают в случае, когда один или несколько соседних блоков яркостной составляющей недоступны. Y9. The method according to article Y1, characterized in that adjacent luminance component samples relative to the corresponding block are skipped and not retrieved in the case where one or more adjacent luminance component blocks are not available.
Y10. Способ согласно статье Y9, отличающийся тем, что указанный коэффициент масштабирования определяют в случае, когда соседние отсчеты яркостной составляющей относительно соответствующего блока пропускают и не извлекают.Y10. The method according to article Y9, characterized in that the specified scaling factor is determined in the case where adjacent luminance component samples relative to the corresponding block are skipped and not extracted.
Y11. Способ согласно статье Y10, отличающийся тем, что указанный коэффициент масштабирования определяют на основе значения по умолчанию.Y11. The method according to article Y10, characterized in that said scaling factor is determined based on a default value.
Y12. Способ согласно статье Y11, отличающийся тем, что указанное значение по умолчанию основано на битовой глубине текущего видеоблока цветностной составляющей и расположенного в том же месте блока яркостной составляющей.Y12. The method of clause Y11, wherein said default value is based on the bit depth of the current chrominance video block and a colocated luminance block.
Y13. Способ согласно статье Y12, отличающийся тем, что указанное значение по умолчанию выражено как 1 << ( bitDepth − 1 ), где bitDepth обозначает битовую глубину текущего видеоблока цветностной составляющей и расположенного в том же месте блока яркостной составляющей.Y13. The method according to clause Y12, wherein said default value is expressed as 1 << ( bitDepth − 1 ), where bitDepth denotes the bit depth of the current chroma video block and a colocated luminance block.
Y14. Способ согласно статье Y1, отличающийся тем, что соседние отсчеты яркостной составляющей реконструируют на основе прямого отображения.Y14. The method according to article Y1, characterized in that adjacent luminance component samples are reconstructed based on direct mapping.
B1. Способ обработки визуальных медиаданных, содержащий: B1. A method for processing visual media data, comprising:
определение, в процессе преобразования между текущим видеоблоком визуальных медиаданных и представлением этого текущего видеоблока в виде потока битов данных, второго набора значений цветовых составляющих текущего видеоблока из первого набора значений цветовых составляющих визуальных медиаданных с использованием модели, ассоциированной с этапом обработки, где первый набор значений цветовых составляющих представляет собой соседние отсчеты относительно соответствующего блока яркостной составляющей, покрывающего верхний левый отсчет расположенного в том же месте блока яркостной составляющей.determining, in the process of converting between the current video block of visual media data and the data bitstream representation of that current video block, a second set of color component values of the current video block from the first set of color component values of the visual media data using a model associated with a processing step, where the first set of color component values components are adjacent samples relative to the corresponding luminance component block covering the upper left sample of the co-located luminance component block.
B2. Способ согласно статье B1, отличающийся тем, что текущий видеоблок представляет собой одно из: кодированный в режиме внутрикадрового прогнозирования видеоблок, имеющий разбиение в структуре двойного дерева, или кодированный в режиме внутрикадрового прогнозирования видеоблок, имеющий разбиение в структуре одиночного дерева, кодированный в режиме межкадрового прогнозирования видеоблок, имеющий разбиение в структуре одиночного дерева.B2. The method according to Article B1, characterized in that the current video block is one of: an intra-prediction encoded video block having a dual tree partition, or an intra-prediction encoded video block having a single tree partition encoded in an inter-prediction mode a video block that is partitioned in a single tree structure.
B3. Способ согласно какой-либо одной или нескольким из статей B1-B2, отличающийся тем, что первый набор значений цветовых составляющих соответствует по меньшей мере части опорных отсчетов, идентифицированных в позициях, внешних относительно соответствующего блока яркостной составляющей. B3. A method according to any one or more of clauses B1-B2, characterized in that the first set of chroma component values corresponds to at least a portion of the reference samples identified at positions external to the corresponding luminance component block.
B4. Способ согласно статье B3, отличающийся тем, что часть опорных отсчетов, идентифицированных в позициях, внешних относительно соответствующего блока яркостной составляющей, содержит отсчеты, смежные с соответствующим блоком кодирования яркостной составляющей.B4. The method according to article B3, characterized in that a portion of the reference samples identified in positions external to the corresponding luminance component block contains samples adjacent to the corresponding luminance component coding block.
B5. Способ согласно статье B4, отличающийся тем, что совокупность отсчетов, смежных с соответствующим блоком кодирования яркостной составляющей, содержит N отсчетов, расположенных в соседних столбцах слева и/или соседних строках сверху относительно соответствующего блока кодирования яркостной составляющей, где N=1…2W+2H, W и H обозначают ширину и высоту соответствующего блока кодирования яркостной составляющей.B5. The method according to article B4, characterized in that the set of samples adjacent to the corresponding luminance component coding block contains N samples located in adjacent columns to the left and/or adjacent rows above relative to the corresponding luminance component coding block, where N=1...2W+2H , W and H denote the width and height of the corresponding luminance coding block.
B6. Способ согласно статье B5, отличающийся тем, что соседний сверху отсчет яркостной составляющей расположен в точке с координатами (xCb + W/2, yCb - 1) или (xCb -1, yCb - 1), когда верхний левый отсчет расположенного в том же месте блока яркостной составляющей находится в точке с координатами (xCb, yCb).B6. The method according to article B5, characterized in that the luminance component reading adjacent to the top is located at a point with coordinates (xCb + W/2, yCb - 1) or (xCb -1, yCb - 1), when the upper left reading located in the same place the brightness component block is located at a point with coordinates (xCb, yCb).
B7. Способ согласно статье B5, отличающийся тем, что соседний слева отсчет яркостной составляющей расположен в точке с координатами (xCb + W-1, yCb - 1), когда верхний левый отсчет расположенного в том же месте блока яркостной составляющей находится в точке с координатами (xCb, yCb).B7. The method according to article B5, characterized in that the adjacent left reading of the luminance component is located at a point with coordinates (xCb + W-1, yCb - 1), when the upper left reading of a block of luminance component located in the same place is located at a point with coordinates (xCb , yCb).
B8. Способ согласно статье B4, отличающийся тем, что часть опорных отсчетов, идентифицированных в позициях, внешних относительно соответствующего блока яркостной составляющей, находятся в предварительно заданных позициях.B8. The method according to article B4, characterized in that a portion of the reference samples identified at positions external to the corresponding luminance component block are located at predetermined positions.
B9. Способ согласно статье B4, отличающийся тем, что второй набор значений цветовых составляющих для текущего видеоблока определяют на основе медианного значения или арифметического среднего значения N отсчетов, расположенных в соседних слева столбцах и/или в соседних сверху строках соответствующего блока кодирования яркостной составляющей.B9. The method according to article B4, characterized in that the second set of color component values for the current video block is determined based on the median value or arithmetic mean value of N samples located in the left-adjacent columns and/or in the top-adjacent rows of the corresponding luma coding block.
B10. Способ согласно какой-либо одной или нескольким из статей B1-B2, отличающийся тем, что второй набор значений цветовых составляющих для текущего видеоблока избирательно определяют из первого набора значений цветовых составляющих, на основе доступности соседних отсчетов относительно соответствующего блока яркостной составляющей.B10. A method according to any one or more of clauses B1-B2, characterized in that a second set of chroma component values for the current video block is selectively determined from the first set of chroma component values based on the availability of adjacent samples relative to the corresponding luminance component block.
B11. Способ согласно статье B10, отличающийся тем, что доступность соседних отсчетов соответствующего блока яркостной составляющей основана на одном или нескольких факторах из следующего: использование режима кодирования для текущего видеоблока, использование режима кодирования для соседних отсчетов соответствующего блока яркостной составляющей, использование типа фильтра, ассоциированного с соседними отсчетами соответствующего блока яркостной составляющей, расположение соседних отсчетов соответствующего блока яркостной составляющей относительно текущих видеоблоков или субблоков этих блоков, ширина текущего изображения/субизображения/плитки/группы плиток/единицы VPDU/среза, и/или высота текущего изображения/субизображения/плитки/группы плиток/единицы VPDU/среза/строки единиц дерева кодирования (CTU).B11. The method of Clause B10, wherein the availability of adjacent samples of a corresponding luminance block is based on one or more of the following: the use of a coding mode for the current video block, the use of a coding mode for adjacent samples of the corresponding luminance block, the use of a filter type associated with neighboring samples of the corresponding luminance block, the location of adjacent samples of the corresponding luminance block relative to the current video blocks or subblocks of these blocks, the width of the current image/sub-image/tile/group of tiles/VPDU/slice, and/or the height of the current image/sub-image/tile/group of tiles /VPDUs/slice/string coding tree units (CTUs).
B12. Способ согласно статье B10, дополнительно содержащий:B12. The method according to Article B10, further comprising:
в ответ на определение недостатка доступности соседних отсчетов относительно соответствующего блока яркостной составляющей, подстановку, замещение или заполнение недоступных отсчетов другими отсчетами.in response to determining the lack of availability of neighboring samples relative to the corresponding block of the luminance component, substituting, replacing or filling the unavailable samples with other samples.
B13. Способ согласно статье B12, отличающийся тем, что недостаток доступности соседних отсчетов соответствующего блока яркостной составляющей основан по меньшей мере частично на определении, когда режим кодирования текущего видеоблока является режимом межкадрового прогнозирования, режим кодирования соседних отсчетов является режимом внутрикадрового прогнозирования и/или режимом внутрикадрового копирования блоков (IBC) и/или комбинированным режимом межкадрового-внутрикадрового прогнозирования (CIIP) и/или режимом локальной компенсации освещенности (LIC).B13. The method according to article B12, characterized in that the lack of availability of adjacent samples of the corresponding luminance component block is based at least in part on determining when the encoding mode of the current video block is an inter-frame prediction mode, the adjacent samples encoding mode is an intra-frame prediction mode and/or an intra-frame block copy mode (IBC) and/or combined inter-intra prediction (CIIP) mode and/or local light compensation (LIC) mode.
B14. Способ согласно статье B12, отличающийся тем, что недостаток доступности соседних отсчетов соответствующего блока яркостной составляющей основан по меньшей мере частично на определении, что, когда режим кодирования текущего видеоблока является режимом межкадрового прогнозирования, соседние отсчеты подвергают рассеивающей фильтрации и/или двусторонней фильтрации и/или фильтрации на основе преобразования Адамара.B14. The method according to article B12, characterized in that the lack of availability of neighboring samples of the corresponding luminance component block is based at least in part on the determination that when the coding mode of the current video block is an inter-frame prediction mode, the neighboring samples are subjected to diffuse filtering and/or bilateral filtering and/or filtering based on the Hadamard transform.
B15. Способ согласно статье B12, отличающийся тем, что недостаток доступности соседних отсчетов соответствующего блока яркостной составляющей основан по меньшей мере частично на определении, что соседний блок расположен вне текущего изображения/субизображения/плитки/группы плиток/единицы VPDU/среза/строки единиц дерева кодирования (CTU), ассоциированной с текущим видеоблоком.B15. The method according to article B12, characterized in that the lack of availability of neighboring samples of the corresponding luminance component block is based at least in part on the determination that the neighboring block is located outside the current picture/sub-picture/tile/tile group/VPDU/slice/line of coding tree units ( CTU) associated with the current video block.
B16. Способ согласно какой-либо одной или нескольким из статей B12-B15, дополнительно содержащий: B16. A method according to any one or more of Articles B12-B15, further comprising:
в ответ на определение недостатка доступности соседних отсчетов относительно соответствующего блока яркостной составляющей, отмену активизации определения второго набора значений цветовых составляющих относительно текущего видеоблока из первого набора значений цветовых составляющих.in response to determining a lack of availability of adjacent samples relative to the corresponding luminance component block, deactivating the determination of the second set of color component values relative to the current video block from the first set of color component values.
B17. Способ согласно статье B10, дополнительно содержащий:B17. The method according to Article B10, further comprising:
в ответ на определение, что число доступных соседних отсчетов меньше порогового значения, отмену активизации определения второго набора значений цветовых составляющих относительно текущего видеоблока из первого набора значений цветовых составляющих.in response to determining that the number of available adjacent samples is less than a threshold, deactivating the determination of the second set of color component values relative to the current video block from the first set of color component values.
B18. Способ согласно статье B17, отличающийся тем, что указанная пороговое значение равно единице.B18. Method according to Article B17, characterized in that said threshold value is equal to one.
B19. Способ согласно статье B12, отличающийся тем, что если соседний отсчет определен как недоступный, тогда этот соседний отсчет замещают отсчетами 1<<( bitDepth −1), где bitDepth обозначает битовую глубину первого набора отсчетов значений цветовых составляющих или второго набора отсчетов значений цветовых составляющих.B19. The method of Clause B12, wherein if an adjacent sample is determined to be unavailable, then the adjacent sample is replaced with 1<<( bitDepth −1) samples, where bitDepth denotes the bit depth of the first set of color component value samples or the second set of color component value samples.
B20. Способ согласно статье B12, отличающийся тем, что, что, если соседний отсчет определен как недоступный, тогда вместо этого соседнего отсчета подставляют первый доступный соседний отсчет в соответствии с предварительно заданным порядком проверки. B20. The method according to article B12, characterized in that if a neighbor sample is determined to be unavailable, then the first available neighbor sample is substituted for that neighbor sample in accordance with a predetermined check order.
B21. Способ согласно статье B13, отличающийся тем, что, что, если соседний отсчет определен как недоступный, тогда этот соседний отсчет заполняют с использованием одного или нескольких объектов: соседнего отсчета слева, соседнего отсчета справа, соседнего отсчета сверху или нижнего соседнего отсчета.B21. The method according to article B13, characterized in that if a neighbor sample is determined to be unavailable, then the neighbor sample is populated using one or more of the left neighbor sample, the right neighbor sample, the top neighbor sample, or the bottom neighbor sample.
B22. Способ согласно статье B10, дополнительно содержащий:B22. The method according to Article B10, further comprising:
применение сглаживающего фильтра к отсчетам, соседним относительно соответствующего блока яркостной составляющей, используемого при определении второго набора значений цветовых составляющих для текущего видеоблока.applying an anti-aliasing filter to samples adjacent to the corresponding luma component block used in determining the second set of color component values for the current video block.
B23. Способ согласно статье, B22, отличающийся тем, что сглаживающий фильтр содержит один или несколько из следующих объектов: двусторонний фильтр, фильтр на основе преобразования Адамара или прямое отображение области переформирования. B23. The method of Article B22, wherein the anti-aliasing filter comprises one or more of the following: a two-way filter, a Hadamard transform filter, or a direct mapping of the reshaping region.
B24. Способ согласно какой-либо одной или нескольким из статей B1-B23, отличающийся тем, что второй набор значений цветовых составляющих для текущего видеоблока сохраняют для использования в связи с одним или несколькими другими видеоблоками.B24. A method according to any one or more of clauses B1-B23, characterized in that a second set of color component values for the current video block is stored for use in connection with one or more other video blocks.
B25. Способ согласно какой-либо одной или нескольким из статей B1-B23, отличающийся тем, что указанная модель соответствует кросс-компонентной линейной модели (CCLM) и/или указанный этап обработки соответствует режиму отображения яркостной составляющей с масштабированием цветностной составляющей (LMCS).B25. A method according to any one or more of articles B1-B23, characterized in that said model corresponds to a cross-component linear model (CCLM) and/or said processing step corresponds to a luminance component scaling (LMCS) display mode.
B26. Способ согласно какой-либо одной или нескольким из статей B1-B23, отличающийся тем, что текущий видеоблок представляет собой блок, кодируемый в режиме внутрикадрового прогнозирования, блок, кодируемый в режиме межкадрового прогнозирования, блок, кодируемый в режиме двунаправленного прогнозирования, или блоком, кодируемым в режиме внутрикадрового кодирования блоков (IBC).B26. The method according to any one or more of clauses B1 to B23, wherein the current video block is an intra-prediction mode encoded block, an inter-prediction mode encoded block, a bi-directional prediction mode encoded block, or a block encoded in the inter-prediction mode. in Intra Block Coding (IBC) mode.
B27. Способ согласно какой-либо одной или нескольким из статей B1-B23, отличающийся тем, что первый набор значений цветовых составляющих соответствует значениям отсчетов яркостной составляющей, и второй набор значений цветовых составляющих соответствует коэффициентам масштабирования цветностной составляющей для текущего видеоблока.B27. A method according to any one or more of articles B1-B23, characterized in that the first set of chroma component values corresponds to luminance component sample values, and the second set of chroma component values corresponds to chrominance component scaling factors for the current video block.
B28. Способ согласно какой-либо одной или нескольким из статей B1-B23, отличающийся тем, что процедура преобразования содержит генерацию представления в виде потока битов данных на основе текущего видеоблока.B28. A method according to any one or more of clauses B1 to B23, wherein the conversion procedure comprises generating a data bit stream representation based on the current video block.
B29. Способ согласно какой-либо одной или нескольким из статей B1-B23, отличающийся тем, что процедура преобразования содержит генерацию значений пикселей текущего видеоблока на основе его представления в виде потока битов данных. B29. A method according to any one or more of articles B1-B23, characterized in that the conversion procedure comprises generating pixel values of the current video block based on its representation as a stream of data bits.
B30. Кодирующее устройство для видео, содержащее процессор, конфигурированный для осуществления способа согласно одной или нескольким из статей B1-B23. B30. A video encoder comprising a processor configured to implement a method according to one or more of clauses B1 to B23.
B31. Декодирующее устройство для видео, содержащее процессор, конфигурированный для осуществления способа согласно одной или нескольким из статей B1-B23.B31. A video decoding device comprising a processor configured to implement a method according to one or more of clauses B1 to B23.
B32. Читаемый компьютером носитель информации с записанным на нем кодом, этот код содержит выполняемые процессором команды для осуществления способа согласно одной или нескольким из статей B1-B23.B32. A computer-readable storage medium with code written thereon, the code containing instructions executable by a processor to implement a method according to one or more of clauses B1-B23.
C1. Способ обработки визуальных медиаданных, содержащий: C1. A method for processing visual media data, comprising:
в процессе преобразования между текущим видеоблоком цветностной составляющей визуальных медиаданных и представлением этого текущего видеоблока цветностной составляющей в виде потока битов данных, выполнение определения относительно избирательной активизации или отмены активизации применения кросс-компонентной линейной модели (CCLM) и/или масштабирования остатка цветностной составляющей (CRS) к текущему видеоблоку цветностной составляющей, по меньшей мере частично на основе одного или нескольких условий, ассоциированных с расположенным в том же месте блоком яркостной составляющей из текущего видеоблока цветностной составляющей.in the process of converting between a current chrominance video block of visual media and a data bit stream representation of that current chroma video block, making a determination regarding selective activation or deactivation of the application of a cross-component linear model (CCLM) and/or chroma residual scaling (CRS) to the current chroma video block based at least in part on one or more conditions associated with a colocated luminance block from the current chrominance video block.
C2. Способ согласно статье C1, отличающийся тем, что совокупность указанных одного или нескольких условий, ассоциированных с расположенным в том же месте блоком яркостной составляющей для текущего видеоблока цветностной составляющей содержит: размер единиц разбиения расположенного в том же месте блока яркостной составляющей, достижение числом единиц кодирования из расположенного в том же месте блока яркостной составляющей порогового числа, достижение верхним левым отсчетом яркостной составляющей из расположенного в том же месте блока яркостной составляющей порогового размера, глубину дерева разбиения расположенного в том же месте блока яркостной составляющей, или соответствующий блок яркостной составляющей покрывает верхний левый отсчет яркостной составляющей расположенного в том же месте блока яркостной составляющей, и дополнительно находится в пределах ограничительной рамки предварительно заданного размера, режим кодирования одной или нескольких единиц кодирования (CU), покрывающих по меньшей мере один отсчет расположенного в том же месте блока яркостной составляющей, и/или размеры текущего видеоблока цветностной составляющей.C2. The method according to Article C1, characterized in that the set of said one or more conditions associated with a co-located luminance component block for the current chroma video block contains: the size of the partition units of the co-located luminance component block, achieving the number of coding units from the luminance component block located at the same location reaches the threshold number, the upper left sample of the luminance component from the luminance component block located at the same location reaches the threshold size, the depth of the partition tree of the luminance component block located at the same location, or the corresponding luminance component block covers the upper left sample luminance component of the colocated luminance component block, and is further within a bounding box of a predetermined size, an encoding mode of one or more coding units (CUs) covering at least one sample of the colocated luminance component block, and/ or the dimensions of the current video block of the chrominance component.
C3. Способ согласно какой-либо одной или нескольким из статей C1-C2, отличающийся тем, что отменяют активизацию применения модели CCLM и/или масштабирования CRS к текущему видеоблоку цветностной составляющей в ответ на определение, что расположенный в том же месте блок яркостной составляющей для текущего видеоблока цветностной составляющей разбит на несколько единиц разбиения.C3. A method according to any one or more of clauses C1-C2, characterized in that the activation of application of a CCLM model and/or CRS scaling to a current chrominance component video block is canceled in response to determining that a co-located luminance component block for the current video block the color component is divided into several partitioning units.
C4. Способ согласно какой-либо одной или нескольким из статей C1-C2, отличающийся тем, что применение модели CCLM и/или масштабирования CRS к текущему видеоблоку цветностной составляющей активизируют в ответ на определение, что расположенный в том же месте блок яркостной составляющей относительно текущего видеоблока цветностной составляющей не разбит на несколько единиц разбиения.C4. A method according to any one or more of Clauses C1-C2, wherein application of a CCLM model and/or CRS scaling to a current chrominance video block is activated in response to determining that the colocated luminance component block is relative to the current chroma video block component is not divided into several partition units.
C5. Способ согласно какой-либо одной или нескольким из статей C1-C2, отличающийся тем, что отменяют активизацию применения модели CCLM и/или масштабирования CRS к текущему видеоблоку цветностной составляющей в ответ на определение, что расположенный в том же месте блок яркостной составляющей относительно текущего видеоблока цветностной составляющей содержит больше одного из следующих объектов: пороговое число единиц кодирования и/или пороговое число единиц разбиения и/или пороговое число единиц преобразования.C5. A method according to any one or more of Clauses C1-C2, characterized in that the activation of application of a CCLM model and/or CRS scaling to a current chrominance video block is canceled in response to determining that a colocated luminance component block is relative to the current video block chroma component contains more than one of the following objects: a threshold number of coding units and/or a threshold number of partitioning units and/or a threshold number of transform units.
C6. Способ согласно статье C5, отличающийся тем, что пороговое число равно единице.C6. Method according to Article C5, characterized in that the threshold number is equal to one.
C7. Способ согласно статье C5, отличающийся тем, что пороговое число основано по меньшей мере частично на том, применяется ли модель CCLM и/или масштабирование CRS.C7. The method of Clause C5, wherein the threshold number is based at least in part on whether a CCLM model and/or CRS scaling is applied.
C8. Способ согласно статье C5, отличающийся тем, что пороговое число является фиксированным или входит в представление в виде потока битов данных.C8. A method according to Article C5, characterized in that the threshold number is fixed or is represented as a stream of data bits.
C9. Способ согласно статье C5, отличающийся тем, что пороговое число основано по меньшей мере частично на профилях/уровнях/ярусах, ассоциированных с текущим видеоблоком цветностной составляющей.C9. The method of Clause C5, wherein the threshold number is based at least in part on profiles/levels/tiers associated with the current chrominance video block.
C10. Способ согласно статье C5, отличающийся тем, что указанные единицы кодирования и/или единицы разбиения и/или единицы преобразования полностью находятся в пределах расположенного в том же месте блока яркостной составляющей.C10. A method according to Article C5, characterized in that said coding units and/or partitioning units and/or transform units are entirely within a co-located luminance component block.
C11. Способ согласно статье C5, отличающийся тем, что указанные единицы кодирования и/или единицы разбиения и/или единицы преобразования частично находятся в пределах расположенного в том же месте блока яркостной составляющей.C11. A method according to Article C5, characterized in that said coding units and/or partitioning units and/or transform units are partially located within a co-located luminance component block.
C12. Способ согласно статье C11, отличающийся тем, что указанные единицы кодирования и/или единицы разбиения и/или единицы преобразования частично находятся вдоль границы расположенного в том же месте блока яркостной составляющей.C12. Method according to Article C11, characterized in that said coding units and/or partitioning units and/or transform units are partially located along the boundary of a co-located luminance component block.
C13. Способ согласно статье C5, отличающийся тем, что указанные единицы кодирования и/или единицы разбиения и/или единицы преобразования ассоциированы с прогнозированием на основе субблоков. C13. The method according to clause C5, characterized in that said coding units and/or partitioning units and/or transformation units are associated with subblock-based prediction.
C14. Способ согласно статье C13, отличающийся тем, что прогнозирование на основе субблоков соответствует внутрикадровому подразделению (ISP) или аффинному прогнозированию или прогнозированию альтернативного временного вектора движения (ATMVP). C14. The method according to clause C13, characterized in that the subblock-based prediction corresponds to intra-subdivision (ISP) or affine prediction or alternative temporal motion vector prediction (ATMVP).
C15. Способ согласно какой-либо одной или нескольким из статей C1-C2, отличающийся тем, что отменяют активизацию применения модели CCLM и/или масштабирования CRS к текущему видеоблоку цветностной составляющей в ответ на определение, что размер единицы кодирования и/или единицы разбиения и/или единицы преобразования, покрывающей верхний левый отсчет яркостной составляющей расположенного в том же месте блока яркостной составляющей, больше заданного размера блока.C15. A method according to any one or more of clauses C1-C2, characterized in that the activation of application of the CCLM model and/or CRS scaling to the current chrominance component video block is canceled in response to determining that the size of the coding unit and/or partitioning unit and/or a conversion unit covering the upper left luminance component sample of a colocated luminance component block greater than a specified block size.
C16. Способ согласно статье C15, отличающийся тем, что расположенный в том же месте блок яркостной составляющей имеет размер 32x32 и входит в соответствующий блок яркостной составляющей размером 64x64, а предварительно заданный блок яркостной составляющей имеет размер 32x64.C16. The method according to Article C15, characterized in that the luminance component block located at the same location has a size of 32x32 and is included in a corresponding luminance component block of size 64x64, and the predetermined luminance component block has a size of 32x64.
C17. Способ согласно статье C2, отличающийся тем, что применение модели CCLM и/или масштабирования CRS к текущему видеоблоку цветностной составляющей активизируют в ответ на определение, что расположенный в том же месте блок яркостной составляющей относительно текущего видеоблока цветностной составляющей разбиению не подвергался, и соответствующий блок яркостной составляющей, покрывающий верхний левый отсчет яркостной составляющей расположенного в том же месте блока яркостной составляющей, целиком находится в пределах ограничивающей рамки заданного размера.C17. The method of Clause C2, wherein the application of a CCLM model and/or CRS scaling to a current chrominance video block is activated in response to determining that a colocated luminance block with respect to the current chrominance video block has not been split, and the corresponding luminance block component covering the upper left luminance component sample of a colocated luminance component block is entirely within a bounding box of a given size.
C18. Способ согласно статье C17, отличающийся тем, что указанный соответствующий блок яркостной составляющей имеет размер 32x64 и ограничивающая рамка имеет размер 40x70.C18. The method according to Article C17, characterized in that said corresponding luminance component block has a size of 32x64 and the bounding box has a size of 40x70.
C19. Способ согласно статье C17, отличающийся тем, что предварительно заданный размер ограничивающей рамки основан частично на размере единицы дерева кодирования (CTU), ассоциированной с текущим видеоблоком цветностной составляющей, и/или с размером единицы кодирования (CU), ассоциированной с текущим видеоблоком цветностной составляющей.C19. The method of Clause C17, wherein the predetermined size of the bounding box is based in part on the size of a coding tree unit (CTU) associated with the current chroma video block and/or on the size of a coding unit (CU) associated with the current chrominance video block.
C20. Способ согласно какой-либо одной или нескольким из статей C1-C2, отличающийся тем, что расположенный в том же месте блок яркостной составляющей относительно текущего видеоблока цветностной составляющей разбит на несколько единиц разбиения, а прогнозируемые отсчеты или реконструированные отсчеты внутри этих нескольких единиц разбиения используются для определения значений, ассоциированных с масштабированием CRS текущего видеоблока цветностной составляющей.C20. A method according to any one or more of Articles C1-C2, characterized in that a luminance block located at the same location relative to the current chrominance video block is divided into several partition units, and the predicted samples or reconstructed samples within these several partition units are used to determining values associated with the CRS scaling of the current chrominance component video block.
C21. Способ согласно статье C20, отличающийся тем, что среднее значение для прогнозируемых отсчетов или реконструированных отсчетов, находящихся внутри первой единицы разбиения расположенного в том же месте блока яркостной составляющей относительно текущего видеоблока цветностной составляющей, используется для определения значений, ассоциированных с масштабированием CRS текущего видеоблока цветностной составляющей.C21. The method of Clause C20, wherein the average of the predicted samples or reconstructed samples within the first partition unit of a co-located luminance block relative to the current chrominance video block is used to determine values associated with the CRS scaling of the current chrominance video block .
C22. Способ согласно статье C20, отличающийся тем, что верхний левый прогнозируемый отсчет или верхний левый реконструированный отсчет внутри первой единицы разбиения расположенного в том же месте блока яркостной составляющей относительно текущего видеоблока цветностной составляющей используется для определения значений, ассоциированных с масштабированием CRS текущего видеоблока цветностной составляющей.C22. The method of Clause C20, wherein a top left predicted sample or top left reconstructed sample within a first partition unit of a co-located luminance block relative to a current chroma video block is used to determine values associated with the CRS scaling of the current chroma video block.
C23. Способ согласно статье C20, отличающийся тем, что центральный прогнозируемый отсчет или центральный реконструированный отсчет внутри первой единицы разбиения расположенного в том же месте блока яркостной составляющей относительно текущего видеоблока цветностной составляющей используется для определения значений цветовых составляющих текущего видеоблока цветностной составляющей.C23. The method of Clause C20, wherein a central predicted sample or a central reconstructed sample within a first partition unit of a co-located luminance component block relative to a current chroma video block is used to determine the values of the color components of the current chrominance video block.
C24. Способ согласно статье C2, отличающийся тем, что отменяют активизацию применения модели CCLM и/или масштабирования CRS к текущему видеоблоку цветностной составляющей в ответ на определение, что режим кодирования одной или нескольких единиц кодирования (CU), покрывающих по меньшей мере один отсчет расположенного в том же месте блока яркостной составляющей, представляет собой один из режимов: аффинный режим, режим двунаправленного прогнозирования, режим двунаправленного оптического потока (BDOF), режим уточнения DMVR, режим аффинного прогнозирования матрицы, режим межкадрового прогнозирования или режим внутрикадрового подразделения (ISP).C24. The method according to Clause C2, characterized in that the activation of the application of the CCLM model and/or CRS scaling to the current chrominance component video block is canceled in response to determining that the coding mode of one or more coding units (CUs) covering at least one sample located in that at the same location of the luminance component block, represents one of the modes: affine mode, bidirectional prediction mode, bidirectional optical flow (BDOF) mode, DMVR refinement mode, affine matrix prediction mode, inter-frame prediction mode, or intra-frame subdivision (ISP) mode.
C25. Способ согласно статье C2, отличающийся тем, что одна или несколько единиц кодирования (CU), покрывающих по меньшей мере один отсчет расположенного в том же месте блока яркостной составляющей, представляют собой соответствующий блок яркостной составляющей.C25. The method according to Article C2, characterized in that one or more coding units (CUs) covering at least one sample of a co-located luminance component block constitute a corresponding luminance component block.
C26. Способ согласно какой-либо одной или нескольким из статей C1-C25, дополнительно содержащий:C26. A method according to any one or more of Articles C1 to C25, further comprising:
индикацию, на основе некоторого поля в представлении в виде потока битов данных, что модель CCLM и/или масштабирование CRS избирательно активизируют или отменяют активизацию для текущего видеоблока цветностной составляющей.an indication, based on some field in the bitstream representation, that the CCLM model and/or CRS scaling is selectively activating or deactivating the current chrominance component video block.
C27. Способ согласно какой-либо одной или нескольким из статей C1-C26, отличающийся тем, что избирательная активизация или отмена активизации применения модели CCLM и/или масштабирования CRS для текущего видеоблока цветностной составляющей осуществляется на одном или нескольких субблоках текущего видеоблока цветностной составляющей.C27. A method according to any one or more of clauses C1-C26, characterized in that selective activation or deactivation of the application of the CCLM model and/or CRS scaling for the current chrominance video block is carried out on one or more subblocks of the current chrominance video block.
C28. Способ согласно статье C27, отличающийся тем, что указанные один или несколько субблоков из текущего видеоблока цветностной составляющей имеют размер 2x2 или 4x4.C28. The method according to article C27, characterized in that said one or more subblocks from the current chrominance component video block have a size of 2x2 or 4x4.
C29. Способ согласно статье C27, отличающийся тем, что применение модели CCLM и/или масштабирование CRS активизируют для субблока текущего видеоблока цветностной составляющей, когда соответствующий блок кодирования яркостной составляющей относительно текущего видеоблока цветностной составляющей покрывает все отсчеты соответствующего блока для этого субблока. C29. The method according to Article C27, characterized in that the application of the CCLM model and/or CRS scaling is activated for a subblock of the current chroma video block when the corresponding luminance coding block relative to the current chrominance video block covers all samples of the corresponding block for that subblock.
C30. Способ согласно статье C27, отличающийся тем, что отменяют активизацию применения модели CCLM и/или масштабирования CRS для субблока текущего видеоблока цветностной составляющей, когда все отсчеты соответствующего блока для этого субблока не покрыты соответствующим блоком кодирования яркостной составляющей.C30. The method according to clause C27, characterized in that the activation of the application of the CCLM model and/or CRS scaling for a subblock of the current chroma video block is canceled when all samples of the corresponding block for this subblock are not covered by the corresponding luminance coding block.
C31. Способ согласно статье C27, отличающийся тем, что параметры модели CCLM и/или масштабирования CRS ассоциированы с каждым субблоком текущего видеоблока цветностной составляющей. C31. The method according to clause C27, characterized in that the CCLM model and/or CRS scaling parameters are associated with each subblock of the current chroma video block.
C32. Способ согласно статье C27, отличающийся тем, что избирательная активизация или отмена активизации применения модели CCLM и/или масштабирования CRS к субблоку текущего видеоблока цветностной составляющей основана на отсчетах, входящих в расположенный в том же месте блок яркостной составляющей. C32. The method of Clause C27, wherein selectively enabling or disabling the application of a CCLM model and/or CRS scaling to a sub-block of a current chroma video block is based on samples included in a co-located luminance block.
C33. Способ согласно какой-либо одной или нескольким из статей C1-C32, отличающийся тем, что текущий видеоблок цветностной составляющей представляет собой блок, кодируемый в режиме межкадрового прогнозирования, блок, кодируемый в режиме внутрикадрового прогнозирования, блок, кодируемый в режиме двунаправленного прогнозирования, или блок, кодируемый в режиме внутрикадрового копирования блоков (IBC).C33. The method according to any one or more of Clauses C1 to C32, wherein the current chrominance video block is an inter-prediction mode encoded block, an intra-prediction mode encoded block, a bidirectional prediction mode encoded block, or a block , encoded in intra-block copy (IBC) mode.
C34. Способ согласно какой-либо одной или нескольким из статей C1-C33, отличающийся тем, что процедура преобразования содержит генерацию представления в виде потока битов данных на основе текущего видеоблока цветностной составляющей.C34. A method according to any one or more of Articles C1 to C33, wherein the conversion procedure comprises generating a data bitstream representation based on the current chrominance component video block.
C35. Способ согласно какой-либо одной или нескольким из статей C1-C33, отличающийся тем, что процедура преобразования содержит генерацию значений пикселей текущего видеоблока цветностной составляющей на основе представления в виде потока битов данных. C35. A method according to any one or more of Articles C1-C33, characterized in that the conversion procedure comprises generating pixel values of the current chrominance component video block based on a data bit stream representation.
C36. Кодирующее устройство для видео, содержащее процессор, конфигурированный для осуществления способа согласно одной или нескольким из статей C1-C33. C36. A video encoder comprising a processor configured to implement a method according to one or more of Articles C1 to C33.
C37. Декодирующее устройство для видео, содержащее процессор, конфигурированный для осуществления способа согласно одной или нескольким из статей C1-C33.C37. A video decoding device comprising a processor configured to implement a method according to one or more of Articles C1 to C33.
C38. Читаемый компьютером носитель информации с записанным на нем кодом, этот код содержит выполняемые процессором команды для осуществления способа согласно одной или нескольким из статей C1-C33.C38. A computer-readable storage medium with code written thereon, the code containing instructions executable by a processor to implement a method according to one or more of Clauses C1 to C33.
D1. Способ кодирования визуальных медиаданных, содержащий: D1. A method for encoding visual media data, comprising:
избирательную активизацию или отмену активизации применения зависимого от яркостной составляющей масштабирования остатка цветностной составляющей (CRS) к цветностной составляющей текущего видеоблока визуальных медиаданных с целью кодирования этого текущего видеоблока в видеообласти визуальных медиаданных и превращения его в представление визуальных медиаданных в виде потока битов данных; иselectively enabling or disabling the application of luminance-dependent chrominance residual scaling (CRS) to a chrominance component of the current video block of the visual media for the purpose of encoding the current video block in the video domain of the visual media and converting it into a representation of the visual media as a stream of data bits; And
принятие решения о включении или исключении некого поля в представлении визуальных медиаданных в виде потока битов данных, где это поле обозначает избирательную активизацию или отмену активизации и, если это поле включено, передачу его в виде сигнализации на уровне, отличном от первого синтаксического уровня, ассоциированного с текущим видеоблоком.deciding to include or exclude a certain field in the representation of visual media data as a stream of data bits, where this field indicates selective activation or deactivation and, if this field is included, signaling it at a level other than the first syntactic level associated with current video block.
D2. Способ декодирования визуальных медиаданных, содержащий: D2. A method for decoding visual media data, comprising:
осуществление синтаксического анализа для выделения некого поля из представления визуальных медиаданных в виде потока битов данных, где это поле включено на уровне, отличном от первого синтаксического уровня, ассоциированного с текущим видеоблоком; иperforming parsing to extract a certain field from the representation of visual media data as a stream of data bits, where the field is included at a level different from the first syntactic level associated with the current video block; And
избирательную активизацию или отмену активизации, на основе указанного поля, применения зависимого от яркостной составляющей масштабирования остатка цветностной составляющей (CRS) к цветностной составляющей текущего видеоблока визуальных медиаданных с целью генерации декодированной видеообласти на основе представления в виде потока битов данных.selectively activating or deactivating, based on said field, applying luminance dependent chrominance residual scaling (CRS) to the chrominance component of the current video block of visual media data to generate a decoded video region based on the data bitstream representation.
D3. Способ согласно какой-либо одной или нескольким из статей D1-D2, отличающийся тем, что первый синтаксический уровень представляет собой уровень заголовка группы плиток, и отличающийся тем, что указанное поле включено в один из объектов: набор параметров последовательности (SPS), ассоциированный с текущим видеоблоком, плитку, ассоциированную с текущим видеоблоком, строку единиц дерева кодирования (CTU), ассоциированную с текущим видеоблоком, единицу дерева кодирования (CTU), ассоциированную с текущим видеоблоком, единицу данных виртуального конвейера (VPDU), ассоциированную с текущим видеоблоком, или единицу кодирования (CU), ассоциированную с текущим видеоблоком.D3. A method according to any one or more of clauses D1-D2, characterized in that the first syntax level is a tile group header level, and characterized in that said field is included in one of the objects: a sequence parameter set (SPS) associated with the current video block, a tile associated with the current video block, a string of coding tree units (CTU) associated with the current video block, a coding tree unit (CTU) associated with the current video block, a virtual pipeline data unit (VPDU) associated with the current video block, or a unit coding unit (CU) associated with the current video block.
D4. Способ согласно какой-либо одной или нескольким из статей D1-D3, отличающийся тем, что указанное поле представляет собой флаг, обозначенный как chroma_residual_scale_flag.D4. A method according to any one or more of clauses D1 to D3, characterized in that said field is a flag designated chroma_residual_scale_flag.
D5. Способ согласно какой-либо одной или нескольким из статей D1-D4, отличающийся тем, что указанное поле ассоциировано с одним из синтаксических уровней, и отличающийся тем, что если это поле равно единице, активизировано применение зависимого от яркостной составляющей масштабирования остатка цветностной составляющей на уровне ниже указанного синтаксического уровня, а если это поле равно нулю, применение зависимого от яркостной составляющей масштабирования остатка цветностной составляющей на уровне ниже указанного синтаксического уровня не активизировано.D5. A method according to any one or more of articles D1-D4, characterized in that said field is associated with one of the syntactic levels, and characterized in that if this field is equal to one, the application of luminance-dependent scaling of the remainder of the chroma component at the level is activated below the specified syntax level, and if this field is zero, the application of luma-dependent scaling of the remainder of the chrominance component at a level below the specified syntax level is not enabled.
D6. Способ согласно статье D5, отличающийся тем, что указанное поле ассоциировано с уровнем узла разбиения, и отличающийся тем, что если это поле равно единице, активизировано применение зависимого от яркостной составляющей масштабирования остатка цветностной составляющей на уровне указанного узла разбиения, а если это поле равно нулю, применение зависимого от яркостной составляющей масштабирования остатка цветностной составляющей на уровне указанного узла разбиения не активизировано.D6. A method according to article D5, characterized in that the specified field is associated with the level of the split node, and characterized in that if this field is equal to one, the use of luminance component-dependent scaling of the remainder of the chrominance component at the level of the specified split node is activated, and if this field is equal to zero , the use of luminance component-dependent scaling of the remainder of the chrominance component at the level of the specified split node is not activated.
D7. Способ согласно какой-либо одной или нескольким из статей D1-D4, отличающийся тем, что указанное поле ассоциировано с пороговым размером, и отличающийся тем, что когда это поле равно единице, активизировано применение зависимого от яркостной составляющей масштабирования остатка цветностной составляющей для видеоблоков, имеющих указанный пороговый размер или больше этого размера, и если это поле равно нулю, применение зависимого от яркостной составляющей масштабирования остатка цветностной составляющей для видеоблоков меньше порогового размера не активизировано.D7. A method according to any one or more of clauses D1-D4, characterized in that said field is associated with a threshold size, and characterized in that when said field is equal to one, the application of luminance-dependent scaling of the remaining chrominance component is enabled for video blocks having the specified threshold size or greater than this size, and if this field is zero, the application of luma-dependent scaling of the remaining chrominance component for video blocks smaller than the threshold size is not enabled.
D8. Способ согласно статье D7, отличающийся тем, что указанный пороговый размер равен 32x32.D8. The method according to article D7, characterized in that the specified threshold size is 32x32.
D9. Способ согласно какой-либо одной или нескольким из статей D1-D8, отличающийся тем, что указанное поле не передают в виде сигнализации в указанном представлении в виде потока битов данных и отсутствие этого поля в указанном представлении в виде потока битов данных используется для вывода, что применение зависимого от яркостной составляющей масштабирования остатка цветностной составляющей не активизировано, а это поле признают равным нулю.D9. A method according to any one or more of clauses D1 to D8, characterized in that said field is not signaled in said bitstream representation and the absence of that field in said data bitstream representation is used to infer that the use of luminance component-dependent scaling of the remainder of the chrominance component is not activated, and this field is set to zero.
D10. Способ согласно какой-либо одной или нескольким из статей D1-D9, отличающийся тем, что значения, ассоциированные с зависимым от яркостной составляющей масштабированием CRS для текущего видеоблока, сохраняют для использования в соединении с одним или несколькими другими видеоблоками. D10. A method according to any one or more of articles D1-D9, characterized in that values associated with luminance dependent CRS scaling for the current video block are stored for use in connection with one or more other video blocks.
D11. Способ согласно статье D10, отличающийся тем, что значения, ассоциированные с зависимым от яркостной составляющей масштабированием CRS, определяют после кодирования или декодирования блока яркостной составляющей.D11. The method according to clause D10, characterized in that the values associated with the luminance dependent CRS scaling are determined after encoding or decoding the luminance component block.
D12. Способ согласно статье D11, отличающийся тем, что, в блоке яркостной составляющей, прогнозируемые отсчеты и/или промежуточные прогнозируемые отсчеты и/или реконструированные отсчеты и/или реконструированные отсчеты прежде контурной фильтрации используются для определения значений, ассоциированных с зависимым от яркостной составляющей масштабированием CRS.D12. The method according to clause D11, characterized in that, in the luminance component block, predicted samples and/or intermediate predicted samples and/or reconstructed samples and/or reconstructed samples before contour filtering are used to determine values associated with luminance-dependent scaling of the CRS.
D13. Способ согласно статье D12, отличающийся тем, что процедура контурной фильтрации содержит использование: деблокирующего фильтра и/или нелинейного фильтра с адаптивным смещением (SAO) и/или двустороннего фильтра и/или фильтра на основе преобразования Адамара и/или адаптивного контурного фильтра (ALF).D13. Method according to article D12, characterized in that the loop filtering procedure comprises the use of: a deblocking filter and/or a nonlinear adaptive offset filter (SAO) and/or a two-way filter and/or a filter based on the Hadamard transform and/or an adaptive loop filter (ALF) .
D14. Способ согласно статье D11, отличающийся тем, что отсчеты в нижней строке и/или в правом столбце блока яркостной составляющей используются для определения значений, ассоциированных с зависимым от яркостной составляющей масштабированием CRS.D14. The method of Clause D11, wherein the samples in the bottom row and/or right column of the luminance block are used to determine values associated with the luminance-dependent scaling of the CRS.
D15. Способ согласно статье D11, отличающийся тем, что отсчеты, ассоциированные с соседними блоками, используются для определения значений, ассоциированных с зависимым от яркостной составляющей масштабированием CRS.D15. The method according to clause D11, characterized in that the samples associated with adjacent blocks are used to determine values associated with the luminance-dependent scaling of the CRS.
D16. Способ согласно статье D15, отличающийся тем, что текущий видеоблок представляет собой блок, кодируемый в режиме внутрикадрового прогнозирования, блок, кодируемый в режиме межкадрового прогнозирования, блок, кодируемый в режиме двунаправленного прогнозирования, или блок, кодируемый в режиме внутрикадрового копирования блоков (IBC).D16. The method according to clause D15, wherein the current video block is an intra-prediction mode encoded block, an inter-prediction mode encoded block, a bidirectional prediction mode encoded block, or an intra-block copy (IBC) encoded block.
D17. Способ согласно статье D15, отличающийся тем, что доступность отсчетов, ассоциированных с соседними блоками, проверяют в соответствии с предварительно заданным порядком.D17. The method according to article D15, characterized in that the availability of samples associated with neighboring blocks is checked in accordance with a predetermined order.
D18. Способ согласно статье D17, отличающийся тем, что указанный предварительно заданный порядок относительно текущего видеоблока представляет собой одно из: слева направо, от сверху слева в направлении к сверху справа, от слева в направлении сверху, от сверху слева в направлении к сверху справа, от сверху в направлении к слева, от сверху справа в направлении к сверху слева.D18. The method according to Article D17, characterized in that said predetermined order relative to the current video block is one of: from left to right, from top left towards top right, from left towards top, from top left towards top right, from top towards the left, from the top right towards the top left.
D19. Способ согласно статье D17, отличающийся тем, что указанный предварительно заданный порядок относительно текущего видеоблока представляет собой одно из: снизу слева – слева – сверху справа – сверху - сверху слева.D19. The method according to Article D17, characterized in that said predetermined order relative to the current video block is one of: bottom left - left - top right - top - top left.
D20. Способ согласно статье D17, отличающийся тем, что указанный предварительно заданный порядок относительно текущего видеоблока представляет собой одно из: слева – сверху – сверху справа – снизу слева – сверху слева.D20. The method according to article D17, characterized in that said preset order relative to the current video block is one of: left - top - top right - bottom left - top left.
D21. Способ согласно статье D17, отличающийся тем, что указанный предварительно заданный порядок ассоциирован с отсчетами в первом доступном подмножестве соседних блоков.D21. A method according to article D17, characterized in that said predetermined order is associated with samples in the first available subset of neighboring blocks.
D22. Способ согласно статье D15, отличающийся тем, что, если текущий видеоблок кодируют в режиме межкадрового прогнозирования, а соседний блок представляет собой блок, кодируемый в режиме внутрикадрового прогнозирования, блок, кодируемый в режиме копирования IBC, или блок, кодируемый в комбинированном режиме прогнозирования CIIP, тогда отсчеты, ассоциированные с соседним блоком, определяют как недоступные.D22. The method according to clause D15, characterized in that if the current video block is encoded in the inter-prediction mode and the adjacent block is a block encoded in the intra-prediction mode, a block encoded in the IBC copy mode, or a block encoded in the combined CIIP prediction mode, then the samples associated with the adjacent block are determined to be unavailable.
D23. Способ согласно статье D15, отличающийся тем, что, если текущий видеоблок является блоком, кодируемым в комбинированном режиме прогнозирования CIIP, а соседний блок является блоком, кодируемым в режиме внутрикадрового прогнозирования, блоком, кодируемым в режиме копирования IBC, или блоком, кодируемым в комбинированном режиме прогнозирования CIIP, тогда отсчеты, ассоциированные с соседним блоком, определяют как недоступные.D23. The method according to clause D15, characterized in that if the current video block is a block encoded in a combined CIIP prediction mode and the adjacent block is a block encoded in an intra-frame prediction mode, a block encoded in an IBC copy mode, or a block encoded in a combined mode CIIP prediction, then the samples associated with the adjacent block are determined to be unavailable.
D24. Способ согласно статье D15, дополнительно содержащий:D24. The method according to Article D15, further comprising:
в ответ на определение, что число соседних блоков меньше порогового значения, отмена активизации определения зависимого от яркостной составляющей масштабирования CRS.in response to determining that the number of neighboring blocks is less than a threshold, disabling the activation of the luminance-dependent scaling CRS determination.
D25. Способ согласно статье D24, отличающийся тем, что пороговое значение равно единице.D25. Method according to Article D24, characterized in that the threshold value is equal to one.
D26. Способ согласно статье D24, отличающийся тем, что, если какой-то отсчет из соседнего блока определяют как недоступный, тогда этот отсчет замещают отсчетами 1 << ( bitDepth − 1), где bitDepth обозначает битовую глубину цветностных составляющих или яркостных составляющих.D26. The method according to clause D24, characterized in that if any sample from an adjacent block is determined to be unavailable, then this sample is replaced with samples 1 << ( bitDepth − 1), where bitDepth denotes the bit depth of the chrominance components or luma components.
E1. Способ кодирования визуальных медиаданных, содержащий: E1. A method for encoding visual media data, comprising:
избирательную активизацию или отмену активизации применения кросс-компонентной линейной модели (CCLM) к текущему видеоблоку визуальных медиаданных для кодирования текущего видеоблока с целью превращения его в представление визуальных медиаданных в виде потока битов данных; иselectively enabling or disabling the application of a cross-component linear model (CCLM) to the current visual media video block to encode the current video block into a representation of the visual media data as a stream of data bits; And
выполнение определения о включении или исключении некоторого поля из представления визуальных медиаданных в виде потока битов данных, где это поле обозначает указанную избирательную активизацию или отмену активизации и, если оно включено, его передают в виде сигнализации на уровне, отличном от первого синтаксического уровня, ассоциированного с текущим видеоблоком.making a determination to include or exclude a certain field from the representation of the visual media data as a bitstream of data, where the field indicates the specified selective activation or deactivation and, if included, it is signaled at a layer other than the first syntactic level associated with current video block.
E2. Способ декодирования визуальных медиаданных, содержащий: E2. A method for decoding visual media data, comprising:
осуществление синтаксического анализа для выделения некоторого поля из представления визуальных медиаданных в виде потока битов данных, где это поле включено на уровне, отличном от первого синтаксического уровня, ассоциированного с текущим видеоблоком; иperforming parsing to extract a certain field from a representation of the visual media data as a stream of data bits, where the field is included at a level different from the first syntactic level associated with the current video block; And
избирательную активизацию или отмену активизации, на основе указанного поля, применения кросс-компонентной линейной модели (CCLM) к текущему видеоблоку визуальных медиаданных для генерации декодированной видеообласти на основе указанного представления в виде потока битов данных.selectively activating or deactivating, based on the specified field, applying a cross-component linear model (CCLM) to the current video block of visual media data to generate a decoded video region based on the specified data bit stream representation.
E3. Способ согласно какой-либо одной или нескольким из статей E1-E2, отличающийся тем, что первый синтаксический уровень представляет собой уровень набора параметров последовательности (SPS), и отличающийся тем, что указанное поле входит в один из объектов: набор параметров изображения (PPS), ассоциированный с текущим видеоблоком, срез, ассоциированный с текущим видеоблоком, заголовок изображения, ассоциированный с текущим видеоблоком, плитку, ассоциированную с текущим видеоблоком, группу плиток, ассоциированный с текущим видеоблоком, строку единиц дерева кодирования (CTU), ассоциированную с текущим видеоблоком, единицу дерева кодирования (CTU), ассоциированную с текущим видеоблоком, единицу данных виртуального конвейера (VPDU), ассоциированную с текущим видеоблоком, или единицу кодирования (CU), ассоциированную с текущим видеоблоком.E3. A method according to any one or more of clauses E1-E2, characterized in that the first syntactic level is a sequence parameter set (SPS) level, and characterized in that said field is included in one of the objects: a picture parameter set (PPS) , associated with the current video block, slice associated with the current video block, image title associated with the current video block, tile associated with the current video block, tile group associated with the current video block, line of coding tree units (CTU) associated with the current video block, unit a coding tree unit (CTU) associated with the current video block, a virtual pipeline data unit (VPDU) associated with the current video block, or a coding unit (CU) associated with the current video block.
E4. Способ согласно какой-либо одной или нескольким из статей E1-E3, отличающийся тем, что указанное поле представляет собой флаг, обозначенный как cclm_flag.E4. A method according to any one or more of clauses E1-E3, characterized in that said field is a flag designated cclm_flag.
E5. Способ согласно какой-либо одной или нескольким из статей E1-E4, отличающийся тем, что, отсутствие указанного поля в представлении в виде потока битов данных используется для признания, что применение модели CCLM не активизировано.E5. A method according to any one or more of clauses E1-E4, characterized in that the absence of the specified field in the data bitstream representation is used to recognize that the application of the CCLM model is not activated.
E6. Способ согласно какой-либо одной или нескольким из статей E1-E4, отличающийся тем, что присутствие указанного поля в представлении в виде потока битов данных используется для признания, что применение модели CCLM активизировано.E6. A method according to any one or more of clauses E1-E4, characterized in that the presence of said field in the data bitstream representation is used to recognize that application of the CCLM model has been activated.
E7. Способ согласно статье E5, отличающийся тем, что, если размер текущего видеоблока не больше порогового размера, указанное поле исключают из представления в виде потока битов данных, и тем самым исключение этого поля используется для признания, что применение модели CCLM не активизировано.E7. The method of Clause E5, wherein if the size of the current video block is not greater than a threshold size, the specified field is excluded from the data bitstream representation, and thereby the exclusion of this field is used to recognize that the application of the CCLM model is not activated.
E8. Способ согласно статье E7, отличающийся тем, что пороговый размер равен 8x8.E8. Method according to Article E7, characterized in that the threshold size is 8x8.
F1. Кодирующее устройство для видео, содержащее процессор, конфигурированный для осуществления способа согласно одной или нескольким из статей X1-E8. F1. A video encoder comprising a processor configured to implement a method according to one or more of Articles X1-E8.
F2. Декодирующее устройство для видео, содержащее процессор, конфигурированный для осуществления способа согласно одной или нескольким из статей X1-E8.F2. A video decoding device comprising a processor configured to implement a method according to one or more of Articles X1-E8.
F3. Читаемый компьютером носитель информации с записанным на нем кодом, этот код содержит выполняемые процессором команды для осуществления способа согласно одной или нескольким из статей X1-E8.F3. A computer-readable storage medium with code written thereon, the code containing instructions executable by a processor to carry out a method according to one or more of clauses X1-E8.
В настоящем документе термин «обработка видео» или «обработка визуальных медиаданных» может обозначать кодирование видео, декодирование видео, сжатие видео или расширение (декомпрессию) видео. Например, алгоритмы сжатия видео могут быть применены в процессе преобразования от пиксельного представления видео в соответствующее представление в виде потока битов данных или наоборот. Представление текущего видеоблока в виде потока битов данных может, например, соответствовать битам, которые либо расположены в одном месте, либо распределены в разных местах в потоке битов данных, как это определено в синтаксисе. Например, макроблок может быть кодирован в терминах трансформированных и кодированных остаточных значений погрешностей, а также использования битов в заголовках и в других полях в потоке битов данных. Кроме того, в процессе преобразования, декодирующее устройство может осуществлять синтаксический анализ потока битов данных с учетом знания, что некоторые поля могут присутствовать или отсутствовать на основе указанного определения, как это описано в приведенных выше технических решениях. Аналогично, кодирующее устройство может определить, что некоторые синтаксические поля должны или не должны быть включены в кодированное представление и генерировать соответствующее путем включения или исключения этих синтаксических полей из кодированного представления.As used herein, the term “video processing” or “visual media processing” may refer to video encoding, video decoding, video compression, or video expansion (decompression). For example, video compression algorithms may be applied in the process of converting from a pixel representation of a video to a corresponding bitstream representation or vice versa. The representation of the current video block as a data bitstream may, for example, correspond to bits that are either located in one location or distributed in different locations in the data bitstream, as defined in the syntax. For example, a macroblock may be encoded in terms of transformed and encoded error residuals, as well as the use of bits in headers and other fields in the data bitstream. In addition, during the conversion process, the decoding device can parse the data bit stream taking into account the knowledge that some fields may be present or absent based on the specified definition, as described in the above technical solutions. Likewise, the encoder may determine that certain syntactic fields should or should not be included in the encoded representation and generate one accordingly by including or excluding those syntactic fields from the encoded representation.
Из изложенного выше должно быть понятно, что конкретные варианты предлагаемой здесь технологии были описаны в целях иллюстрации, однако разнообразные модификации могут быть внесены без отклонения от объема настоящего изобретения. Соответственно, предлагаемая технология не ограничивается ничем за исключением прилагаемой Формулы изобретения.From the foregoing, it will be understood that specific embodiments of the technology proposed herein have been described for purposes of illustration, but various modifications may be made without departing from the scope of the present invention. Accordingly, the proposed technology is not limited by anything other than the attached Claims.
Варианты реализации предмета настоящего изобретения и функциональные операции, описываемые в этом документе, могут быть осуществлены в разнообразных системах, цифровых электронных схемах или компьютерном загружаемом программном обеспечении, встроенном программном обеспечении или аппаратуре, включая структуры, рассмотренные в настоящем описании, и их структурные эквиваленты, либо в комбинации одного или нескольких перечисленных компонентов. Варианты реализации предмета настоящего изобретения, рассмотренные в настоящем описании, могут быть осуществлены в виде одного или нескольких компьютерных программных продуктов, т.е. одного или нескольких модулей компьютерных программных команд, закодированных на материальном и энергонезависимом читаемом компьютером носителе информации, для выполнения устройством обработки данных или для управления работой этого устройства. Такой читаемый компьютером носитель информации может представлять собой машиночитаемое устройство для хранения информации, машиночитаемую плату для хранения информации, запоминающее устройство, композицию объектов, реализующих машиночитаемый распространяющийся сигнал или комбинацию одного или нескольких из этих компонентов. Термин «модуль обработки данных» или «устройство обработки данных» охватывает все – аппаратуру, устройства и машины для обработки данных, включая в качестве примеров, программируемый процессор, компьютер, либо несколько процессоров или компьютеров. Аппаратура может содержать, в дополнение к оборудованию, код, составляющий среду для выполнения рассматриваемой компьютерной программы, например, код, составляющий встроенное программное обеспечение процессора, стек протоколов, систему управления базой данных, операционную систему или комбинацию одного или нескольких перечисленных компонентов.Embodiments of the subject matter of the present invention and the functional operations described herein may be implemented in a variety of systems, digital electronic circuits or computer downloadable software, firmware or hardware, including the structures discussed herein and their structural equivalents, or in a combination of one or more of the listed components. The embodiments of the subject matter of the present invention discussed in this description may be implemented in the form of one or more computer program products, i.e. one or more modules of computer program instructions encoded on a tangible and non-volatile computer-readable storage medium for execution by a data processing device or for controlling the operation of that device. Such a computer-readable storage medium may be a computer-readable storage device, a computer-readable storage board, a storage device, a composition of objects implementing a computer-readable propagated signal, or a combination of one or more of these components. The term "data processing unit" or "data processing device" covers all data processing hardware, devices, and machines, including, by way of example, a programmable processor, a computer, or multiple processors or computers. The hardware may contain, in addition to hardware, code constituting the environment for executing the computer program in question, such as code constituting processor firmware, a protocol stack, a database management system, an operating system, or a combination of one or more of these components.
Компьютерная программа (также известная как программа, программное обеспечение, программное приложение, сценарий (скрипт) или код) может быть написана на каком-либо языке программирования, включая компилируемые или интерпретируемые языки, и может быть развернута в любой форме, включая автономную программу, или в виде модуля, компонента, подпрограммы или другой единицы, подходящей для использования в компьютерной среде. Компьютерная программа необязательно соответствует файлу в файловой системе. Программа может быть сохранена в части файла, который содержит также другие программы или данные (например, один или несколько сценариев сохраняются в документе на языке разметки), в одном файле, специально предназначенном только для рассматриваемой программы, или в нескольких координированных файлах (например, в файлах, сохраняющих один или несколько модулей, подпрограмм или фрагментов кода). Компьютерная программа может быть развернута для выполнения на одном компьютере или на нескольких компьютерах, расположенных в одном пункте или распределенных по нескольким пунктам и соединенных посредством сети связи.A computer program (also known as a program, software, software application, script or code) may be written in any programming language, including compiled or interpreted languages, and may be deployed in any form, including a stand-alone program, or in the form of a module, component, subroutine, or other unit suitable for use in a computer environment. A computer program does not necessarily correspond to a file on a file system. A program may be stored in a portion of a file that also contains other programs or data (for example, one or more scripts are stored in a markup language document), in a single file specifically dedicated only to the program in question, or in multiple coordinated files (for example, files that save one or more modules, subroutines or code fragments). A computer program may be deployed for execution on a single computer or on multiple computers located at a single location or distributed over multiple locations and connected through a communications network.
Процедуры и логические схемы, описываемые в настоящем документе, могут быть осуществлены одним или несколькими программируемыми процессорами, выполняющими одну или несколько компьютерных программ для реализации функций путем оперирования над входными данными и генерации выходных данных. Эти процедуры и логические схемы могут также быть осуществлены посредством, и аппаратура может также быть реализована в виде, логической схемы специального назначения, например, программируемой пользователем вентильной матрицы (FPGA (field programmable gate array)) или специализированной интегральной схемы (ASIC (application specific integrated circuit)).The procedures and logic described herein may be implemented by one or more programmable processors executing one or more computer programs to implement functions by operating on input data and generating output data. These procedures and logic circuits may also be implemented by, and the hardware may also be implemented in, the form of special-purpose logic circuitry, such as a field programmable gate array (FPGA) or application specific integrated circuit (ASIC). circuit)).
К процессорам, подходящим для выполнения компьютерной программы, относятся, например, микропроцессоры общего и специального назначения и какие-либо один или несколько процессоров цифрового компьютера какого-либо типа. В общем случае, процессор будет принимать команды и данные из постоянного запоминающего устройства и/или из запоминающего устройства с произвольной выборкой. Основными элементами компьютера являются процессор для выполнения команд и одно или несколько запоминающих устройств для сохранения команд и данных. В общем случае, компьютер должен также содержать или быть оперативно связанным для приема данных и/или для передачи данных, одно или несколько запоминающих устройств большой емкости для хранения данных, например, магнитные устройства, магнитооптические диски или оптические диски. Однако компьютеру необязательно иметь такие устройства. К читаемым компьютером носителям для сохранения команд компьютерных программ и данных относятся все формы энергонезависимых запоминающих устройств и носителей информации, включая, например, полупроводниковые запоминающие устройства, например, стираемое, программируемое постоянное запоминающее устройство (СППЗУ (EPROM)), электрически стираемое программируемое запоминающее устройство (ЭСППЗУ (EEPROM)) и устройства флэш-памяти. Процессор и запоминающее устройство могут быть дополнены или встроены в логическую схему специального назначения.Processors suitable for executing a computer program include, for example, general purpose and special purpose microprocessors and any one or more digital computer processors of any type. In general, the processor will receive instructions and data from read only memory and/or random access memory. The main elements of a computer are a processor for executing commands and one or more storage devices for storing commands and data. In general, a computer will also include, or be operatively coupled to receive data and/or transmit data, one or more mass storage devices for storing data, such as magnetic devices, magneto-optical disks, or optical disks. However, the computer does not need to have such devices. Computer-readable media for storing computer program instructions and data includes all forms of non-volatile storage devices and storage media, including, for example, semiconductor storage devices, such as erasable programmable read-only memory (EPROM), electrically erasable programmable memory (EPROM). EEPROM) and flash memory devices. The processor and storage device can be augmented or embedded in special-purpose logic circuitry.
Настоящее описание вместе с прилагаемыми чертежами следует рассматривать только в качестве примеров. Как используется здесь, применение союза «или» должно также охватывать «и/или», если только контекст ясно не указывает иное.This description, together with the accompanying drawings, should be considered as examples only. As used here, the application of the conjunction "or" must also include "and/or" unless the context clearly indicates otherwise.
Хотя настоящий патентный документ содержит много специфических деталей, их не следует толковать в качестве каких-либо ограничений объема какого-либо нововведения или того, что может быть заявлено в качестве изобретения, а просто как описания признаков, которые могут быть специфичными для конкретных вариантов конкретных нововведений. Некоторые признаки, описываемые в настоящем патентном документе в контексте раздельных вариантов, могут быть также реализованы в виде комбинации в одном варианте. Напротив, различные признаки, описываемые в контексте одного варианта, могут быть также реализованы в нескольких вариантах по отдельности или в какой-либо подходящей субкомбинации. Более конкретно, хотя признаки могут быть описаны выше как действующие в определенных комбинациях и даже первоначально заявлены как таковые, один или несколько признаков из заявляемой комбинации могут быть в некоторых случаях исключены из этой заявляемой комбинации, так что эта заявляемая комбинация может быть превращена в субкомбинацию или вариации такой субкомбинации.Although this patent document contains many specific details, they should not be construed as any limitation on the scope of any innovation or what may be claimed as an invention, but merely as descriptions of features that may be specific to particular embodiments of particular innovations . Certain features described in this patent document in the context of separate embodiments may also be implemented in combination in a single embodiment. Conversely, various features described in the context of one embodiment may also be implemented in multiple embodiments individually or in some suitable subcombination. More specifically, although features may be described above as operating in certain combinations and even initially claimed as such, one or more features from a claimed combination may in some cases be excluded from that claimed combination such that the claimed combination may be converted into a subcombination or variations of such a subcombination.
Аналогично, тогда как операции изображены на чертежах в конкретном порядке, это не следует понимать как требование, что такие операции должны выполняться в показанном конкретном порядке или в последовательном порядке или что все показанные иллюстрации должны быть выполнены для достижения желаемых результатов. Более того, разделение различных системных компонентов, описываемых в настоящем патентном документе, не следует понимать как требование такого разделения во всех вариантах.Likewise, while operations are depicted in the drawings in a particular order, this should not be construed as a requirement that such operations must be performed in the specific order shown or in a sequential order or that all illustrations shown must be performed to achieve the desired results. Moreover, the separation of the various system components described in this patent document should not be understood as requiring such separation in all embodiments.
Здесь описаны только несколько вариантов и примеров, однако и другие варианты реализации, усовершенствования и вариации могут быть созданы на основе того, что описано и иллюстрировано в настоящем документе.Only a few embodiments and examples are described herein, however, other embodiments, improvements and variations may be created based on what is described and illustrated herein.
Claims (47)
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CNPCT/CN2019/083320 | 2019-04-18 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| RU2021129363A RU2021129363A (en) | 2023-04-10 |
| RU2816350C2 true RU2816350C2 (en) | 2024-03-28 |
Family
ID=
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12301845B2 (en) | 2019-04-18 | 2025-05-13 | Beijing Bytedance Network Technology Co., Ltd. | Parameter derivation in cross component mode |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20160277762A1 (en) * | 2015-03-20 | 2016-09-22 | Qualcomm Incorporated | Downsampling process for linear model prediction mode |
| US20170272748A1 (en) * | 2016-03-21 | 2017-09-21 | Qualcomm Incorporated | Using luma information for chroma prediction with separate luma-chroma framework in video coding |
| US20180077426A1 (en) * | 2016-09-15 | 2018-03-15 | Qualcomm Incorporated | Linear model chroma intra prediction for video coding |
| CN109005408A (en) * | 2018-08-01 | 2018-12-14 | 北京奇艺世纪科技有限公司 | A kind of intra-frame prediction method, device and electronic equipment |
| RU2676234C1 (en) * | 2010-12-23 | 2018-12-26 | Самсунг Электроникс Ко., Лтд. | Method and apparatus for encoding intraframe prediction mode for image prediction unit and method and device for decoding intraframe prediction mode for image prediction unit |
| WO2019006300A1 (en) * | 2017-06-29 | 2019-01-03 | Dolby Laboratories Licensing Corporation | INTEGRATED IMAGE REMODELING AND VIDEO CODING |
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| RU2676234C1 (en) * | 2010-12-23 | 2018-12-26 | Самсунг Электроникс Ко., Лтд. | Method and apparatus for encoding intraframe prediction mode for image prediction unit and method and device for decoding intraframe prediction mode for image prediction unit |
| US20160277762A1 (en) * | 2015-03-20 | 2016-09-22 | Qualcomm Incorporated | Downsampling process for linear model prediction mode |
| US20170272748A1 (en) * | 2016-03-21 | 2017-09-21 | Qualcomm Incorporated | Using luma information for chroma prediction with separate luma-chroma framework in video coding |
| US20180077426A1 (en) * | 2016-09-15 | 2018-03-15 | Qualcomm Incorporated | Linear model chroma intra prediction for video coding |
| WO2019006300A1 (en) * | 2017-06-29 | 2019-01-03 | Dolby Laboratories Licensing Corporation | INTEGRATED IMAGE REMODELING AND VIDEO CODING |
| CN109005408A (en) * | 2018-08-01 | 2018-12-14 | 北京奇艺世纪科技有限公司 | A kind of intra-frame prediction method, device and electronic equipment |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12301845B2 (en) | 2019-04-18 | 2025-05-13 | Beijing Bytedance Network Technology Co., Ltd. | Parameter derivation in cross component mode |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102685431B1 (en) | Limitations on the applicability of cross-component mode | |
| KR102630411B1 (en) | Signaling of syntactic elements for chroma residual joint coding | |
| CN113796072B (en) | Applicability conditions for cross-component codec | |
| KR102777916B1 (en) | Syntax elements for chroma residual scaling | |
| CN113711610B (en) | Method for reducing cross-component dependency | |
| KR102698094B1 (en) | Luma Mapping for Chroma Scaling | |
| RU2816350C2 (en) | Limitations of cross-component mode applicability | |
| RU2817006C2 (en) | Method of determining parameters in cross-component mode |