ES2823480T3 - Método y aparato para procesar una señal de vídeo - Google Patents
Método y aparato para procesar una señal de vídeo Download PDFInfo
- Publication number
- ES2823480T3 ES2823480T3 ES18192011T ES18192011T ES2823480T3 ES 2823480 T3 ES2823480 T3 ES 2823480T3 ES 18192011 T ES18192011 T ES 18192011T ES 18192011 T ES18192011 T ES 18192011T ES 2823480 T3 ES2823480 T3 ES 2823480T3
- Authority
- ES
- Spain
- Prior art keywords
- unit
- prediction block
- prediction
- information
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 86
- 238000012545 processing Methods 0.000 title description 16
- 230000033001 locomotion Effects 0.000 claims abstract description 71
- 230000004927 fusion Effects 0.000 claims abstract description 60
- 239000013598 vector Substances 0.000 claims abstract description 50
- 238000002156 mixing Methods 0.000 claims abstract description 16
- 230000002123 temporal effect Effects 0.000 claims abstract description 8
- 238000002844 melting Methods 0.000 claims abstract 4
- 230000008018 melting Effects 0.000 claims abstract 4
- 230000000007 visual effect Effects 0.000 claims description 19
- 239000000155 melt Substances 0.000 claims 1
- 238000005192 partition Methods 0.000 description 69
- 230000011218 segmentation Effects 0.000 description 40
- 230000008569 process Effects 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 9
- 238000001914 filtration Methods 0.000 description 7
- 238000013139 quantization Methods 0.000 description 7
- 230000003044 adaptive effect Effects 0.000 description 6
- 230000006835 compression Effects 0.000 description 6
- 238000007906 compression Methods 0.000 description 6
- 238000003860 storage Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000011664 signaling Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013467 fragmentation Methods 0.000 description 2
- 238000006062 fragmentation reaction Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000008685 targeting Effects 0.000 description 2
- 241000023320 Luma <angiosperm> Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/167—Position within a video image, e.g. region of interest [ROI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/521—Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/96—Tree coding, e.g. quad-tree coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
- Picture Signal Circuits (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Método para descodificar un flujo continuo de bits correspondiente a una señal de vídeo que comprende por lo menos un bloque de codificación, con un aparato de descodificación, comprendiendo el método: obtener, con el aparato de descodificación, una pluralidad de bloques de predicción que se segmentan a partir del bloque de codificación; obtener, con el aparato de descodificación, información de bandera de fusión de un bloque de predicción en curso de la pluralidad de bloques de predicción del flujo continuo de bits, indicando la información de bandera de fusión si el bloque de predicción en curso está codificado en un modo de fusión; obtener, con el aparato de descodificación, información de índice de fusión del bloque de predicción en curso del flujo continuo de bits, especificando la información de índice de fusión un candidato a la fusión a fusionar con el bloque de predicción en curso de entre candidatos a la fusión que incluyen bloques vecinos espaciales y temporales del bloque de predicción en curso; inferir, con el aparato de descodificación, información de predicción del bloque de predicción en curso basándose en los candidatos a la fusión y la información de índice de fusión, de manera que la información de predicción incluye información de vector de movimiento e información de índice de referencia; y descodificar, con el aparato de descodificación, el bloque de predicción en curso basándose en la información de predicción del bloque de predicción en curso, en donde, cuando el bloque de codificación 2Nx2N se segmenta en un bloque de predicción 2NxN superior y un bloque de predicción 2NxN inferior y el bloque de predicción en curso es el bloque de predicción 2NxN inferior del bloque de codificación, el bloque de predicción 2NxN superior del bloque de codificación se excluye de los candidatos a la fusión.
Description
DESCRIPCIÓN
Método y aparato para procesar una señal de vídeo
Campo técnico
La presente invención se refiere a un método y a un aparato para procesar una señal de vídeo, y, más particularmente, a un método y a un aparato para codificar o descodificar una señal de vídeo.
Antecedentes de la técnica
Codificación por compresión se refiere a una tecnología de procesado de señales para transmitir información digitalizada a través de una línea de comunicaciones o almacenar dicha información en un formato que resulte adecuado para un soporte de almacenamiento. Se pueden codificar por compresión la voz, imágenes, caracteres, etcétera, y, en particular, a una tecnología para llevar a cabo la codificación de imágenes por compresión se le denomina compresión de imágenes de vídeo. La codificación por compresión de una señal de vídeo se puede llevar a cabo mediante la eliminación de información sobrante teniendo en cuenta la correlación espacial, la correlación temporal, la correlación probabilística, etcétera. No obstante, con el desarrollo reciente de diversos soportes y medios de transmisión de datos, existe una necesidad de un método y un aparato de procesado de señales de vídeo de alta eficiencia.
En la presentación “Video coding technology proposal by France Telecom, NTT, NTT DoCoMo, Panasonic and Technicolor” correspondiente a la 1a Reunión de JCT-VC del 15 de abril, 2010 al 23 de abril, 2010, en Dresde, del JOINT COLLABORATIVE TEAM ON VIDEO CODING OF ISO/IEC JTC1/SC29/WG11 AND ITU-TSG.16, publicada como documento JCTVC-A114, Amonou et al. dan a conocer un esquema de predicción temporal en el que se forma un conjunto de candidatos a vector de movimiento con tres predictores de vector de movimiento (vecinos izquierdo y superior, y un vector ubicado conjuntamente). A partir de este conjunto, se infiere un subconjunto de dos predictores de entre los cuales se selecciona el predictor óptimo sobre la base de la comparación de los dos primeros candidatos del conjunto completo. Basándose en su igualdad, el tercer predictor del conjunto completo sustituye o no el segundo del subconjunto. Para la predicción entre bloques, se puede fijar un tamaño de partición, por el cual una señal en una de las particiones se predice usando parámetros de movimiento en un bloque de encima o a la izquierda. La señal de la otra partición se predice usando parámetros de movimiento a descodificar para el bloque en curso.
En la presentación “Test Model under Consideration (TMuC)” correspondiente a la 1a Reunión del JCT-VC del 15 de abril, 2010 al 23 de abril, 2010, en Dresde, del JOINT COLLABORATIVE TEAM ON VIDEO CODING OF ISO/IEC JTC1/SC29/WG11 AND ITU-TSG.16, publicada como documento JCTVC-A205, se da a conocer un esquema de predicción que usa un proceso de inferencia para candidatos a predictor de vector de movimiento a partir de particiones de unidades de predicción vecinas. La predicción propuesta de vectores de movimiento para particiones rectangulares tiene en cuenta la distancia temporal de los cuadros de referencia. para reducir adicionalmente la velocidad de bits requerida para transmitir los vectores de movimiento, se intercala la predicción y la codificación de los componentes de un vector de movimiento.
Exposición
Problema técnico
Uno de los objetivos de la presente invención concebida para resolver el problema reside en la reducción de la información de predicción transmitida, restaurando una unidad en curso a través de un modo de fusión que usa información de predicción de otra unidad ya restaurada en la predicción inter de la unidad en curso.
Otro de los objetivos de la presente invención concebida para resolver el problema reside en implementar eficientemente un modo de predicción y en predecir de manera más precisa información de predicción de un bloque en curso.
Todavía otro objetivo de la presente invención concebida para resolver el problema reside en seleccionar unidades candidatas a la fusión adecuadas y en determinar eficientemente una unidad a fusionar teniendo en cuenta características de la unidad en curso y áreas vecinas fusionadas.
Todavía otro objetivo de la presente invención concebida para resolver el problema reside en proporcionar un método para mejorar la eficiencia en un método de señalización destinado a implementar un modo de predicción.
Solución técnica
La presente invención se ha diseñado para resolver los problemas anteriores, y el método para procesar una señal de vídeo de acuerdo con la presente invención usa una estructura para segmentar (partitioning) de manera recursiva una unidad de codificación en varias unidades de codificación, y un método para ello. Además, dicha unidad de codificación se divide en varias formas de unidades de predicción, y, de este modo, puede mejorarse la precisión de la compensación en la predicción de movimiento.
La presente invención puede usar un modo de fusión para incrementar la eficiencia de codificación. En este caso, se presenta un método de selección de unidades candidatas a la fusión en varias posiciones.
La presente invención presenta un método de señalización eficiente para especificar una unidad a fusionar entre unidades candidatas a la fusión. Además, la presente invención presenta un método para deducir una unidad a fusionar sin transmitir la información. Con este fin, se puede usar un método de determinación adaptativa de una unidad a fusionar teniendo en cuenta varias condiciones, tales como la posición de una unidad en curso y unidades vecinas, el tamaño de la unidad, información de movimiento, etcétera.
Efectos ventajosos
Según un método para procesar una señal de vídeo de acuerdo con la presente invención, se puede reducir la complejidad, que es necesaria para adquirir información de movimiento de una unidad en curso, mediante la fusión entre unidades al llevar a cabo una predicción inter, y se puede mejorar la eficiencia de codificación al no transmitir información de predicción de la unidad en curso.
Además, características de imágenes u objetos dentro de las imágenes pueden verse bien reflejadas por la predicción y la fusión en diversos tamaños de unidad y unidades de partición, y es posible una predicción más precisa.
Además, la flexibilidad de la fusión se puede ampliar seleccionando unidades vecinas de varias posiciones como unidades a fusionar, y se puede adquirir información de predicción más precisa.
Además, se pueden determinar de manera eficiente y adaptativa unidades candidatas a la fusión y/o unidades a fusionar teniendo en cuenta varias condiciones, tales como las posiciones de una unidad en curso y de unidades vecinas, el tamaño de la unidad, información de movimiento, etcétera.
Además, se establece la transmisión de información necesaria para un modo de fusión únicamente cuando es necesario, y se eliminan los casos innecesariamente redundantes, mejorándose así la eficiencia de codificación.
Descripción de los dibujos
La FIG. 1 es un diagrama de bloques esquemático de un dispositivo codificador de señales de vídeo de acuerdo con una realización ejemplificativa de la presente invención.
La FIG. 2 es un diagrama de bloques esquemático de un dispositivo descodificador de señales de vídeo de acuerdo con una realización ejemplificativa de la presente invención.
La FIG. 3 ilustra un ejemplo de segmentación de una unidad de codificación de acuerdo con una realización ejemplificativa de la presente invención.
La FIG. 4 ilustra varios métodos de segmentación de una unidad de predicción y denominaciones de los tipos de partición.
La FIG. 5 ilustra un caso de segmentación asimétrica de una unidad de predicción.
La FIG. 6 ilustra un caso de segmentación geométrica de una unidad de predicción.
La FIG. 7 ilustra candidatos a la fusión en varias posiciones para una unidad en curso.
La FIG. 8 ilustra un método para seleccionar candidatos a la fusión teniendo en cuenta el tamaño de una unidad.
La FIG. 9 es un diagrama de flujo que ilustra un método para seleccionar una unidad a fusionar cuando hay dos candidatos a la fusión.
La FIG. 10 es un diagrama de flujo que ilustra un proceso de obtención de información que es necesario para un modo de fusión usando el número de candidatos a la fusión disponibles.
La FIG. 11 ilustra un método para determinar una unidad que se puede fusionar usando información de movimiento de una partición vecina cuando el modo de partición es del tipo NxN.
Las FIGs. 12 a 13 ilustran un método para deducir una unidad a fusionar.
Las FIGs. 14 a 17 ilustran un método para deducir una unidad a fusionar en una partición específica.
Modo óptimo
La invención se expone en las reivindicaciones.
Modo para llevar a cabo la invención
A continuación se hará referencia detalladamente a las realizaciones preferidas de la presente invención, ilustrándose ejemplos de ellas en los dibujos adjuntos. En primer lugar, las terminologías o vocablos usados en esta memoria descriptiva y las reivindicaciones no se consideran como limitados a los significados generales o del diccionario, y deben considerarse de manera que presentan significados y conceptos que se corresponden con la idea técnica de la presente invención sobre la base del principio de que un inventor puede definir adecuadamente los conceptos de las terminologías para describir una invención de la mejor manera posible. La realización dada a conocer en esta exposición y las configuraciones mostradas en los dibujos adjuntos son simplemente una realización preferida, y no representan todas las ideas técnicas de la presente invención. Por lo tanto, se entiende que la presente invención abarca las modificaciones y variaciones de esta invención siempre que se sitúen dentro del alcance de las reivindicaciones adjuntas y sus equivalentes en el momento de presentar esta solicitud.
Los siguientes términos en la presente invención se pueden interpretar basándose en los siguientes criterios, e incluso términos que no se manifiestan pueden interpretarse de acuerdo con la intención que se describe a continuación. “Codificación” puede interpretarse como codificación o descodificación en función de la situación, e “ información” incluye valores, parámetros, coeficientes, elementos, etcétera, y puede interpretarse como un concepto adecuado en función de la situación. “Pantalla” o “representación visual” se refiere en general a una unidad para indicar una imagen en una zona de tiempo específica, y franja (slice), cuadro, etcétera, es una unidad destinada a formar parte de una representación visual en la codificación de una señal de vídeo concreta, pero puede ser intercambiable. “Píxel” o “Pel” se refiere a una unidad mínima para constituir una imagen. “Muestra” se puede usar como término para indicar el valor de un píxel específico. “Muestra” se puede dividir en elementos de luma y de croma, pero, en general, se usa como un término que incluye ambos elementos. En lo anterior, “croma” indica una diferencia entre colores determinados, y comprende, en general, Cb y Cr. “Unidad” se ha usado para significar la unidad básica de un procesado de imágenes o una posición específica de una imagen, y se puede usar junto con términos tales como “bloque” o “área”.
La presente invención se refiere a un método y a un aparato para codificar o decidir una señal de vídeo. La FIG. 1 es un diagrama de bloques esquemático de un dispositivo de codificación de señales de vídeo de acuerdo con una realización ejemplificativa de la presente invención. En referencia a la FIG. 1, el dispositivo 100 de codificación de la presente invención incluye una unidad 110 de transformada, una unidad 115 de cuantificación, una unidad 120 de cuantificación inversa, una unidad 125 de transformada inversa, una unidad 130 de filtrado, una unidad 150 de predicción y/o una unidad 160 de codificación entrópica.
La unidad 110 de transformada obtiene un coeficiente de transformada transformando un valor de píxel correspondiente a una señal de vídeo de entrada. Algunos ejemplos de un método de transformada de este tipo son la transformada discreta de coseno (DCT), la transformada discreta de seno (DST), la transformada por ondículas, etcétera. La unidad 110 de transformada lleva a cabo una transformada segmentando una señal de imagen de entrada en unidades de un cierto tamaño. A la unidad básica en la transformada se le denomina unidad de transformada. La eficiencia de la codificación se puede cambiar de acuerdo con la distribución y los atributos de valores dentro del área de la transformada.
La unidad 115 de cuantificación cuantifica un valor de un coeficiente de transformada obtenido a la salida de la unidad 110 de transformada. La unidad 120 de cuantificación inversa cuantifica inversamente el valor de coeficiente de transformada, y la unidad 125 de transformada inversa restaura un valor de píxel usando el valor de coeficiente de transformada cuantificado inversamente.
La unidad 130 de filtrado lleva a cabo una operación de filtrado con vistas a una mejora objetiva o subjetiva de la calidad de una imagen. Algunos ejemplos de los filtros usados en la unidad de filtrado son un filtro antibloques y/o un filtro de bucle adaptativo, etcétera. La unidad 156 de almacenamiento almacena una imagen a la cual se ha aplicado el filtrado, para dar salida a la imagen o usar la imagen como imagen de referencia.
En una codificación de vídeo general, una señal de imagen no se codifica como sí misma para mejorar la eficiencia de codificación, sino que se utiliza un método de predicción de una imagen usando un área ya codificada, y obteniendo una imagen restaurada mediante la adición de un valor residual entre la imagen original y la imagen predicha a la imagen predicha. Algunos ejemplos del método de predicción de una imagen son la predicción intra (predicción dentro de una pantalla), la predicción inter (predicción entre pantallas), etcétera, y, por lo tanto, la unidad de predicción puede incluir una unidad 152 de predicción intra y una unidad 154 de predicción inter. La unidad 152 de predicción intra lleva a cabo una predicción intra a partir de áreas restauradas dentro de la imagen en curso, transmitiendo así la información de codificación dentro de la pantalla a la unidad 160 de codificación entrópica. La unidad 154 de predicción inter obtiene un valor de vector de movimiento del área en curso, y lleva a cabo una compensación de movimiento entre pantallas en referencia a un área específica, es decir, área de referencia, de otra imagen restaurada usando el valor de vector de movimiento obtenido. Además, la unidad 154 de predicción inter transmite información de ubicación del área de referencia (información del sistema de referencia, vector de movimiento, etcétera) a la unidad 160 de codificación entrópica, de manera que la información se puede incluir en el flujo continuo de bits.
La unidad 160 de codificación entrópica genera un flujo continuo de bits de señal de vídeo codificando entrópicamente un coeficiente de transformada cuantificado, información de codificación inter, información de codificación intra, información de área de referencia, etcétera. La unidad 160 de codificación entrópica puede usar una codificación de longitud variable (VLC), una codificación aritmética, etcétera. El método de codificación de longitud variable transforma símbolos de entrada en palabras de código consecutivas, y la longitud de la palabra de código puede ser variable. Por ejemplo, los símbolos generados de manera frecuente se expresan como palabras de código cortas, y los símbolos generados de manera no frecuente se expresan como palabras de código largas. En calidad de método de codificación de longitud variable se puede usar la Codificación de Longitud Variable Adaptativa basada en el Contexto (CAVLC). La codificación aritmética transforma símbolos de datos consecutivos en un número primo, y puede obtener un bit de número primo óptimo para expresar cada símbolo. Como codificación aritmética, se puede usar la Codificación Aritmética Binaria Adaptativa basada en el Contexto (CABAC).
La FIG. 2 es un diagrama de bloques esquemático de un dispositivo 200 de descodificación de señales de vídeo de acuerdo con una realización ejemplificativa de la presente invención. El funcionamiento del dispositivo 200 de descodificación se corresponde con el funcionamiento de cada parte del codificador, y lleva a cabo un proceso inverso de la operación correspondiente. En referencia a la FIG. 2, el dispositivo 200 de descodificación de la presente invención puede incluir una unidad 210 de descodificación entrópica, una unidad 220 de cuantificación inversa, una unidad 225 de transformada inversa, una unidad 230 de filtrado y/o una unidad 250 de predicción, etcétera.
La unidad 210 de descodificación entrópica descodifica entrópicamente un flujo continuo de bits de señal de vídeo, y, de este modo, extrae el coeficiente de la transformada e información de predicción, etcétera, para cada área. La unidad 220 de cuantificación inversa cuantifica inversamente el coeficiente de transformada descodificado entrópicamente, y la unidad 220 de cuantificación inversa cuantifica inversamente el coeficiente de transformada descodificado entrópicamente y restaura el valor de píxel original usando el coeficiente de transformada cuantificado inversamente.
Además, la unidad 230 de filtrado mejora la calidad de la imagen filtrando la misma. En este caso, se pueden incluir un filtro antibloques para reducir el fenómeno de distorsión de bloques y/o un filtro de bucle adaptativo para eliminar la distorsión de la imagen completa, etcétera. La imagen, que ha sido filtrada, se proporciona en la salida o se almacena en la unidad 256 de almacenamiento para usarse como imagen de referencia.
Además, la unidad 250 de predicción de la presente invención incluye una unidad 252 de predicción intra y una unidad 254 de predicción inter, y restaura una imagen de predicción utilizando información, tal como un tipo de codificación descodificado a través de la unidad 210 de descodificación entrópica antes mencionada, un coeficiente de transformada correspondiente a cada área, un vector de movimiento, etcétera.
En este caso, la unidad 252 de predicción intra lleva a cabo una predicción intra a partir de la muestra descodificada dentro de la imagen en curso, generando, así, una imagen de predicción. La unidad 254 de predicción inter genera una imagen de predicción usando un vector de movimiento y una imagen de referencia almacenada en la unidad 256 de almacenamiento. Cuando se obtiene un vector de movimiento, se puede usar un método tal como la predicción de vectores de movimiento y la competición de vectores de movimiento, etcétera.
El cuadro de vídeo restaurado se genera sumando el valor residual correspondiente a cada píxel restaurado a partir de la unidad de transformada inversa a la imagen de predicción, a la cual se da salida desde la unidad 252 de predicción intra o la unidad 254 de predicción inter. Posteriormente se describirá el funcionamiento de la unidad 254 de predicción inter, en particular varios métodos de procesado en el modo de fusión.
En lo sucesivo en la presente, se describirá, en referencia a las FIGs. 3 a 5, un método de segmentación de una unidad de codificación y una unidad de predicción, etcétera, en el funcionamiento del dispositivo 100 de codificación y el dispositivo 200 de descodificación. Unidad de codificación se refiere a una unidad básica para procesar una imagen en un proceso tal como el proceso antes descrito de procesado de una señal de vídeo, por ejemplo, predicción intra o inter,
transformada, cuantificación, codificación entrópica, etcétera. El tamaño de la unidad de codificación usada en la codificación de una imagen puede que no sea homogéneo. La unidad de codificación puede tener una forma cuadrilátera, y una unidad de codificación se puede segmentar en varias unidades de codificación.
La FIG. 3 ilustra un ejemplo de segmentación de una unidad de codificación de acuerdo con una realización ejemplificativa de la presente invención. Por ejemplo, una unidad de codificación que tiene un tamaño de 2N x 2N se puede segmentar en cuatro unidades de codificación que tienen un tamaño de N x N. Una segmentación de la unidad de codificación de este tipo se puede llevar a cabo recursivamente, y no es necesario que todas las unidades de codificación se segmenten de la misma manera. No obstante, por comodidad en el proceso de codificación y procesado, puede haber una restricción sobre el tamaño máximo 310 y el tamaño mínimo 320. Si se determina el tamaño máximo de la unidad de codificación, al tamaño máximo se le denomina tamaño máximo de unidad de codificación, si se determina el tamaño mínimo, al tamaño mínimo se le denomina tamaño mínimo de unidad de codificación.
Para una unidad de codificación se puede indicar información sobre si la unidad de codificación se segmenta. Por ejemplo, si el valor de la bandera que indica si la unidad de codificación se va a segmentar es 1, el bloque correspondiente al nodo se segmenta de nuevo en cuatro bloques, y si el valor de la bandera es 0, el bloque ya no se segmenta, y puede llevarse a cabo el proceso de procesado de la unidad de codificación.
El bloque no se tiene que segmentar necesariamente en cuatro áreas directas. En tal caso, códigos sobre métodos de segmentación predeterminados se pueden mapear con información de segmentación. Por ejemplo, si el valor de la información es 1, el bloque se puede dividir en dos subbloques rectangulares horizontales, si el valor es 2, el bloque se puede dividir en dos subbloques rectangulares verticales, y si el valor es 3, el bloque se puede dividir en cuatro subbloques cuadrados. Un método de este tipo representa algunos ejemplos del método de partición, pero la presente invención no se limita a ellos.
La estructura de la unidad de codificación antes descrita se puede indicar usando una estructura de árbol recursiva. Es decir, la unidad de codificación, que se segmenta en otras unidades de codificación usando la imagen individual o la unidad de codificación de tamaño máximo como raíz, acaba teniendo nodos hijo correspondientes al número de unidades de codificación segmentadas. Por tanto, la unidad de codificación, que ya no se segmenta más, se convierte en un nodo hoja. Suponiendo que, para una unidad de codificación, solamente es posible una segmentación de tipo cuadrado, una unidad de codificación se puede segmentar en un máximo de otras 4 unidades de codificación, y por lo tanto el árbol, que indica la unidad de codificación, puede tener un formato de árbol cuaternario. En lo sucesivo en la presente, por comodidad en cuanto a la explicación, a la unidad de codificación que tiene el tamaño de unidad de codificación máximo se le denomina unidad de codificación más grande (LCU), y a la unidad de codificación que tiene el tamaño de unidad de codificación mínimo se le denomina unidad de codificación más pequeña (SCU).
En el codificador, el tamaño óptimo de la unidad de codificación se puede seleccionar de acuerdo con características de una imagen de vídeo (por ejemplo, la resolución) o teniendo en cuenta la eficiencia de la codificación, y, en el flujo continuo de bits, se puede incluir información de la misma e información para dibujarla. Por ejemplo, se pueden definir el tamaño de la unidad de codificación máxima y la profundidad máxima del árbol. En el caso de una segmentación de tipo cuadrado, la altura y la anchura de la unidad de codificación son la mitad de la altura y la anchura de la unidad de codificación del nodo padre, y, por lo tanto, el tamaño mínimo de la unidad de codificación se puede calcular usando la información anterior. Además, y a la inversa, el tamaño mínimo de la unidad de codificación y la profundidad máxima del árbol se pueden definir de antemano, y el tamaño de la unidad de codificación máxima se puede deducir usando la información definida. En la segmentación de tipo cuadrado, el tamaño de la unidad se cambia a un formato de un múltiplo de 2, y, por lo tanto, el tamaño de la unidad de codificación concreta se indica como un valor logarítmico que tiene 2 como base, mejorándose así la eficiencia de transmisión.
En el descodificador se puede obtener información que indica si la unidad de codificación en curso antes descrita se ha segmentado. La eficiencia se puede mejorar si dicha información se obtiene (o transmite) únicamente bajo una condición específica. Por ejemplo, si la unidad de codificación en curso tiene el tamaño de unidad de codificación mínimo, la unidad no se segmenta en unidades de codificación más pequeñas, y, por lo tanto, en tal caso, no es necesario obtener información sobre si la unidad se ha segmentado.
Si la información indica que la unidad de codificación se ha segmentado, el tamaño de la unidad de codificación a segmentar se convierte en la mitad del tamaño de la unidad de codificación en curso, y la unidad de codificación se segmenta en cuatro unidades de codificación de tipo cuadrado sobre la base de la ubicación del procesado en curso. El procesado anterior se puede repetir para cada unidad de codificación segmentada.
La predicción de la imagen para la codificación se lleva a cabo para la unidad de codificación que ya no se segmenta más (es decir, el nodo hoja del árbol de la unidad de codificación). La unidad de codificación se divide en una o más unidades de predicción (PU), bloques o particiones de predicción, y a una división de este tipo se le denomina también partición. La forma en la que una unidad se ha segmentado se puede indicar mediante la información de tipo de unidad de predicción o la información de tipo de segmentación, etcétera. La FIG. 4 ilustra varios métodos de segmentación de
la unidad de predicción y un ejemplo de la denominación de tipo de segmentación. En referencia a la FIG. 4, una unidad de predicción que tiene un tamaño de 2N x 2N puede no segmentarse (tipo 2N x 2N), se puede segmentar en dos particiones rectangulares que tengan un tamaño de 2N x N (tipo 2N x N), se puede segmentar en dos particiones rectangulares que tengan un tamaño de N x 2N (tipo N x 2N), o se puede segmentar en cuatro particiones cuadriláteras que tengan un tamaño de N x N (tipo N x N). La unidad de predicción es una unidad básica para llevar a cabo la predicción, y la forma de segmentación de una unidad de predicción posible se puede definir de manera diferente en la unidad de codificación intra y la unidad de codificación inter. Por ejemplo, en la unidad de codificación intra, solamente se puede permitir una segmentación de tipo 2N x 2N ó N x N, y en la unidad de codificación inter, se puede permitir una segmentación de tipo 2N x 2N, 2N x N, N x 2N, ó N x N.
Si el tamaño de la unidad de codificación en curso es mayor que el tamaño mínimo predeterminado de la unidad de codificación, la segmentación de tipo N x N no se puede permitir debido a que, en este caso, puede obtenerse el mismo resultado que en el caso en el que la unidad de codificación se segmenta nuevamente.
La segmentación no se lleva a cabo necesariamente de manera simétrica. La FIG. 5 ilustra un caso de segmentación asimétrica de una unidad de predicción.
Además, la segmentación de la unidad de predicción también es posible geométricamente. Tal como se muestra en la FIG. 6, pueden generarse particiones con formas diversas diferentes a una forma cuadrilátera. En este caso, la unidad de predicción se puede segmentar en dos particiones 610 y 620 a través de una línea 600 de segmentación arbitraria. La información de segmentación se puede expresar en forma de una distancia (p) desde el centro, y un ángulo (0) entre una línea perpendicular desde el centro (O) a la línea de segmentación y el eje básico (por ejemplo, eje x), etcétera. Dicha diversidad de formas de la segmentación de la unidad de predicción es ventajosa por cuanto es posible una predicción más precisa para una diversidad de formas de objetos incluidos en la imagen.
En la presente memoria descriptiva, a la unidad a codificar se le denomina unidad en curso, y a la imagen que incluye la unidad en curso se le denomina imagen en curso. Para restaurar la unidad en curso, se puede utilizar la información descifrada dentro de la imagen en curso o se puede utilizar la parte descifrada de otras imágenes. A la imagen (franja (slice)), que utiliza únicamente la imagen en curso para la restauración, es decir, lleva a cabo únicamente una predicción intra (predicción dentro de la pantalla), se le denomina representación visual intra o representación visual (franja) I, a la imagen (franja), que usa un máximo de un vector de movimiento o índice de referencia para predecir cada unidad, se le denomina representación visual predictiva o representación visual (franja) P, y a la imagen (franja), que usa un máximo de dos vectores de movimiento e índices de referencia, se le denomina representación visual de bipredicción o representación visual (franja) B.
En la unidad de predicción intra, se lleva a cabo la predicción intra, que predice el valor de píxel de la unidad en cuestión a partir de las áreas restauradas dentro de la imagen en curso. Por ejemplo, el valor de píxel de la unidad en curso se puede predecir a partir de los píxeles codificados de las unidades, que están ubicadas en los lados superior, izquierdo, superior izquierdo y/o superior derecho, sobre la base de la unidad en curso.
El modo intra se puede clasificar, en términos generales, en un modo vertical, un modo horizontal, un modo DC, un modo angular, etcétera, en función de la dirección del área de referencia en la que están ubicados los píxeles de referencia, que se usan en la predicción de los valores de píxel, y del método de predicción. El modo vertical usa el valor de un área vecina en vertical de la unidad en cuestión como valor de predicción de la unidad en curso, y el modo horizontal usa, como área de referencia, el área vecina en horizontal. En el modo DC, como valor de predicción se usa el valor medio de las áreas de referencia. Además, el modo angular es un caso en el que el área de referencia está ubicada en una dirección arbitraria, y la dirección se puede indicar por el ángulo entre el píxel en curso y el píxel de referencia. Por comodidad, se pueden usar el ángulo predeterminado y el número de modo de predicción, y el número de ángulos usados se puede cambiar en función del tamaño de la unidad en cuestión.
En relación con dicha diversidad de métodos de predicción se pueden definir y utilizar varios modos específicos. El modo de predicción se puede transmitir con el propio valor que indica el modo, aunque, para mejorar la eficiencia de transmisión, puede utilizarse el método de predicción del valor del modo de predicción de la unidad en curso. En este caso, el modo de predicción de la unidad en curso se puede obtener basándose en la información sobre si el valor predicho en el modo de predicción se usa como él mismo en el descodificador y la diferencia con el valor real.
En la unidad de predicción inter, se lleva a cabo la predicción inter la cual predice el valor de píxel de la unidad en cuestión usando información de imágenes ya restauradas diferentes a la imagen en curso. A la imagen usada en la predicción se le denomina representación visual de referencia. El área de referencia que se utiliza en la predicción de la unidad en curso en el proceso de predicción inter se puede indicar usando el índice que indica la imagen de referencia que incluye el área de referencia (a la que, en lo sucesivo en la presente, se denominará como “índice de referencia”) e información de vector de movimiento, etcétera.
Algunos ejemplos de la predicción inter (predicción entre pantallas) son la predicción en sentido directo, la predicción en sentido retrógrado y la bipredicción. La predicción en sentido directo es una predicción que utiliza una representación visual de referencia visualizada (o a la que se ha dado salida) temporalmente antes de la representación visual en curso, y la predicción retrógrada es una predicción que usa una representación visual de referencia visualizada (o a la que se ha dado salida) temporalmente después de la representación visual en curso. Con este fin, puede que sea necesario un conjunto de información de movimiento (por ejemplo, un vector de movimiento y un índice de representación visual de referencia). En la bipredicción, puede utilizarse un máximo de dos áreas de referencia, y estas dos áreas de referencia pueden existir en la misma representación visual de referencia, y pueden existir en representaciones visuales diferentes. Las representaciones visuales de referencia se pueden visualizar (o se les puede dar salida) temporalmente tanto antes como después de la representación visual en curso. En el método de bipredicción, puede utilizarse un máximo de dos conjuntos de información de movimiento (por ejemplo, un vector de movimiento y un índice de representación visual de referencia).
La información de movimiento de la unidad de predicción en curso puede incluir la información de vector de movimiento y el índice de representación visual de referencia. Información de vector de movimiento puede significar el vector de movimiento, el valor de predicción del vector de movimiento, o el vector de movimiento diferencial, o también puede significar información de índice que especifique un valor de predicción del vector de movimiento. Vector de movimiento diferencial significa una diferencia entre el vector de movimiento y un valor de predicción del vector de movimiento.
El bloque de referencia de la unidad de predicción en curso se puede obtener usando el vector de movimiento y el índice de representación visual de referencia. El bloque de referencia existe dentro de la representación visual de referencia que tiene el índice de representación visual de referencia. Además, el valor de píxel del bloque especificado por el vector de movimiento se puede utilizar como predictor de la unidad de predicción en curso. Es decir, se usa la compensación por movimiento, la cual predice la imagen de la unidad de predicción en curso estimando el movimiento a partir de la representación visual descodificada previamente.
Además de la imagen en curso, la lista de imágenes de referencia puede estar constituida por imágenes usadas para la predicción inter. Una franja B necesita dos listas de imágenes de referencia, y las listas se denominan, respectivamente, lista de referencia 0 y lista de referencia 1. Entre las franjas B, a la franja en la que la lista de referencia 0 es igual a la lista de referencia 1 se le denomina, en particular, franja GPB.
Para reducir el volumen de transmisión en relación con el vector de movimiento, el valor de predicción del vector de movimiento se puede obtener usando la información de movimiento de las unidades codificadas, y se puede transmitir solamente la diferencia del vector de movimiento. En el descodificador, el valor de predicción del vector de movimiento de la unidad en curso se puede obtener usando información de movimiento de otras unidades descodificadas, y el valor del vector de movimiento en la unidad en curso se puede obtener usando la diferencia transmitida. Cuando se obtiene el valor de predicción del vector de movimiento, puede usarse un método de competición de vectores de movimiento, método que obtiene diversos valores de candidatos de vector de movimiento usando la información de movimiento de las unidades ya codificadas y obtiene un valor de predicción de vector de movimiento entre los valores candidatos.
La información de predicción (por ejemplo, el índice de referencia, el vector de movimiento, el sentido de la predicción, etcétera), que es necesaria en la predicción inter de la unidad en curso, no se incluye directamente en el flujo continuo de bits cuando se transmite, y se puede deducir usando la unidad vecina. Usando un método de este tipo, se puede mejorar la tasa de compresión utilizando el número de bits asignados a la información de predicción. Específicamente, como información de predicción de la unidad en curso se puede utilizar la información de predicción de la unidad vecina codificada usando la predicción inter. Cuando se usa un método de este tipo, se expresa que la unidad en curso se ha fusionado con la unidad vecina que entregó información de predicción, y a dicho método de predicción se le denomina modo de fusión.
Para el modo de fusión, el flujo continuo de bits puede incluir información que indique si la unidad en curso se ha fusionado (por ejemplo, una bandera como bandera_fusión (merge_flag)), información de fusión que indique qué unidad vecina se ha fusionado con la unidad en curso (por ejemplo, una bandera que indique si la unidad en curso se ha fusionado con un cierto vecino, o información de índice que indique un cierto vecino, etcétera), etcétera. La información que indica qué unidad vecina se ha fusionado con la unidad en curso se puede establecer de manera que se obtenga únicamente cuando se indique que la unidad en curso se ha fusionado (en el ejemplo anterior, cuando bandera_fusión sea verdadero ó 1).
Además, cuando se usa el modo de predicción inter, se puede aplicar el modo de omisión en unidades de la unidad de codificación. El modo de omisión es un método de predicción que transmite únicamente cierta información (por ejemplo, información que indica cuál de los diversos candidatos de predicción por vectores de movimiento se usará) entre información para la restauración por predicción de las unidades en curso. En este caso, se puede utilizar en sí misma información de otras unidades ya codificadas. Cuando se usa el modo de omisión, se puede reducir el volumen de información transmitida y, por lo tanto, en primer lugar, se determina si la unidad de codificación está en el modo de
omisión y, en caso contrario, se puede usar otro modo (por ejemplo, un modo de fusión, un modo de predicción directa o un modo de predicción inter general).
El modo de fusión se puede aplicar en unidades de la unidad de codificación, o se puede aplicar en unidades de la unidad de predicción. En caso de que el modo de fusión se aplique en unidades de la unidad de codificación, se transmite una bandera que indica si aplicar fusión a cada unidad de codificación mínima que usa un modo de predicción inter. Tal como se ha descrito anteriormente, el modo de omisión se puede aplicar a la unidad de codificación y, por lo tanto, después de comprobar, en primer lugar, si el modo de omisión se va a aplicar en unidades de la unidad de codificación mínima (por ejemplo, usando un método tal como análisis sintáctico y comprobación de la bandera que indica si aplicar el modo de omisión), únicamente cuando no se aplica el modo de omisión, se puede obtener la bandera de aplicación del modo de fusión.
Tal como se ha descrito anteriormente, la unidad de codificación se puede segmentar de diversas maneras en unidades de la unidad de predicción. En caso de aplicar el modo de fusión en unidades de la unidad de predicción, la bandera de fusión se obtiene, respectivamente, para todas las particiones de modo inter en las cuales no se aplica el modo de omisión (o el modo de predicción directa).
En lo sucesivo en la presente se describe el funcionamiento específico del modo de fusión. Cuando se trabaja en el modo de fusión, la unidad que se tomará como objetivo puede incluir tanto las unidades de la unidad de codificación como la unidad de predicción (segmentación).
A las unidades que se pueden fusionar con la unidad en curso se les denomina candidatos a la fusión. Los candidatos a la fusión se pueden seleccionar como unidades adyacentes a la unidad en curso entre unidades ya restauradas. A la unidad que se fusiona con la unidad en curso, es decir, la unidad que lleva la información de predicción, se le denomina unidad a fusionar. Con el fin de determinar la unidad a fusionar, se puede utilizar información, obtenida a partir del flujo continuo de bits, que indique qué unidad vecina se ha fusionado, y la unidad a fusionar se puede deducir usando una regla específica.
En lo sucesivo en la presente, se describirán, en referencia a las FIGs. 7 y 8, los tipos de unidades que se pueden convertir en candidatos a la fusión basándose en la unidad en curso, se describirá, en referencia a las FIGs. 9 y 10, el método para transmitir información necesaria para la fusión, y se describirán, en referencia a las FIGs. 11 a 17, diversas realizaciones para deducir la unidad a fusionar entre unidades candidatas a la fusión.
La FIG. 7 ilustra candidatos a la fusión en diversas posiciones para una unidad en curso. Los candidatos a la fusión pueden existir dentro de la imagen 700 en curso en la que está ubicada la unidad en curso, o pueden existir dentro de otra imagen ya restaurada 750. A las unidades dentro de la imagen en curso se les puede denominar candidatos a la fusión espaciales, y a las unidades dentro de otra imagen se les puede denominar candidatos a la fusión temporales. Algunos ejemplos de candidatos a la fusión espaciales son las unidades 710 del área izquierda adyacente a la unidad en curso, las unidades 720 del área superior, y/o las unidades del área de las esquinas (C, C-1, C-2). Los candidatos a la fusión temporales pueden llegar a ser unidades (D) ubicadas en una posición específica de otra imagen, por ejemplo, una posición correspondiente a la unidad en curso, etcétera. Aún cuando la FIG. 7 ilustra unidades de un tamaño específico, el tamaño de cada unidad puede variar en función del nivel segmentado según se ha descrito anteriormente.
Con vistas a la eficiencia en la codificación, los candidatos a la fusión se pueden seleccionar como un cierto número de unidades teniendo en cuenta la eficiencia en la codificación y la complejidad del cálculo entre las posiciones.
Algunos ejemplos de los candidatos a la fusión son la unidad superior (A) entre las unidades del área izquierda, una unidad (A-1) seleccionada entre las unidades del área izquierda excepto A, la unidad de más a la izquierda (B) entre las unidades del área superior, una unidad (B-1) seleccionada entre las unidades del área superior excepto B, la unidad (C) en la esquina superior derecha, la unidad (C-1) en la esquina inferior izquierda, la unidad (C-2) en la esquina superior izquierda, y una unidad (D) correspondiente a otra imagen. Es evidente que, cuando hay solamente una unidad adyacente a la unidad en curso en el área izquierda o superior, no hay ninguna unidad seleccionada adicionalmente.
De manera similar, es posible constituir candidatos a la fusión con la unidad seleccionada del área izquierda, la unidad seleccionada del área superior, las unidades del área de las esquinas (C, C-1, C-2) y la unidad (D) correspondiente a otra imagen, etcétera. Aquí, el número de unidades que se seleccionan en el área izquierda o superior puede ser preferentemente uno (en este caso, el número máximo de candidatos a la fusión sería 6), o un número específico predeterminado. Las unidades del área de las esquinas también se pueden usar seleccionando solamente algunas de las unidades en función de las necesidades.
Para simplificar, como candidatos a la fusión se puede determinar el número menor de unidades. Por ejemplo, la unidad superior (A) entre las unidades del área izquierda, la unidad de más a la izquierda (B) entre las unidades del área superior, la unidad (C) en la esquina superior derecha, la unidad (C-1) en la esquina inferior izquierda, y una unidad (D)
correspondiente a otra imagen, etcétera, pueden convertirse en candidatos a la fusión. En este caso, el número máximo de candidatos a la fusión sería 5.
En su expresión más sencilla, únicamente dos unidades, por ejemplo, la unidad superior (A; a la que en lo sucesivo en la presente se hará referencia como unidad vecina superior) entre las unidades del área izquierda, y la unidad de más a la izquierda (B; a la que, en lo sucesivo en la presente, se hará referencia como unidad vecina izquierda) entre las unidades del área superior pueden llegar a ser los candidatos a la fusión.
Tal como se ha mencionado anteriormente, el tamaño de la unidad puede variar en función del nivel de segmentación o del modo de segmentación. Por tanto, los candidatos a la fusión se pueden determinar teniendo en cuenta el tamaño de la unidad así como la posición (más a la izquierda o superior, etcétera). Por ejemplo, la selección se puede realizar basándose en la longitud del borde adyacente a la unidad en curso. Es decir, se selecciona la unidad que es tangente al contorno más largo entre las unidades de las áreas izquierda o superior adyacentes a la unidad en curso. En referencia a la FIG. 8, por ejemplo, las unidades B, C, y D están posicionadas en el área superior adyacente a la unidad en curso X. Tal como se ha descrito anteriormente, las unidades B y C pueden ser unidades de codificación que se han segmentado una vez más en comparación con la unidad D, o se pueden haber segmentado en un modo (N x N) diferente al modo de la unidad D (2N x 2N). Entre las unidades B, C y D, la unidad D es tangente a la unidad en curso X por el contorno más largo, y, por lo tanto, la unidad D se selecciona como candidata a la fusión entre las unidades vecinas superiores. También es posible seleccionar una o más unidades en el orden anterior entre las unidades vecinas superiores B, C, y D. Los candidatos a la fusión también se pueden seleccionar teniendo en cuenta el área de la unidad además de la longitud del contorno adyacente.
En caso de que el número máximo de los candidatos a la fusión sea 2, la información sobre cuál de los dos candidatos se fusionará puede venir indicada por una bandera de un bit. La FIG. 9 es un diagrama de flujo que ilustra un proceso de selección de una unidad a fusionar en el ejemplo anterior, en el cual la unidad vecina izquierda A ó la unidad vecina derecha B se convierte en el candidato a la fusión. En primer lugar, se obtiene (S901) una bandera de fusión A (bandera_fusión) que indica si la unidad en curso está codificada en un modo de fusión. Si la unidad en curso está codificada en un modo de fusión sobre la base de la información de la bandera de fusión (es decir, bandera_fusión = VERDADERO ó 1), se obtiene (S930) la bandera de sentido de fusión (bandera_fusión_izquierda (merge_left_flag)) que indica con qué unidad se ha fundido. La bandera de sentido de fusión presenta el valor VERDADERO (ó 1) cuando se fusiona con la unidad vecina izquierda, y presenta el valor FALSO (ó 9) cuando se fusiona con la unidad vecina superior. Por tanto, si el valor de la bandera de sentido de fusión es 1 (S940), como información de predicción de la unidad en curso X se usa la información de predicción de la unidad vecina izquierda A (S950), y si el valor de la bandera de sentido de fusión es 0, como información de predicción de la unidad en curso X se usa la información de predicción de la unidad vecina superior B (S970). En caso de que la bandera de fusión indique un caso diferente al modo de fusión, la información de predicción de la unidad en curso se obtiene usando un modo de predicción general (S960). En lo anterior, la bandera de sentido de fusión es meramente una cierta realización, y, por lo tanto, dicha bandera no indica necesariamente la fusión con la unidad vecina izquierda y se puede usar en un formato que indique si se va a producir una fusión con una unidad específica entre candidatos a la fusión.
En caso de que el número máximo de candidatos a la fusión sea dos o mayor, la unidad a fusionar no se puede especificar solamente con la información de la bandera, y, por lo tanto, es necesario utilizar otros métodos. Por ejemplo, se puede usar información de índice (índice de fusión) sobre qué unidad entre los candidatos a la fusión se fusionará, es decir, información que especifica la unidad a fusionar. El índice se puede fijar en un cierto orden, o se puede cambiar de manera adaptativa de acuerdo con la situación.
Además, según una realización ejemplificativa de la presente invención, la información anterior se puede transmitir de manera más eficiente en función del caso. Es decir, en una cierta condición en la que no es necesario transmitir la información anterior, puede omitirse la transmisión de esta información.
La FIG. 10 es un diagrama de flujo que ilustra un proceso de obtención de información que es necesaria para un modo de fusión usando el número de candidatos a la fusión disponibles. En primer lugar, se determina el número de candidatos a la fusión (NumCandidatos (NumCandidate)) que puede ser usado por la unidad en curso, comprobando las posiciones de los candidatos a la fusión antes descritos (S1010). Estar disponible significa aquí que la unidad en curso puede obtener información de predicción a partir de la unidad candidata a la fusión. Es decir, este es el caso en el que la unidad existe en la posición, la unidad está codificada en el modo inter y tiene información de predicción, y ya ha sido descodificada. Si el número de candidatos a la fusión disponibles es 0, no se puede aplicar el modo de fusión, y, por lo tanto, no es necesario transmitir la bandera de fusión (bandera_fusión), que indica si se va a producir fusión. En este caso, la información de predicción de la unidad en curso se obtiene usando un modo de predicción inter general (S1070). Por lo tanto, comprobando la magnitud del número de candidatos a la fusión disponibles (NumCandidatos) (S1020), la bandera de fusión (bandera_fusión) se obtiene únicamente cuando el número de los candidatos a la fusión es mayor que 0 (S1030). En caso de que el número de los candidatos a la fusión sea 1, como unidad a fusionar se puede determinar un candidato a la fusión. Por tanto, no es necesario transmitir por separado información (bandera o índice) sobre la unidad con la que se fusiona la unidad en curso, y, de este modo, solamente se obtiene dicha
información de fusión (S1050) en caso de que la bandera que indica si se va a producir fusión sea 1 y el número de candidatos a la fusión sea mayor que 1 (S1040). La unidad a fusionar se determina basándose en la información de fusión obtenida, y la información de predicción de la unidad a fusionar se usa como información de predicción de la unidad en curso (S1060).
En el caso en el que el tipo de segmentación de la unidad de codificación de un tamaño 2N x 2N sea 2N x 2N, es decir, en el caso en el que la unidad de codificación esté constituida por una partición, puede usarse el modo de predicción directa. Por tanto, en este caso, el número de candidatos a la fusión (NumCandidatos (NumCandidates)) se fija a cero con independencia de la información de movimiento de la unidad vecina, y, de este modo, se puede establecer que el modo de fusión no se aplique a la unidad de codificación y también se puede establecer que no se transmita la información relacionada.
No obstante, en este caso, puede que resulte imposible que la información de predicción de la unidad en curso (sentido de predicción, índice de referencia, vector de movimiento, etcétera) se exprese con el modo de predicción de sentido 2N x 2N. También puede que resulte necesario usar un modo mejorado de predicción de sentido para compensar una pérdida generada en tal caso.
De acuerdo con una realización ejemplificativa de la presente invención, puede ejecutarse una señalización variable en función del número de candidatos a la fusión. Por ejemplo, en caso de que el número de candidatos a la fusión, que resulten posibles para la unidad en curso, sea 3, se transmite información para distinguir de 0 a 2, y en caso de que el número de los posibles candidatos a la fusión sea 2, se transmite únicamente información para distinguir 0 y 1. En este caso, se produce la ventaja de que el número de bits asignados al índice se puede reducir cuando el número de candidatos a la fusión es pequeño.
Es posible usar un método de cambio de las unidades que pertenecen a los candidatos a la fusión después de fijar el número máximo de candidatos. Por ejemplo, se comprueban en orden posiciones predeterminadas, y solamente las unidades correspondientes, en cuanto a número, al número máximo de candidatos se convierten en los candidatos a la fusión, y la unidad a fusionar se selecciona solamente entre los candidatos a la fusión. Por ejemplo, se supone que el número máximo de candidatos es 4, y los candidatos a la fusión se comprueban en el orden de A, B, C, C-1 y D. Si está disponible la totalidad de las unidades anteriores, las cuatro unidades A, B, C y C-1 se convierten en los candidatos a la fusión de acuerdo con dicho orden. Si la unidad C no está disponible en el ejemplo anterior, como candidatos a la fusión se determinarán cuatro unidades A, B, C-1 y D. Si el número de candidatos a la fusión disponibles es menor que el número máximo de candidatos, es posible usar el método de señalización variable antes explicado, en función del número de candidatos a la fusión.
Cuando el modo de segmentación es del tipo N x N, es decir, la unidad de codificación está constituida por cuatro particiones cuadriláteras, la condición para determinar candidatos a la fusión disponibles se puede añadir en la cuarta partición. Una condición de este tipo se puede usar en el proceso de contar el número de candidatos a la fusión disponibles o deducir las unidades a fusionar. En referencia a la FIG. 11, por ejemplo, en el caso de la partición n.° 3, la partición con la cual la partición en curso se puede fusionar de manera adaptativa se determina de acuerdo con la información de movimiento de otras tres particiones (partición n.° 0 a 2).
Por ejemplo, cuando la partición n.° 0 y la partición n.° 1 tienen la misma información de movimiento, y la partición n.° 2 tiene una información de movimiento diferente, la partición n.° 3 no se puede fusionar con la partición n.° 2 ya que, en tal caso, la segmentación sería redundante con la segmentación de un tipo 2N x N. Por lo tanto, en este caso, la partición n.° 2 queda exenta de los candidatos a la fusión.
Cuando la partición n.° 0 y la partición n.° 2 tienen la misma información de movimiento, y la partición n.° 1 tiene información de movimiento diferente, la partición n.° 3 no se puede fusionar con la partición n.° 1 debido a que, en tal caso, la segmentación sería redundante con la segmentación de un tipo N x 2N. Por lo tanto, en este caso, la partición n.° 3 queda exenta de los candidatos a la fusión.
Cuando la partición n.° 0, la partición n.° 1 y la partición n.° 2 tienen, todas ellas, la misma información de movimiento, la partición n.° 3 no se puede fusionar con ninguna de la partición n.° 1 y la partición n.° 2 ya que, en tal caso, la fragmentación sería redundante con la fragmentación del tipo 2N x 2N. Por lo tanto, en este caso, la partición n.° 1 y la partición n.° 2 quedan exentas de los candidatos a la fusión.
Además, con el fin de reducir el número de bits para la transmisión de información con vistas a determinar una unidad a fusionar, en lugar de transmitir la información, puede usarse un método de deducción de la unidad a fusionar de acuerdo con una cierta regla. En lo sucesivo en la presente, en referencia a la FIG. 12, se describirá un método de determinación de la unidad a fusionar entre unidades candidatas a la fusión disponibles. En la FIG. 12, se supone que solamente las unidades A y B son unidades candidatas a la fusión para facilitar la explicación, aunque las unidades de las diversas posiciones antes descritas pueden llegar a ser candidatos a la fusión.
De acuerdo con una realización ejemplificativa de la presente invención, la unidad a fusionar se puede seleccionar sobre la base de la longitud del contorno según el cual la unidad en curso es tangente a la unidad vecina. En referencia a la FIG. 12(a), por ejemplo, el contorno entre la unidad en curso X y la unidad vecina superior A es mayor que el contorno entre la unidad en curso A y la unidad vecina izquierda B, y, por lo tanto, la unidad a fusionar se selecciona como unidad vecina superior A. Es decir, la unidad en curso X se fusiona con la unidad vecina superior A, y, como información de predicción de la unidad en curso X, se usa la información de predicción de la unidad vecina superior A.
De acuerdo con una realización ejemplificativa de la presente invención, como unidad a fusionar de la unidad en curso se puede seleccionar la unidad que tiene un vector de movimiento más similar a la unidad vecina de una cierta posición (por ejemplo, superior izquierda) entre las unidades vecinas de la unidad en curso. En referencia a la FIG. 12(b), por ejemplo, la unidad vecina superior A tiene un vector de movimiento que es más similar a la unidad vecina superior izquierda C que la unidad vecina izquierda B, y, por lo tanto, como unidad a fusionar, se selecciona la unidad vecina superior A.
De acuerdo con una realización ejemplificativa de la presente invención, como unidad a fusionar se puede seleccionar la unidad con un área más amplia entre los candidatos a la fusión. En referencia a la FIG. 12(c), por ejemplo, el área de la unidad vecina izquierda B es mayor que la unidad superior A, y, por tanto, como unidad a fusionar se selecciona la unidad vecina izquierda B.
Además, las realizaciones anteriores se pueden combinar con un cierto orden de prioridad.
De acuerdo con una realización ejemplificativa de la presente invención, cuando se usa un modo de fusión, la unidad en curso se segmenta geométricamente de manera automática, y cada área de segmentación se fusiona con la unidad vecina adyacente. En referencia a la FIG. 13, por ejemplo, la unidad en curso se segmenta en forma de X1 y X2 según la línea de segmentación 1300. La línea de segmentación 1300 se determina usando la distancia euclídea de las unidades vecinas A y B que son candidatos a la fusión. Consecuentemente, X1 se fusiona con A, y X2 se fusiona con B.
Además, en la unidad segmentada, cuando no hay ningún área adyacente o hay solamente un área adyacente, la unidad a fusionar se puede deducir sin transmitir información específica.
De acuerdo con una realización ejemplificativa de la presente invención, en el caso de una segmentación geométrica, puede que no haya ningún área restaurada adyacente. La FIG. 14 ilustra un caso en el que la unidad en curso se ha segmentado geométricamente. En este caso, la unidad en curso se segmenta en dos particiones, es decir, X1 y X2, y X2 no es adyacente a la región reconstruida. Aquí, en el caso de la partición X2, no se puede permitir la fusión con X1. Esto es debido a que, cuando X1 y X2, que pertenecen a la misma unidad de codificación, tienen la misma información de predicción debido a la fusión, no hay necesidad de segmentación. Por lo tanto, en una situación de este tipo, el modo de fusión no se puede aplicar a la partición X2. En este caso, como en el caso en el que el número de candidatos a la fusión disponibles es 0, no se pueden obtener ni la bandera que indica si se va a producir fusión ni la información que indica la unidad a fusionar.
La FIG. 15 ilustra un caso en el que la unidad en curso se segmenta en dos particiones rectangulares. En referencia a la FIG. 15(a), en el caso de la partición X2, el área superior es adyacente al área restaurada, pero el área izquierda es adyacente a la partición X1 que pertenece a la misma unidad de codificación. De manera similar a la descripción anterior, la situación en la que la partición X2 se fusiona con la partición X1, que pertenece a la misma unidad de codificación, y que acaba teniendo la misma información de predicción, es redundante con el caso sin segmentación, y, por lo tanto, es necesario que dicho caso quede exento. Por lo tanto, en el caso de X2, puede que resulte necesario aplicar el modo de fusión, pero las unidades del área izquierda no pueden ser candidatos a la fusión. Cuando se cuenta el número de candidatos a la fusión disponibles, pueden tenerse en cuenta dichos puntos. Tal como se ha descrito antes, si solamente pueden llegar a ser candidatos a la fusión dos tipos, es decir, la unidad izquierda y la unidad superior (es decir, si se transmite información de tipo bandera para indicar la unidad a fusionar), no es necesaria la transmisión de la bandera para indicar la unidad a fusionar con respecto a X2. El número de candidatos a la fusión es grande, y cuando se usa información de índice adaptativa que se ha descrito anteriormente, esto resulta ventajoso por cuanto se reduce el volumen de la información a usar en el índice.
Además, la unidad que tiene una información de predicción que es igual a la información de predicción de otra partición X1, que pertenece a la misma unidad de codificación que la unidad en curso, no puede ser un candidato a la fusión disponible. Cuando se segmenta la misma unidad de codificación en dos particiones, es decir, X1 y X2, el caso en el que X2 se fusiona con una cierta unidad y llega a tener el mismo valor que la información de predicción de X2 conduce a un resultado igual que en la fusión con X1. Por tanto, en este caso, resulta que la segmentación de una unidad de codificación en X1 y X2 no tiene sentido. Por esta razón, en la presente invención, de los candidatos a unidad de fusión disponibles se eliminan las unidades que buscan la misma información de predicción que X1 entre unidades candidatas a la fusión de diversas posiciones que pueden llegar a convertirse en candidatos de predicción en lo anterior. Es decir, el número de candidatos a unidad de fusión que pueden ser usados por la partición en curso, se reduce por el número de candidatos a fusión que tienen una información de predicción igual a la de otra partición X1 que pertenece a la
misma unidad de codificación. De esta manera, el número de unidades candidatas a la fusión disponibles se convierte en 0, y puede que no sea necesario transmitir la bandera de fusión que indica si aplicar el modo de fusión. Por ejemplo, en referencia a la FIG. 15(a), en el caso en el que la información de predicción de la unidad vecina superior A es igual a la de X1, X2 no se puede fusionar con ninguna de entre A y X1. Por tanto, en este caso, puesto que no hay ninguna unidad candidata a la fusión disponible, no es necesario transmitir ni la bandera que indica si aplicar el modo de fusión ni información que indica la unidad a fusionar. Es decir, esto es igual al caso en el que el número de candidatos a la fusión disponibles es 0.
Por contraposición, en el caso de la FIG. 15(b), el lado izquierdo de la partición X2 es adyacente a la región restaurada, pero el lado superior no es adyacente a la región restaurada y resulta adyacente a otra partición X1 que pertenece a la misma unidad de codificación. Por tanto, en este caso, X2 no se fusiona con X1, y únicamente el área izquierda se convierte en un candidato a la fusión disponible. En el caso del ejemplo de la FIG. 15(b), el candidato a la fusión que queda es solamente la unidad A, y, por lo tanto, no es necesario transmitir la información de tipo bandera para designar la unidad a fusionar. Asimismo, las unidades que tienen la misma información de predicción que X1 no se pueden fusionar con X2, y, por lo tanto, en el caso en el que el área adyacente izquierda A de X2 tiene la misma información de predicción que la correspondiente de X1, no queda ninguna unidad candidata a la fusión disponible y no es necesario transmitir la información de bandera de fusión que indica si aplicar el modo de fusión.
La FIG. 16 ilustra varios ejemplos en el caso en el que una unidad se segmenta de manera asimétrica en dos particiones. En este caso, se puede establecer que una partición, que ocupa un área más pequeña, se fusione con solamente una unidad adyacente al lado largo. En el caso de la FIG. 16(a), el lado largo de X1 es el área izquierda, y en el caso en el que se seleccione una de entre el área izquierda o el área superior, la unidad a fusionar se determina como unidad A sin transmitir la bandera (bandera_fusión_izquierda) que designa la unidad. En el caso de la FIG. 16(b), el lado largo de la X1 es el área derecha, y la unidad a fusionar se determina como unidad A en la misma situación que la anterior.
La FIG. 17 ilustra varios ejemplos en el caso en el que una unidad se segmenta geométricamente en dos particiones. En este caso, la unidad a fusionar se puede deducir de acuerdo con el tipo de segmentación. Aquí, el tipo de segmentación se puede considerar usando la longitud de la línea de borde entre la partición y la región reconstruida. En referencia a la FIG. 17, con respecto a la primera partición geométrica X1, se supone que la longitud de la línea de borde entre X1 y el área restaurada izquierda es a, la longitud de la línea de borde entre X1 y el área restaurada superior es b, y c1 y c2 son ciertos umbrales predeterminados. Las FIGs. 17(a) y 17(b) indican los tipos de segmentación de varias segmentaciones geométricas, y esto se puede especificar como un valor específico usando a y b, por ejemplo, un valor como a/b. Además, la unidad a fusionar se determina usando la relación entre este valor y el umbral.
Por ejemplo, tal como se muestra en la FIG. 17(a), en el caso en el que a/b es mayor que c1 (a/b > c1), la unidad a fusionar de X1 se determina como A. Por contraposición, tal como se muestra en la FIG. 17(b), en el caso en el que a/b es menor que c2 (a/b < c2), la unidad a fusionar de X1 se determina como B. En estos dos casos, no es necesario transmitir información que indique cuál de A y B se fusiona. Tal como se muestra en la FIG. 17(c), en el caso en el que a/b está entre c1 y c2 (c2 <= a/b <= c1), se transmite información aparte que indica cuál de A y B es la unidad a fusionar.
Las realizaciones ejemplificativas antes descritas son combinaciones de elementos y características de la presente invención. Los elementos o características se pueden considerar selectivos a no ser que se mencione lo contrario. Cada elemento o característica se puede llevar a la práctica sin combinarse con otros elementos o características. Además, una realización de la presente invención se puede constituir combinando partes de los elementos y/o características. Los órdenes de operaciones que se han descrito en realizaciones de la presente invención se pueden reorganizar. Algunas construcciones de una realización cualquiera se pueden incluir en otra realización, y se pueden sustituir con construcciones correspondientes de otra realización.
Un método de descodificación/codificación, en el que se aplica la presente invención, se configura con un programa para su ejecución en ordenador y, a continuación, se almacena en un soporte de grabación legible por ordenador. Además, se pueden almacenar, en soporte de grabación legible por ordenador, datos multimedia que presenten una estructura de datos de la presente invención. Los soportes de grabación legibles por ordenador incluyen todos los tipos de dispositivos de almacenamiento para almacenar datos que pueden ser leídos por un sistema de ordenador. Los soportes de grabación legibles por ordenador incluyen ROM, RAM, CD-ROM, cintas magnéticas, discos flexibles, dispositivos de almacenamiento óptico de datos, etcétera, y también incluye un dispositivo implementado con ondas portadoras (por ejemplo, transmisión por internet). Además, un flujo continuo de bits generado por el método de codificación se almacena en un soporte de grabación legible por ordenador o se transmite a través de una red de comunicaciones por cable/inalámbrica.
Diversas realizaciones descritas en la presente se pueden implementar en un soporte legible por ordenador usando, por ejemplo, software de ordenador, hardware, o alguna combinación de los mismos. Para una implementación en hardware, las realizaciones descritas en la presente se pueden implementar en uno o más circuitos integrados de
aplicación específica (ASICs), procesadores de señal digital (DSPs), dispositivos de procesado de señales digitales (DsPDs), dispositivos de lógica programare (PLDs), matrices de puertas programares in situ (FPGAs), procesadores, controladores, microcontroladores, microprocesadores, otras unidades electrónicas diseñadas para llevar a cabo las funciones descritas en la presente, o una combinación selectiva de los mismos. En algunos casos, dichas realizaciones se implementan mediante controlador.
Para una implementación en software, las realizaciones descritas en la presente se pueden implementar con módulos de software independientes, tales como procedimientos y funciones, cada uno de los cuales lleva a cabo una o más de las funciones y operaciones descritas en este documento. Los códigos de software se pueden implementar con una aplicación de software escrita en cualquier lenguaje de programación adecuado y se pueden almacenar en memoria, y pueden ser ejecutados por un controlador.
Se pondrá de manifiesto para aquellos versados en la materia que, en la presente invención, pueden aplicarse diversas modificaciones y variaciones sin desviarse con respecto al alcance de la invención. De este modo, se pretende que la presente invención abarque las modificaciones y variaciones de la misma siempre que estas se sitúen dentro del alcance de las reivindicaciones adjuntas y sus equivalentes.
Aplicabilidad industrial
La presente invención es aplicable a la codificación o descodificación de una señal de vídeo.
Resumiendo, el presente documento da a conocer un método y un aparato para codificar o descodificar una señal de vídeo. El método para procesar una señal de vídeo usa un modo de fusión en el que, en lugar de transmitir información de predicción sobre la presente unidad, se usa información de predicción sobre una unidad vecina, con el fin de mejorar la eficiencia de la codificación. En este caso, se determina el número de unidades candidatas disponibles para la fusión entre las unidades en una posición predeterminada, y se obtiene información para el modo de fusión sobre la base del número de las unidades candidatas disponibles para la fusión. La unidad a fusionar se determina usando la información correspondiente al modo de fusión, y se obtiene información de predicción sobre la unidad a fusionar. El valor de predicción para la unidad presente se obtiene usando la información de predicción sobre la unidad a fusionar, y la unidad presente se restaura usando el valor de predicción obtenido.
Para resumir, la materia en cuestión de los siguientes párrafos que se numeran para permitir referencias pertenece a la exposición del presente documento:
[Párrafo 1] Un método para procesar una señal de vídeo, comprendiendo el método: determinar un número de unidades candidatas a la fusión disponibles; obtener una bandera de fusión que indica si una unidad en curso usa un modo de fusión en caso de que el número de las unidades candidatas a la fusión disponibles sea mayor de 0; obtener información de fusión de la unidad en curso si la bandera de fusión indica que el bloque en curso es un modo de fusión y el número de las unidades candidatas a la fusión disponibles es mayor de 1; determinar una unidad a fusionar usando la información de fusión; obtener información de predicción de la unidad a fusionar; obtener un valor de predicción de píxel de la unidad en curso usando la información de predicción de la unidad a fusionar; y restaurar un valor de píxel de la unidad en curso usando el valor de predicción de píxel de la unidad en curso.
[Párrafo 2] El método según el párrafo 1, en el que la determinación determina un número de unidades disponibles entre una pluralidad de unidades candidatas que se seleccionan basándose en una posición de la unidad en curso.
[Párrafo 3] El método según el párrafo 2, en el que las unidades candidatas incluyen por lo menos una de un primer grupo compuesto por unidades adyacentes a un contorno superior de la unidad en curso, un segundo grupo compuesto por unidades adyacentes a un contorno izquierdo de la unidad en curso, un tercer grupo compuesto por unidades adyacentes a una esquina de la unidad en curso, y un cuarto grupo compuesto por unidades ubicadas en otra imagen que no incluye la unidad en curso.
[Párrafo 4] El método según el párrafo 3, que comprende, además: determinar cada una de las unidades entre los grupos como unidades candidatas a la fusión, en donde las unidades consideran una longitud del contorno adyacente a la unidad en curso, áreas de las unidades, o vectores de movimiento de las unidades.
[Párrafo 5] El método según el párrafo 2, en el que la determinación cuenta un número de unidades, que se han codificado con un modo Inter y tienen información de predicción, y se han descodificado por delante de la unidad en curso, entre las unidades candidatas.
[Párrafo 6] El método según el párrafo 1, en el que la información de fusión es una bandera de sentido de fusión que indica si una unidad vecina que se encuentra en un cierto sentido con respecto a la unidad en curso es la unidad a fusionar en caso de que el número de los candidatos a la fusión sea 2, y la información de fusión es un índice que indica la unidad a fusionar en caso de que el número de los candidatos a la fusión sea mayor de 2.
[Párrafo 7] El método según el párrafo 1, en el que la información de predicción incluye un índice e información de vector de movimiento de una imagen de referencia.
Claims (9)
1. Método para descodificar un flujo continuo de bits correspondiente a una señal de vídeo que comprende por lo menos un bloque de codificación, con un aparato de descodificación, comprendiendo el método:
obtener, con el aparato de descodificación, una pluralidad de bloques de predicción que se segmentan a partir del bloque de codificación;
obtener, con el aparato de descodificación, información de bandera de fusión de un bloque de predicción en curso de la pluralidad de bloques de predicción del flujo continuo de bits, indicando la información de bandera de fusión si el bloque de predicción en curso está codificado en un modo de fusión;
obtener, con el aparato de descodificación, información de índice de fusión del bloque de predicción en curso del flujo continuo de bits, especificando la información de índice de fusión un candidato a la fusión a fusionar con el bloque de predicción en curso de entre candidatos a la fusión que incluyen bloques vecinos espaciales y temporales del bloque de predicción en curso;
inferir, con el aparato de descodificación, información de predicción del bloque de predicción en curso basándose en los candidatos a la fusión y la información de índice de fusión, de manera que la información de predicción incluye información de vector de movimiento e información de índice de referencia; y
descodificar, con el aparato de descodificación, el bloque de predicción en curso basándose en la información de predicción del bloque de predicción en curso,
en donde, cuando el bloque de codificación 2Nx2N se segmenta en un bloque de predicción 2NxN superior y un bloque de predicción 2NxN inferior y el bloque de predicción en curso es el bloque de predicción 2NxN inferior del bloque de codificación, el bloque de predicción 2NxN superior del bloque de codificación se excluye de los candidatos a la fusión.
2. Método de la reivindicación 1, en el que cada uno de los bloques vecinos espaciales y temporales se codifica en un modo de predicción inter.
3. Método de la reivindicación 1 ó la reivindicación 2, en el que, cuando el bloque de codificación 2Nx2N se segmenta en un bloque de predicción Nx2N izquierdo y un bloque de predicción Nx2N derecho y el bloque de predicción en curso es el bloque de predicción Nx2N derecho del bloque de codificación, el bloque de predicción Nx2N izquierdo del bloque de codificación se excluye de los candidatos a la fusión.
4. Método de una cualquiera de las reivindicaciones 1 a 3, en el que los bloques vecinos espaciales incluyen un bloque de predicción vecino izquierdo, un bloque de predicción vecino superior izquierdo, un bloque de predicción vecino superior derecho o un bloque de predicción vecino inferior izquierdo.
5. Método de una cualquiera de las reivindicaciones 1 a 4,
en el que los bloques vecinos espaciales se corresponden con bloques de predicción vecinos adyacentes al bloque de predicción en curso dentro de una representación visual que incluye el bloque de predicción en curso.
6. Aparato configurado para llevar a cabo el método de una cualquiera de las reivindicaciones 1 a 5.
7. Método para codificar un flujo continuo de bits correspondiente a una señal de vídeo que comprende por lo menos un bloque de codificación, con un aparato de codificación, comprendiendo el método:
obtener, con el aparato de codificación, una pluralidad de bloques de predicción que se segmentan a partir del bloque de codificación;
codificar, con el aparato de codificación, información de bandera de fusión de un bloque de predicción en curso de la pluralidad de bloques de predicción en el flujo continuo de bits, indicando la información de bandera de fusión si el bloque de predicción en curso está codificado en un modo de fusión;
codificar, con el aparato de codificación, información de índice de fusión del bloque de predicción en curso en el flujo continuo de bits, especificando la información de índice de fusión un candidato a la fusión a fusionar con el bloque de predicción en curso de entre candidatos a la fusión que incluyen bloques vecinos espaciales y temporales del bloque de predicción en curso;
inferir, con el aparato de codificación, información de predicción del bloque de predicción en curso basándose en los candidatos a la fusión y la información de índice de fusión, de manera que la información de predicción incluye información de vector de movimiento e información de índice de referencia; y
codificar, con el aparato de codificación, el bloque de predicción en curso basándose en la información de predicción del bloque de predicción en curso,
en donde, cuando el bloque de codificación 2Nx2N se segmenta en un bloque de predicción 2NxN superior y un bloque de predicción 2NxN inferior y el bloque de predicción en curso es el bloque de predicción 2NxN inferior del bloque de codificación, el bloque de predicción 2NxN superior del bloque de codificación se excluye de los candidatos a la fusión.
8. Soporte de grabación legible por ordenador en el cual está almacenado el flujo continuo de bits generado con el método de la reivindicación 7.
9. Aparato configurado para llevar a cabo el método de la reivindicación 7.
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US33090210P | 2010-05-04 | 2010-05-04 | |
| US33327310P | 2010-05-11 | 2010-05-11 | |
| US41280110P | 2010-11-12 | 2010-11-12 | |
| US41443610P | 2010-11-17 | 2010-11-17 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2823480T3 true ES2823480T3 (es) | 2021-05-07 |
Family
ID=44904230
Family Applications (4)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES18192011T Active ES2823480T3 (es) | 2010-05-04 | 2011-05-04 | Método y aparato para procesar una señal de vídeo |
| ES22198173T Active ES3037154T3 (en) | 2010-05-04 | 2011-05-04 | Method for decoding and encoding a bitstream |
| ES11777580T Active ES2711614T3 (es) | 2010-05-04 | 2011-05-04 | Método y aparato para procesar una señal de vídeo |
| ES20176589T Active ES2936323T3 (es) | 2010-05-04 | 2011-05-04 | Método y aparato para codificar y descodificar una señal de vídeo |
Family Applications After (3)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES22198173T Active ES3037154T3 (en) | 2010-05-04 | 2011-05-04 | Method for decoding and encoding a bitstream |
| ES11777580T Active ES2711614T3 (es) | 2010-05-04 | 2011-05-04 | Método y aparato para procesar una señal de vídeo |
| ES20176589T Active ES2936323T3 (es) | 2010-05-04 | 2011-05-04 | Método y aparato para codificar y descodificar una señal de vídeo |
Country Status (14)
| Country | Link |
|---|---|
| US (9) | US9363520B2 (es) |
| EP (6) | EP3739883B1 (es) |
| KR (9) | KR102355933B1 (es) |
| CN (7) | CN104811734B (es) |
| DK (2) | DK2568706T3 (es) |
| ES (4) | ES2823480T3 (es) |
| FI (1) | FI3739883T3 (es) |
| HR (2) | HRP20230139T1 (es) |
| HU (4) | HUE061303T2 (es) |
| PL (4) | PL3739883T3 (es) |
| PT (2) | PT2568706T (es) |
| RS (1) | RS67039B1 (es) |
| SI (1) | SI3739883T1 (es) |
| WO (1) | WO2011139099A2 (es) |
Families Citing this family (88)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101619972B1 (ko) | 2008-10-02 | 2016-05-11 | 한국전자통신연구원 | 이산 여현 변환/이산 정현 변환을 선택적으로 이용하는 부호화/복호화 장치 및 방법 |
| CN104811734B (zh) | 2010-05-04 | 2018-04-13 | Lg电子株式会社 | 处理视频信号的方法和设备 |
| WO2012005520A2 (en) | 2010-07-09 | 2012-01-12 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding video by using block merging, and method and apparatus for decoding video by using block merging |
| US9357229B2 (en) | 2010-07-28 | 2016-05-31 | Qualcomm Incorporated | Coding motion vectors in video coding |
| CA3244389A1 (en) * | 2010-10-06 | 2025-06-13 | Ntt Docomo, Inc. | Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program |
| US9066102B2 (en) * | 2010-11-17 | 2015-06-23 | Qualcomm Incorporated | Reference picture list construction for generalized P/B frames in video coding |
| US10171813B2 (en) * | 2011-02-24 | 2019-01-01 | Qualcomm Incorporated | Hierarchy of motion prediction video blocks |
| JP5982734B2 (ja) * | 2011-03-11 | 2016-08-31 | ソニー株式会社 | 画像処理装置および方法 |
| EP3136727B1 (en) | 2011-04-12 | 2018-06-13 | Sun Patent Trust | Motion-video coding method and motion-video coding apparatus |
| US8891889B2 (en) | 2011-04-13 | 2014-11-18 | Huawei Technologies Co., Ltd. | Image encoding and decoding methods and related devices |
| CA2833893C (en) * | 2011-05-24 | 2024-02-27 | Panasonic Corporation | Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus |
| TR201819396T4 (tr) | 2011-05-27 | 2019-01-21 | Sun Patent Trust | Görüntü Kod Çözme Metodu Ve Görüntü Kod Çözme Cihazı |
| US9485518B2 (en) | 2011-05-27 | 2016-11-01 | Sun Patent Trust | Decoding method and apparatus with candidate motion vectors |
| US8989271B2 (en) | 2011-05-31 | 2015-03-24 | Panasonic Intellectual Property Corporation Of America | Decoding method and apparatus with candidate motion vectors |
| SG194746A1 (en) * | 2011-05-31 | 2013-12-30 | Kaba Gmbh | Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device |
| WO2012173415A2 (ko) | 2011-06-14 | 2012-12-20 | 삼성전자 주식회사 | 움직임 정보의 부호화 방법 및 장치, 그 복호화 방법 및 장치 |
| AU2012269583B2 (en) * | 2011-06-15 | 2015-11-26 | Hfi Innovation Inc. | Method and apparatus of motion and disparity vector prediction and compensation for 3D video coding |
| USRE47366E1 (en) | 2011-06-23 | 2019-04-23 | Sun Patent Trust | Image decoding method and apparatus based on a signal type of the control parameter of the current block |
| SG195163A1 (en) | 2011-06-23 | 2013-12-30 | Panasonic Corp | Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus |
| US9106919B2 (en) | 2011-06-24 | 2015-08-11 | Panasonic Intellectual Property Corporation Of America | Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus |
| HUE046468T2 (hu) | 2011-06-24 | 2020-03-30 | Sun Patent Trust | Kódoló eljárás és kódoló berendezés |
| BR112013030347B1 (pt) | 2011-06-27 | 2022-06-28 | Sun Patent Trust | Método de decodificação de imagem, método de codificação de imagem, aparelho de decodificação de imagem, aparelho de codificação de imagem e aparelho de codificação e de decodificação de imagem |
| CN107105254B (zh) | 2011-06-28 | 2020-03-20 | 太阳专利托管公司 | 编码方法及编码装置 |
| WO2013001767A1 (ja) | 2011-06-29 | 2013-01-03 | パナソニック株式会社 | 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置及び画像符号化復号装置 |
| CN107181948B (zh) | 2011-06-30 | 2020-03-13 | 太阳专利托管公司 | 图像编码方法、图像编码装置及图像编码解码装置 |
| ES2781868T3 (es) | 2011-06-30 | 2020-09-08 | Sun Patent Trust | Procedimiento de decodificación de imágenes, procedimiento de codificación de imágenes, dispositivo de decodificación de imágenes, dispositivo de codificación de imágenes y dispositivo de codificación/decodificación de imágenes |
| AU2012277219A1 (en) | 2011-06-30 | 2013-09-19 | Sun Patent Trust | Image decoding method, image encoding method, image decoding device, image encoding device, and image encoding/decoding device |
| US20140126645A1 (en) * | 2011-07-01 | 2014-05-08 | Electronics And Telecommunications Research Institute | Video encoding and decoding methods and device using same |
| WO2013005966A2 (ko) | 2011-07-01 | 2013-01-10 | 한국전자통신연구원 | 비디오 부호화 방법 및 복호화 방법과 이를 이용한 장치 |
| RU2714371C2 (ru) | 2011-07-11 | 2020-02-14 | Сан Пэтент Траст | Способ декодирования изображений, способ кодирования изображений, устройство декодирования изображений, устройство кодирования изображений и устройство кодирования и декодирования изображений |
| JP5830993B2 (ja) * | 2011-07-14 | 2015-12-09 | ソニー株式会社 | 画像処理装置及び画像処理方法 |
| AU2012291454B2 (en) | 2011-08-03 | 2016-11-17 | Sun Patent Trust | Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus |
| MX2014002347A (es) | 2011-08-29 | 2014-04-25 | Ibex Pt Holdings Co Ltd | Aparato para decodificar informacion de movimiento de modo de fusion. |
| DK3468197T3 (da) * | 2011-09-09 | 2022-05-16 | Lg Electronics Inc | Fremgangsmåde til interforudsigelse og indretning dertil |
| MX2013010155A (es) * | 2011-09-09 | 2013-12-02 | Kt Corp | Metodo para derivar un vector de movimiento predictivo temporal y aparato que usa el metodo. |
| MY164898A (en) * | 2011-09-29 | 2018-01-30 | Sharp Kk | Image decoding device, image decoding method, and image encoding device |
| JP5972888B2 (ja) | 2011-09-29 | 2016-08-17 | シャープ株式会社 | 画像復号装置、画像復号方法および画像符号化装置 |
| CN103858428B (zh) | 2011-10-19 | 2018-07-03 | 太阳专利托管公司 | 图像编码方法、图像编码装置、图像解码方法及图像解码装置 |
| US9571833B2 (en) | 2011-11-04 | 2017-02-14 | Nokia Technologies Oy | Method for coding and an apparatus |
| EP2942961A1 (en) * | 2011-11-23 | 2015-11-11 | HUMAX Holdings Co., Ltd. | Methods for encoding/decoding of video using common merging candidate set of asymmetric partitions |
| US8792745B2 (en) * | 2011-12-06 | 2014-07-29 | Sony Corporation | Encoder optimization of adaptive loop filters in HEVC |
| CN104012089B (zh) * | 2011-12-23 | 2017-11-28 | 韩国电子通信研究院 | 用于设置时间合并候选的参考画面索引的方法和设备 |
| CN104137549B9 (zh) | 2012-01-18 | 2020-06-05 | 韩国电子通信研究院 | 对图像进行编码和解码的方法及设备 |
| CN104282030A (zh) * | 2013-07-12 | 2015-01-14 | 富士通株式会社 | 图像压缩装置及方法 |
| US9281611B2 (en) | 2013-08-14 | 2016-03-08 | Lear Corporation | Electric connector with wire retainer tube |
| CN106105191B (zh) * | 2014-03-19 | 2018-08-10 | 株式会社Kt | 用于处理多视图视频信号的方法和装置 |
| USD794050S1 (en) | 2014-08-19 | 2017-08-08 | Fujifilm Corporation | Display screen for digital camera with transitional graphical user interface |
| US10397611B2 (en) | 2014-10-08 | 2019-08-27 | Lg Electronics Inc. | Method and device for encoding/decoding 3D video |
| CN112188204B (zh) * | 2014-10-31 | 2024-04-05 | 三星电子株式会社 | 使用高精度跳过编码的视频编码设备和视频解码设备及其方法 |
| CN116489348A (zh) * | 2015-11-20 | 2023-07-25 | 韩国电子通信研究院 | 对图像进行编/解码的方法和装置 |
| CN116506603A (zh) * | 2016-03-11 | 2023-07-28 | 数字洞察力有限公司 | 视频编码方法以及装置 |
| US10560718B2 (en) * | 2016-05-13 | 2020-02-11 | Qualcomm Incorporated | Merge candidates for motion vector prediction for video coding |
| CN116506597A (zh) * | 2016-08-03 | 2023-07-28 | 株式会社Kt | 视频解码方法、视频编码方法和视频数据的传送方法 |
| KR102471208B1 (ko) * | 2016-09-20 | 2022-11-25 | 주식회사 케이티 | 비디오 신호 처리 방법 및 장치 |
| JP2019535202A (ja) * | 2016-10-06 | 2019-12-05 | エルジー エレクトロニクス インコーポレイティド | インター予測モードベースの画像処理方法及びそのための装置 |
| JP6895247B2 (ja) * | 2016-10-06 | 2021-06-30 | 日本放送協会 | 符号化装置、復号装置及びプログラム |
| US20190364278A1 (en) * | 2016-11-18 | 2019-11-28 | Kt Corporation | Video signal processing method and device |
| KR20250130447A (ko) * | 2017-10-16 | 2025-09-01 | 디지털인사이트 주식회사 | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
| US11233996B2 (en) | 2018-02-22 | 2022-01-25 | Lg Electronics Inc. | Image decoding method and apparatus according to block division structure in image coding system |
| CN110505482B (zh) | 2018-05-16 | 2021-10-26 | 华为技术有限公司 | 一种编解码方法及装置 |
| WO2019219066A1 (zh) * | 2018-05-16 | 2019-11-21 | 华为技术有限公司 | 一种编解码方法及装置 |
| US10616574B2 (en) * | 2018-06-04 | 2020-04-07 | Tencent America LLC | Methods and apparatus for extended merge mode with adaptive grid size in video coding |
| CN119729008A (zh) * | 2018-06-08 | 2025-03-28 | 株式会社Kt | 对图像进行解码/编码的方法以及用于传送压缩视频数据的设备 |
| CN117615128A (zh) * | 2018-06-27 | 2024-02-27 | 数字洞察力有限公司 | 对图像进行编码/解码的方法和发送比特流的方法 |
| TWI744660B (zh) | 2018-06-29 | 2021-11-01 | 大陸商北京字節跳動網絡技術有限公司 | 運動估計區域改進 |
| US11671619B2 (en) | 2018-07-02 | 2023-06-06 | Intellectual Discovery Co., Ltd. | Video coding method and device using merge candidate |
| CN117241039A (zh) * | 2018-08-28 | 2023-12-15 | 华为技术有限公司 | 帧间预测方法、装置以及视频编码器和视频解码器 |
| WO2020094076A1 (en) | 2018-11-06 | 2020-05-14 | Beijing Bytedance Network Technology Co., Ltd. | Motion candidates for inter prediction |
| AU2019384016B2 (en) * | 2018-11-22 | 2023-03-02 | Huawei Technologies Co., Ltd. | An encoder, a decoder and corresponding methods for inter prediction |
| CN113170150B (zh) | 2018-12-03 | 2024-02-27 | 北京字节跳动网络技术有限公司 | 基于历史的运动矢量预测(hmvp)模式的部分修剪方法 |
| CN118573892A (zh) * | 2018-12-31 | 2024-08-30 | 北京达佳互联信息技术有限公司 | 用于在视频编解码中信令发送运动合并模式的系统和方法 |
| CN113056908B (zh) * | 2019-01-29 | 2024-04-05 | 深圳市欢太科技有限公司 | 视频字幕合成方法、装置、存储介质及电子设备 |
| US11533506B2 (en) * | 2019-02-08 | 2022-12-20 | Tencent America LLC | Method and apparatus for video coding |
| US20200288175A1 (en) * | 2019-03-06 | 2020-09-10 | Qualcomm Incorporated | Signaling of triangle merge mode indexes in video coding |
| US10742972B1 (en) * | 2019-03-08 | 2020-08-11 | Tencent America LLC | Merge list construction in triangular prediction |
| JP7377277B2 (ja) * | 2019-03-12 | 2023-11-09 | ベイジン ダージャー インターネット インフォメーション テクノロジー カンパニー リミテッド | 三角形予測のためのビデオ符号化復号化の方法及び装置 |
| EP3932060A4 (en) | 2019-03-23 | 2022-12-07 | Beijing Dajia Internet Information Technology Co., Ltd. | METHOD AND DEVICE FOR VIDEO CODING FOR TRIANGLE PREDICTION |
| CN113994672B (zh) * | 2019-04-25 | 2023-07-25 | 北京达佳互联信息技术有限公司 | 用于利用三角形预测进行视频编解码的方法和装置 |
| CN114009019B (zh) * | 2019-05-08 | 2025-04-18 | 北京达佳互联信息技术有限公司 | 用于在视频编解码中用信令传递合并模式的方法和装置 |
| WO2020251421A2 (en) * | 2019-10-03 | 2020-12-17 | Huawei Technologies Co., Ltd. | Method and apparatus of high-level syntax for non-rectangular partitioning modes |
| CN114762349B (zh) * | 2019-11-05 | 2024-04-12 | Lg电子株式会社 | 用于图像/视频编译的高级别语法信令方法和装置 |
| FI4044599T3 (fi) * | 2019-11-05 | 2024-03-25 | Lg Electronics Inc | Kuva/videokoodausmenetelmä ja -laite |
| WO2021091254A1 (ko) * | 2019-11-05 | 2021-05-14 | 엘지전자 주식회사 | 영상/비디오 코딩 시스템에서 픽처 헤더에서 슬라이스 타입에 관한 정보를 시그널링하는 방법 및 장치 |
| US11496755B2 (en) * | 2019-12-28 | 2022-11-08 | Tencent America LLC | Method and apparatus for video coding |
| JP7499854B2 (ja) * | 2019-12-30 | 2024-06-14 | 鴻穎創新有限公司 | ビデオデータをコーディングするデバイス及び方法 |
| JP7577749B2 (ja) * | 2020-01-14 | 2024-11-05 | 華為技術有限公司 | マージ・モードのための候補の数をシグナリングする方法及び装置 |
| CN115244925A (zh) | 2020-04-03 | 2022-10-25 | Oppo广东移动通信有限公司 | 一种帧间预测方法、编码器、解码器及存储介质 |
| CN120303931A (zh) * | 2022-11-25 | 2025-07-11 | 现代自动车株式会社 | 用于预测和修改编码树单元的分割结构的视频编码/解码方法和装置 |
Family Cites Families (30)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR100508798B1 (ko) | 2002-04-09 | 2005-08-19 | 엘지전자 주식회사 | 쌍방향 예측 블록 예측 방법 |
| US20040081238A1 (en) * | 2002-10-25 | 2004-04-29 | Manindra Parhy | Asymmetric block shape modes for motion estimation |
| KR100513732B1 (ko) | 2002-12-05 | 2005-09-08 | 삼성전자주식회사 | 3차원 객체 데이터 부호화 및 복호화 방법 및 장치 |
| EP1431919B1 (en) * | 2002-12-05 | 2010-03-03 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding and decoding three-dimensional object data by using octrees |
| MXPA05007384A (es) | 2003-01-07 | 2005-09-12 | Thomson Licensing Sa | Intra/inter codificacion mezclada de video de divisiones de macrobloque. |
| KR20060109247A (ko) | 2005-04-13 | 2006-10-19 | 엘지전자 주식회사 | 베이스 레이어 픽처를 이용하는 영상신호의 엔코딩/디코딩방법 및 장치 |
| KR20060105408A (ko) | 2005-04-01 | 2006-10-11 | 엘지전자 주식회사 | 영상 신호의 스케일러블 인코딩 및 디코딩 방법 |
| US8761252B2 (en) | 2003-03-27 | 2014-06-24 | Lg Electronics Inc. | Method and apparatus for scalably encoding and decoding video signal |
| JP2006333436A (ja) * | 2005-01-07 | 2006-12-07 | Ntt Docomo Inc | 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、及び、動画像復号プログラム |
| EP1878248A4 (en) | 2005-04-01 | 2012-11-21 | Lg Electronics Inc | METHOD FOR SCALABLE CODING AND DECODING A VIDEO SIGNAL |
| KR100878824B1 (ko) | 2005-04-01 | 2009-01-14 | 엘지전자 주식회사 | 스케일러블 비디오 신호 인코딩 및 디코딩 방법 |
| EP1878250A4 (en) | 2005-04-01 | 2012-11-28 | Lg Electronics Inc | METHOD OF ENCODING AND DECODING THAT CAN BE SCALED ON A VIDEO SIGNAL |
| US8660180B2 (en) | 2005-04-01 | 2014-02-25 | Lg Electronics Inc. | Method and apparatus for scalably encoding and decoding video signal |
| EP1880553A4 (en) * | 2005-04-13 | 2011-03-02 | Lg Electronics Inc | METHOD AND DEVICE FOR DECODING A VIDEO SIGNAL USING REFERENCE PICTURES |
| US7996041B2 (en) | 2005-04-15 | 2011-08-09 | Nokia Corporation | Apparatus and method for requesting initiation of a communication session using capability configuration parameters with card application toolkit |
| US8409624B2 (en) | 2005-04-19 | 2013-04-02 | Otsuka Pharmaceutical Factory, Inc. | Artificial cerebrospinal fluid |
| US8755434B2 (en) | 2005-07-22 | 2014-06-17 | Lg Electronics Inc. | Method and apparatus for scalably encoding and decoding video signal |
| CN101502119B (zh) * | 2006-08-02 | 2012-05-23 | 汤姆逊许可公司 | 用于视频编码的自适应几何分割方法和设备 |
| US8363936B2 (en) | 2006-08-25 | 2013-01-29 | Thomson Licensing | Method and apparatus for reduced resolution partitioning |
| KR101165212B1 (ko) * | 2007-01-08 | 2012-07-11 | 노키아 코포레이션 | 비디오 코딩에서 확장된 공간 스케일러빌러티를 위한 개선된 계층 예측 |
| CN101617538A (zh) * | 2007-01-08 | 2009-12-30 | 诺基亚公司 | 用于视频编码中扩展空间可分级性的改进层间预测 |
| JP5666293B2 (ja) * | 2007-04-12 | 2015-02-12 | トムソン ライセンシングThomson Licensing | ビデオ・エンコーディング、およびデコーディングのためのスキップ/ダイレクトモードのコンテクストに依存するマージのための方法と装置 |
| JP5801054B2 (ja) | 2007-06-12 | 2015-10-28 | トムソン ライセンシングThomson Licensing | スライスデータ用のマルチパスビデオのシンタックス構造をサポートする方法及び装置 |
| US8605786B2 (en) | 2007-09-04 | 2013-12-10 | The Regents Of The University Of California | Hierarchical motion vector processing method, software and devices |
| CN101472174A (zh) * | 2007-12-29 | 2009-07-01 | 智多微电子(上海)有限公司 | 视频解码器中用于复原原始图像数据的方法及装置 |
| CN104811734B (zh) * | 2010-05-04 | 2018-04-13 | Lg电子株式会社 | 处理视频信号的方法和设备 |
| PL2625855T3 (pl) | 2010-10-08 | 2021-06-14 | Ge Video Compression, Llc | Kodowanie obrazu wspierające partycjonowania bloków i scalanie bloków |
| MY164898A (en) * | 2011-09-29 | 2018-01-30 | Sharp Kk | Image decoding device, image decoding method, and image encoding device |
| BR122020014458B1 (pt) * | 2011-12-28 | 2022-05-10 | JVC Kenwood Corporation | Dispositivo de codificação de vídeo e método de codificação de vídeo |
| WO2013099285A1 (ja) * | 2011-12-28 | 2013-07-04 | 株式会社Jvcケンウッド | 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、並びに動画像復号装置、動画像復号方法及び動画像復号プログラム |
-
2011
- 2011-05-04 CN CN201510169327.6A patent/CN104811734B/zh active Active
- 2011-05-04 ES ES18192011T patent/ES2823480T3/es active Active
- 2011-05-04 CN CN201180022511.8A patent/CN102870414B/zh active Active
- 2011-05-04 EP EP20176589.8A patent/EP3739883B1/en active Active
- 2011-05-04 KR KR1020217029395A patent/KR102355933B1/ko active Active
- 2011-05-04 PT PT11777580T patent/PT2568706T/pt unknown
- 2011-05-04 EP EP22198173.1A patent/EP4135328B1/en active Active
- 2011-05-04 KR KR1020187019460A patent/KR101988327B1/ko active Active
- 2011-05-04 PL PL20176589.8T patent/PL3739883T3/pl unknown
- 2011-05-04 EP EP11777580.9A patent/EP2568706B1/en active Active
- 2011-05-04 PL PL22198173.1T patent/PL4135328T3/pl unknown
- 2011-05-04 DK DK11777580.9T patent/DK2568706T3/en active
- 2011-05-04 EP EP18192011.7A patent/EP3429205B1/en active Active
- 2011-05-04 CN CN201510171159.4A patent/CN104811735B/zh active Active
- 2011-05-04 KR KR1020127031002A patent/KR101789635B1/ko active Active
- 2011-05-04 PT PT181920117T patent/PT3429205T/pt unknown
- 2011-05-04 FI FIEP20176589.8T patent/FI3739883T3/fi active
- 2011-05-04 RS RS20250738A patent/RS67039B1/sr unknown
- 2011-05-04 HU HUE20176589A patent/HUE061303T2/hu unknown
- 2011-05-04 CN CN201510167465.0A patent/CN104811733B/zh active Active
- 2011-05-04 CN CN201510171203.1A patent/CN104811737B/zh active Active
- 2011-05-04 KR KR1020217004960A patent/KR102303515B1/ko active Active
- 2011-05-04 HU HUE18192011A patent/HUE052059T2/hu unknown
- 2011-05-04 KR KR1020227002357A patent/KR102415787B1/ko active Active
- 2011-05-04 DK DK18192011.7T patent/DK3429205T3/da active
- 2011-05-04 KR KR1020177029857A patent/KR101878148B1/ko active Active
- 2011-05-04 HU HUE22198173A patent/HUE072457T2/hu unknown
- 2011-05-04 WO PCT/KR2011/003350 patent/WO2011139099A2/ko not_active Ceased
- 2011-05-04 ES ES22198173T patent/ES3037154T3/es active Active
- 2011-05-04 ES ES11777580T patent/ES2711614T3/es active Active
- 2011-05-04 KR KR1020227022060A patent/KR102521802B1/ko active Active
- 2011-05-04 HU HUE11777580A patent/HUE043816T2/hu unknown
- 2011-05-04 KR KR1020207026429A patent/KR102219985B1/ko active Active
- 2011-05-04 CN CN201510171178.7A patent/CN104811736B/zh active Active
- 2011-05-04 ES ES20176589T patent/ES2936323T3/es active Active
- 2011-05-04 US US13/695,838 patent/US9363520B2/en active Active
- 2011-05-04 SI SI201132080T patent/SI3739883T1/sl unknown
- 2011-05-04 EP EP25151553.2A patent/EP4550789A1/en active Pending
- 2011-05-04 PL PL18192011T patent/PL3429205T3/pl unknown
- 2011-05-04 KR KR1020187024926A patent/KR102158700B1/ko active Active
- 2011-05-04 EP EP25151556.5A patent/EP4518323A3/en active Pending
- 2011-05-04 HR HRP20230139TT patent/HRP20230139T1/hr unknown
- 2011-05-04 PL PL11777580T patent/PL2568706T3/pl unknown
- 2011-05-04 HR HRP20250919TT patent/HRP20250919T1/hr unknown
- 2011-05-04 CN CN201510167359.2A patent/CN104811732B/zh active Active
-
2015
- 2015-02-18 US US14/624,739 patent/US9357218B2/en active Active
-
2016
- 2016-05-02 US US15/143,719 patent/US9936202B2/en active Active
-
2018
- 2018-04-02 US US15/942,897 patent/US10397580B2/en active Active
- 2018-12-19 US US16/225,858 patent/US10666947B2/en active Active
-
2020
- 2020-04-15 US US16/849,646 patent/US11006123B2/en active Active
-
2021
- 2021-04-26 US US17/240,282 patent/US11553185B2/en active Active
-
2022
- 2022-12-27 US US18/089,253 patent/US12069277B2/en active Active
-
2024
- 2024-07-09 US US18/767,539 patent/US20240364896A1/en active Pending
Also Published As
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2823480T3 (es) | Método y aparato para procesar una señal de vídeo | |
| ES2703607B2 (es) | Método y aparato para procesar señales de vídeo | |
| ES2995257T3 (en) | Image decoding method, image encoding method, and computer-readable storage medium encoded image information | |
| ES2908214T3 (es) | Filtración adaptativa de muestras de referencia para intra predicción usando líneas de píxeles distantes | |
| ES2699749B2 (es) | Método y aparato para procesar una señal de vídeo | |
| ES2699725B2 (es) | Metodo y aparato para procesar senal de video | |
| ES2848835T3 (es) | Método de predicción intra para decodificación y codificación vídeo | |
| ES2705357B1 (es) | Método para inducir un bloque candidato de fusión y dispositivo que usa el mismo | |
| ES2737874A2 (es) | Metodo y aparato para procesar senal de video | |
| ES2703458A2 (es) | Metodo y aparato para procesar senales de video |