[go: up one dir, main page]

ES3037154T3 - Method for decoding and encoding a bitstream - Google Patents

Method for decoding and encoding a bitstream

Info

Publication number
ES3037154T3
ES3037154T3 ES22198173T ES22198173T ES3037154T3 ES 3037154 T3 ES3037154 T3 ES 3037154T3 ES 22198173 T ES22198173 T ES 22198173T ES 22198173 T ES22198173 T ES 22198173T ES 3037154 T3 ES3037154 T3 ES 3037154T3
Authority
ES
Spain
Prior art keywords
prediction block
prediction
unit
block
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES22198173T
Other languages
English (en)
Inventor
Seungwook Park
Joonyoung Park
Jungsun Kim
Younghee Choi
Yongjoon Jeon
Jaewon Sung
Byeongmoon Jeon
Jaehyun Lim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Application granted granted Critical
Publication of ES3037154T3 publication Critical patent/ES3037154T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
  • Picture Signal Circuits (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Un método para decodificar un flujo de bits para una señal de vídeo que se realiza mediante un aparato de decodificación comprende obtener una pluralidad de bloques de predicción de un bloque de codificación, obtener información de bandera de fusión de un bloque de predicción actual de la pluralidad de bloques de predicción del flujo de bits, indicando la información de bandera de fusión si el bloque de predicción actual está codificado en un modo de fusión, obtener información de índice de fusión del bloque de predicción actual del flujo de bits, especificando la información de índice de fusión un candidato de fusión que se fusionará con el bloque de predicción actual de entre candidatos de fusión que incluyen bloques vecinos espaciales y temporales del bloque de predicción actual, derivar información de predicción del bloque de predicción actual basándose en los candidatos de fusión y la información de índice de fusión, incluyendo la información de predicción información de vector de movimiento e información de índice de referencia y realizar una predicción inter para el bloque de predicción actual basándose en la información de predicción del bloque de predicción actual. Dado que el bloque de codificación 2Nx2N se divide en un bloque de predicción izquierdo Nx2N y un bloque de predicción derecho Nx2N, y que el bloque de predicción actual es el bloque de predicción derecho Nx2N del bloque de codificación, el bloque de predicción izquierdo Nx2N del bloque de codificación se excluye de los candidatos a la fusión. Dado que el bloque de codificación 2Nx2N se divide en un bloque de predicción superior 2NxN y un bloque de predicción inferior 2NxN, y que el bloque de predicción actual es el bloque de predicción inferior 2NxN del bloque de codificación, el bloque de predicción superior 2NxN del bloque de codificación se excluye de los candidatos a la fusión. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Método para decodificar y codificar una corriente de bits
Campo técnico
La presente invención se refiere a un método y a un aparato para codificar o decodificar una señal de vídeo.Antecedentes de la técnica
Codificación por compresión se refiere a una tecnología de procesamiento de señales para transmitir información digitalizada a través de una línea de comunicaciones o almacenar dicha información en un formato que resulte adecuado para un soporte de almacenamiento. Se pueden codificar por compresión la voz, imágenes, caracteres, etc., y, en particular, a una tecnología para llevar a cabo la codificación de imágenes por compresión se le denomina compresión de imágenes de vídeo. La codificación por compresión de una señal de vídeo se puede llevar a cabo mediante la eliminación de información sobrante teniendo en cuenta la correlación espacial, la correlación temporal, la correlación probabilística, etc. No obstante, con el desarrollo reciente de diversos soportes y medios de transmisión de datos, existe una necesidad de un método y un aparato de procesamiento de señales de vídeo de alta eficiencia.
En la presentación “Video coding technology proposal by France Telecom, NTT, NTT DoCoMo, Panasonic and Technicolor” correspondiente a la 1a Reunión de JCT-VC del 15 de abril, 2010, al 23 de abril, 2010, en Dresde, del JOINT COLLABORATIVE TEAM ON VIDEO CODING OF ISO/IEC JTC1/SC29/WG11 AND ITU-TSG.16, publicada como documento JCTVC-A114, Amonou et al. describen un esquema de predicción temporal en el que se forma un conjunto de candidatos a vector de movimiento con tres predictores de vector de movimiento (contiguos izquierdo y superior, y un vector ubicado conjuntamente). A partir de este conjunto, se infiere un subconjunto de dos predictores de entre los cuales se selecciona el predictor óptimo sobre la base de la comparación de los dos primeros candidatos del conjunto completo. Basándose en su igualdad, el tercer predictor del conjunto completo sustituye o no el segundo del subconjunto. Para la predicción entre bloques, se puede establecer un tamaño de partición, por el cual una señal en una partición se predice usando parámetros de movimiento en un bloque de encima o a la izquierda. La señal de la otra partición se predice usando parámetros de movimiento que se han de descodificar para el bloque actual.
En la presentación “Test Model under Consideration (TMuC)” correspondiente a la 1a Reunión del JCT-VC del 15 de abril, 2010 al 23 de abril, 2010, en Dresde, del JOINT COLLABORATIVE TEAM ON VIDEO CODING OF ISO/IEC JTC1/SC29/WG11 AND ITU-TSG.16, publicada como documento JCTVC-A205, se describe un esquema de predicción que usa un proceso de inferencia para candidatos a predictor de vector de movimiento a partir de particiones de unidades de predicción contiguas. La predicción propuesta de vectores de movimiento para particiones rectangulares tiene en cuenta la distancia temporal de los fotogramas de referencia. Para reducir adicionalmente la tasa de bits requerida para transmitir los vectores de movimiento, se intercala la predicción y la codificación de los componentes de un vector de movimiento.
Descripción
Problema técnico
Uno de los objetivos de la presente invención concebida para resolver el problema reside en la reducción de la información de predicción transmitida, restaurando una unidad actual a través de un modo de fusión que usa información de predicción de otra unidad ya restaurada en la inter-predicción de la unidad actual.
Otro de los objetivos de la presente invención concebida para resolver el problema reside en implementar eficientemente un modo de predicción y en predecir de manera más precisa información de predicción de un bloque actual.
Todavía otro objetivo de la presente invención concebida para resolver el problema reside en seleccionar unidades candidatas a la fusión adecuadas y en determinar eficientemente una unidad que se ha de fusionar teniendo en cuenta características de la unidad actual y áreas contiguas fusionadas.
Todavía otro objetivo de la presente invención concebida para resolver el problema reside en proporcionar un método para mejorar la eficiencia en un método de señalización destinado a implementar un modo de predicción. Solución técnica
Los objetivos anteriores se resuelven por medio de la combinación de características de las reivindicaciones independientes 1,6, 10 y 11. En las reivindicaciones dependientes se definen realizaciones preferidas.
La presente invención se ha diseñado para resolver los problemas anteriores, y el método para procesar una señal de vídeo según la presente invención usa una estructura para dividir en particiones de manera recursiva una unidad de codificación en varias unidades de codificación, y un método para ello. Además, dicha unidad de codificación se divide en varias formas de unidades de predicción, y, de este modo, puede mejorarse la precisión de la compensación en la predicción de movimiento.
La presente invención puede usar un modo de fusión para incrementar la eficiencia de codificación. En este caso, se presenta un método de selección de unidades candidatas a la fusión en varias posiciones.
La presente invención presenta un método de señalización eficiente para especificar una unidad que se ha de fusionar entre unidades candidatas a la fusión. Además, la presente invención presenta un método para deducir una unidad que se ha de fusionar sin transmitir la información. Con este fin, se puede usar un método de determinación adaptativa de una unidad que se ha de fusionar teniendo en cuenta varias condiciones, tales como la posición de una unidad actual y unidades contiguas, el tamaño de la unidad, información de movimiento, etc. Efectos ventajosos
Según un método para procesar una señal de vídeo según la presente invención, se puede reducir la complejidad, que es necesaria para adquirir información de movimiento de una unidad actual, mediante la fusión entre unidades al llevar a cabo una inter-predicción, y se puede mejorar la eficiencia de codificación al no transmitir información de predicción de la unidad actual.
Además, características de imágenes u objetos dentro de las imágenes pueden verse bien reflejadas por la predicción y la fusión en diversos tamaños de unidad y unidades de partición, y es posible una predicción más precisa.
Además, la flexibilidad de la fusión se puede ampliar seleccionando unidades contiguas de varias posiciones como unidades que se han de fusionar, y se puede adquirir información de predicción más precisa.
Además, se pueden determinar de manera eficiente y adaptativa unidades candidatas a la fusión y/o unidades que se han de fusionar teniendo en cuenta varias condiciones, tales como las posiciones de una unidad actual y de unidades contiguas, el tamaño de la unidad, información de movimiento, etc.
Además, se establece la transmisión de información necesaria para un modo de fusión únicamente cuando es necesario, y se eliminan los casos innecesariamente redundantes, mejorándose así la eficiencia de codificación.
Descripción de los dibujos
La figura 1 es un diagrama de bloques esquemático de un dispositivo codificador de señales de vídeo según una realización ejemplar de la presente invención.
La figura 2 es un diagrama de bloques esquemático de un dispositivo decodificador de señales de vídeo según una realización ejemplar de la presente invención.
La figura 3 ilustra un ejemplo de división en particiones de una unidad de codificación.
La figura 4 ilustra varios métodos de división en particiones de una unidad de predicción y denominaciones de los tipos de partición.
La figura 5 ilustra un caso de división en particiones de manera asimétrica de una unidad de predicción.
La figura 6 ilustra un caso de división en particiones de manera geométrica de una unidad de predicción.
La figura 7 ilustra candidatos a la fusión en varias posiciones para una unidad actual.
La figura 8 ilustra un método para seleccionar candidatos a la fusión teniendo en cuenta el tamaño de una unidad. La figura 9 es un diagrama de flujo que ilustra un método para seleccionar una unidad que se ha de fusionar cuando hay dos candidatos a la fusión.
La figura 10 es un diagrama de flujo que ilustra un proceso de obtención de información que es necesario para un modo de fusión usando el número de candidatos a la fusión disponibles.
La figura 11 ilustra un método para determinar una unidad que se puede fusionar usando información de movimiento de una partición contigua cuando el modo de partición es del tipo NxN.
Las figuras 12 a 13 ilustran un método para deducir una unidad que se ha de fusionar.Las figuras 14 a 17 ilustran un método para deducir una unidad que se ha de fusionar en una partición específica. La figura 15(a) ilustra una realización según la presente invención en la que una unidad de codificación actual es dividida en una partición izquierda y una partición derecha. Cuando se aplica el modo de fusión a la partición derecha, la partición izquierda se excluye de los candidatos a la fusión para la partición derecha. Además, la figura 15(b) ilustra una realización según la presente invención en la que una unidad de codificación actual se divide en una partición superior y una partición inferior. Cunado el modo de fusión se aplica a la partición inferior, la partición superior se excluye del candidato de fusión para la partición inferior.
Modo para llevar a cabo la invención
A continuación se hará referencia detalladamente a las realizaciones preferidas de la presente invención, ilustrándose ejemplos de ellas en los dibujos adjuntos. En primer lugar, las terminologías o palabras usadas en esta memoria descriptiva y las reivindicaciones no se consideran como limitados a los significados generales o del diccionario, y deben considerarse como que tienen significados y conceptos que se corresponden con la idea técnica de la presente invención basándose en el principio de que un inventor puede definir adecuadamente los conceptos de las terminologías para describir una invención de la mejor manera posible. La realización descrita en esta descripción y las configuraciones mostradas en los dibujos adjuntos son simplemente una realización preferida, y no representan todas las ideas técnicas de la presente invención. Por lo tanto, se entiende que la presente invención cubre las modificaciones y variaciones de esta invención siempre que se sitúen dentro del alcance de las reivindicaciones adjuntas y sus equivalentes en el momento de presentar esta solicitud.
Los siguientes términos en la presente invención se pueden entender basándose en los siguientes criterios, e incluso términos que no se describen pueden entenderse según la intención que se describe a continuación. “Codificación” puede entenderse como codificación o decodificación dependiendo de la situación, e “información” incluye valores, parámetros, coeficientes, elementos, etc., y puede entenderse como un concepto adecuado dependiendo de la situación. “Pantalla” o “imagen” se refiere en general a una unidad para indicar una imagen en una zona de tiempo específica, y segmento, fotograma, etc., es una unidad destinada a formar parte de una imagen en codificación de una señal de vídeo real, pero puede ser intercambiable. “Píxel” o “Pel” se refiere a una unidad mínima para constituir una imagen. “Muestra” se puede usar como término para indicar el valor de un píxel específico. “Muestra” se puede dividir en elementos de luma y de croma, pero, en general, se usa como un término que incluye ambos elementos. En lo anterior, “Croma” indica una diferencia entre colores determinados, y comprende, en general, Cb y Cr. “Unidad” se ha usado para significar la unidad básica de un procesamiento de imágenes o una posición específica de una imagen, y se puede usar junto con términos tales como “bloque” o “área”.
La presente invención se refiere a un método y a un aparato para codificar o decodificar una señal de vídeo. La figura 1 es un diagrama de bloques esquemático de un dispositivo de codificación de señales de vídeo según una realización ejemplar de la presente invención. Con referencia a la figura 1, el dispositivo 100 de codificación de la presente invención incluye una unidad 110 de transformada, una unidad 115 de cuantificación, una unidad 120 de cuantificación inversa, una unidad 125 de transformada inversa, una unidad 130 de filtrado, una unidad 150 de predicción y/o una unidad 160 de codificación por entropía.
La unidad 110 de transformada obtiene un coeficiente de transformada transformando un valor de píxel correspondiente para una señal de vídeo de entrada. Algunos ejemplos de un método de transformada de este tipo son la transformada discreta de coseno (DCT), la transformada discreta de seno (DST), la transformada por ondículas, etc. La unidad 110 de transformada lleva a cabo una transformada dividiendo en particiones una señal de imagen de entrada en unidades de un cierto tamaño. A la unidad básica en la transformada se le denomina unidad de transformada. La eficiencia de codificación se puede cambiar de según la distribución y los atributos de valores dentro del área de la transformada.
La unidad 115 de cuantificación cuantifica un valor de un coeficiente de transformada emitido desde la unidad 110 de transformada. La unidad 120 de cuantificación inversa cuantifica inversamente el valor de coeficiente de transformada, y la unidad 125 de transformada inversa restaura un valor de píxel usando el valor de coeficiente de transformada cuantificado inversamente.
La unidad 130 de filtrado lleva a cabo una operación de filtrado con vistas a una mejora objetiva o subjetiva de la calidad de una imagen. Algunos ejemplos de los filtros usados en la unidad de filtrado son un filtro de desbloqueo y/o un filtro de bucle adaptativo, etc. La unidad 156 de almacenamiento almacena una imagen a la cual se ha aplicado el filtrado, para emitir la imagen o usar la imagen como una imagen de referencia.
En una codificación de vídeo general, una señal de imagen no se codifica como sí misma para mejorar la eficiencia de codificación, sino que se utiliza un método de predicción de una imagen usando un área ya codificada, y adquiriendo una imagen restaurada mediante la adición de un valor residual entre la imagen original y la imagen predicha a la imagen predicha. Algunos ejemplos del método de predicción de una imagen son la intra-predicción (predicción dentro de una pantalla), la inter-predicción (predicción entre pantallas), etc., y, por lo tanto, la unidad de predicción puede incluir una unidad 152 de intra-predicción y una unidad 154 de inter predicción. La unidad 152 de intra-predicción lleva a cabo una intra-predicción a partir de áreas restauradas dentro de la imagen actual, transmitiendo así la información de codificación dentro de la pantalla a la unidad 160 de codificación por entropía. La unidad 154 de inter-predicción obtiene un valor de vector de movimiento del área actual, y lleva a cabo una compensación de movimiento entre pantallas con referencia a un área específica, es decir, área de referencia, de otra imagen restaurada usando el valor de vector de movimiento adquirido. Además, la unidad 154 de inter-predicción transmite información de ubicación del área de referencia (información del fotograma de referencia, vector de movimiento, etc.) a la unidad 160 de codificación por entropía, de manera que la información se puede incluir en la corriente de bits.
La unidad 160 de codificación por entropía genera una corriente de bits de señal de vídeo codificando por entropía un coeficiente de transformada cuantificado, información de inter-codificación, información de intracodificación, información de área de referencia, etc. La unidad 160 de codificación por entropía puede usar una codificación de longitud variable (VLC), una codificación aritmética, etc. El método de codificación de longitud variable transforma símbolos de entrada en palabras de código consecutivas, y la longitud de la palabra de código puede ser variable. Por ejemplo, los símbolos generados de manera frecuente se expresan como palabras de código cortas, y los símbolos generados de manera no frecuente se expresan como palabras de código largas. Como un método de codificación de longitud variable se puede usar la Codificación de Longitud Variable Adaptativa basada en el Contexto (CAVLC). La codificación aritmética transforma símbolos de datos consecutivos en un número primo, y puede obtener un bit de número primo óptimo para expresar cada símbolo. Como codificación aritmética, se puede usar la Codificación Aritmética Binaria Adaptativa basada en el Contexto (CABAC).
La figura 2 es un diagrama de bloques esquemático de un dispositivo 200 de decodificación de señales de vídeo según una realización ejemplar de la presente invención. El funcionamiento del dispositivo 200 de decodificación se corresponde con el funcionamiento de cada parte del codificador, y lleva a cabo un proceso inverso de la operación correspondiente. Con referencia a la figura 2, el dispositivo 200 de decodificación de la presente invención puede incluir una unidad 210 de descodificación por entropía, una unidad 220 de cuantificación inversa, una unidad 225 de transformada inversa, una unidad 230 de filtrado y/o una unidad 250 de predicción, etc.
La unidad 210 de descodificación por entropía decodifica por entropía una corriente de bits de señal de vídeo, y, de este modo, extrae el coeficiente de la transformada e información de predicción, etc., para cada área. La unidad 220 de cuantificación inversa cuantifica inversamente el coeficiente de transformada decodificado por entropía, y la unidad 220 de cuantificación inversa cuantifica inversamente el coeficiente de transformada decodificado por entropía y restaura el valor de píxel original usando el coeficiente de transformada cuantificado inversamente.
Además, la unidad 230 de filtrado mejora la calidad de la imagen filtrando la misma. Aquí, se pueden incluir un filtro de desbloqueo para reducir un fenómeno de distorsión de bloques y/o un filtro de bucle adaptativo para eliminar la distorsión de la imagen completa, etc. La imagen, que ha sido filtrada, se emite o se almacena en la unidad 256 de almacenamiento para ser usada como imagen de referencia.
Además, la unidad 250 de predicción de la presente invención incluye una unidad 252 de intra-predicción y una unidad 254 de inter-predicción, y restaura una imagen de predicción utilizando información, tal como un tipo de codificación decodificada a través de la unidad 210 de decodificación por entropía antes mencionada, un coeficiente de transformada para cada área, un vector de movimiento, etc.
En este caso, la unidad 252 de intra-predicción lleva a cabo una intra-predicción a partir de la muestra decodificada dentro de la imagen actual, generando, así, una imagen de predicción. La unidad 254 de inter predicción genera una imagen de predicción usando un vector de movimiento y una imagen de referencia almacenada en la unidad 256 de almacenamiento. Cuando se adquiere un vector de movimiento, se puede usar un método tal como la predicción de vectores de movimiento y la competición de vectores de movimiento, etc.
El fotograma de vídeo restaurado se genera sumando el valor residual correspondiente para cada píxel restaurado a partir de la unidad de transformada inversa a la imagen de predicción, que es emitida desde la unidad 252 de intra-predicción o la unidad 254 de inter-predicción. Posteriormente se describirá el funcionamiento de la unidad 254 de inter-predicción, en particular varios métodos de procesamiento en el modo de fusión.
En lo sucesivo, se describirá, con referencia a las figuras 3 a 5, un método de división en particiones de una unidad de codificación y de una unidad de predicción, etc., en el funcionamiento del dispositivo 100 de codificación y del dispositivo 200 de decodificación. La unidad de codificación se refiere a una unidad básica para procesar una imagen en un proceso tal como el proceso antes descrito de procesamiento de una señal de vídeo, por ejemplo, intra o inter-predicción, transformada, cuantificación, codificación por entropía, etc. El tamaño de la unidad de codificación usada en la codificación de una imagen puede no ser consistente. La unidad de codificación puede tener una forma de cuadrilátero, y una unidad de codificación se puede dividir en particiones en varias unidades de codificación.
La figura 3 ilustra un ejemplo de división en particiones de una unidad de codificación según una realización ejemplar de la presente invención. Por ejemplo, una unidad de codificación que tiene un tamaño de 2N x 2N se puede dividir en particiones en cuatro unidades de codificación que tienen un tamaño de N x N. Dicha partición de la unidad de codificación se puede llevar a cabo recursivamente, y no es necesario que todas las unidades de codificación se dividan en particiones de la misma manera. No obstante, por comodidad en el proceso de codificación y procesamiento, puede haber una restricción sobre el tamaño máximo 310 y el tamaño mínimo 320. Si se determina el tamaño máximo de la unidad de codificación, al tamaño máximo se le denomina tamaño máximo de unidad de codificación, si se determina el tamaño mínimo, al tamaño mínimo se le denomina tamaño mínimo de unidad de codificación.
Para una unidad de codificación se puede indicar información sobre si la unidad de codificación se divide en particiones. Por ejemplo, si el valor de indicador, que indica si la unidad de codificación se ha de segmentar es 1, el bloque correspondiente al nodo se divide en particiones de nuevo en cuatro bloques, y si el valor de indicador es 0, el bloque ya no se divide en particiones, y puede llevarse a cabo el proceso de procesamiento de la unidad de codificación.
El bloque no se tiene que dividir en particiones necesariamente en cuatro áreas directas. En tal caso, códigos acerca de métodos de división en particiones predeterminados se pueden hacer corresponder con información de división en particiones. Por ejemplo, si el valor de la información es 1, el bloque se puede dividir en dos subbloques rectangulares horizontales, si el valor es 2, el bloque se puede dividir en dos subbloques rectangulares verticales, y si el valor es 3, el bloque se puede dividir en cuatro subbloques cuadrados. Un método de este tipo muestra algunos ejemplos del método de división en particiones, pero la presente invención no se limita a ellos.
La estructura de la unidad de codificación antes descrita se puede indicar usando una estructura de árbol recursiva. Es decir, la unidad de codificación, que se divide en particiones en otras unidades de codificación usando la imagen individual o la unidad de codificación de tamaño máximo como raíz, llega a tener nodos hijo, correspondientes al número de unidades de codificación segmentadas. Por tanto, la unidad de codificación, que ya no se divide más en particiones, resulta un nodo hoja. Suponiendo que, para una unidad de codificación, solamente es posible una división en particiones de tipo cuadrado, una unidad de codificación se puede dividir en particiones en un máximo de otras 4 unidades de codificación, y por lo tanto el árbol, que indica la unidad de codificación, puede tener un formato de árbol cuaternario. En lo sucesivo, por conveniencia en cuanto a la explicación, a la unidad de codificación que tiene el tamaño máximo de unidad de codificación se le denomina unidad de codificación más grande (LCU), y a la unidad de codificación que tiene el tamaño mínimo de unidad de codificación se le denomina unidad de codificación más pequeña (SCU).
En el codificador, el tamaño óptimo de la unidad de codificación se puede seleccionar según características de una imagen de vídeo (por ejemplo, una resolución) o teniendo en cuenta la eficiencia de la codificación, y, en la corriente de bits, se puede incluir información de la misma e información para dibujarla. Por ejemplo, se pueden definir el tamaño máximo de la unidad de codificación y la profundidad máxima del árbol. En el caso de una partición de tipo cuadrado, la altura y la anchura de la unidad de codificación son la mitad de la altura y la anchura de la unidad de codificación del nodo padre, y, por lo tanto, el tamaño mínimo de la unidad de codificación se puede calcular usando la información anterior. Además, y a la inversa, el tamaño mínimo de la unidad de codificación y la profundidad máxima del árbol se pueden definir de antemano, y el tamaño máximo de la unidad de codificación se puede deducir usando la información definida. En la partición de tipo cuadrado, el tamaño de la unidad se cambia a un formato de un múltiplo de 2, y, por lo tanto, el tamaño de la unidad de codificación real se indica como un valor logarítmico que tiene 2 como base, mejorándose así la eficiencia de transmisión.
En el decodificador se puede adquirir información que indica si la unidad de codificación actual antes descrita se ha dividido en particiones. La eficiencia se puede mejorar si dicha información se obtiene (o transmite) únicamente bajo una condición específica. Por ejemplo, si la unidad de codificación actual tiene el tamaño mínimo de unidad de codificación, la unidad no se divide en particiones en unidades de codificación más pequeñas, y, por lo tanto, en tal caso, no es necesario obtener información sobre si la unidad se ha dividido en particiones.
Si la información indica que la unidad de codificación se ha dividido en particiones, el tamaño de la unidad de codificación que se ha de dividir en particiones resulta la mitad del tamaño de la unidad de codificación actual, y la unidad de codificación se divide en particiones en cuatro unidades de codificación de tipo cuadrado sobre la base de la ubicación del procesamiento actual. El procesamiento anterior se puede repetir para cada unidad de codificación dividida en particiones.
La predicción de la imagen para la codificación se lleva a cabo para la unidad de codificación que ya no se divide en particiones adicionalmente (es decir, el nodo hoja del árbol de la unidad de codificación). La unidad de codificación se divide en una o más unidades de predicción (PU), bloques o particiones de predicción, y a una división de este tipo se le denomina también partición. La forma en la que una unidad se ha dividido en particiones se puede indicar mediante la información de tipo de unidad de predicción o la información de tipo de partición, etc. La figura 4 ilustra varios métodos de división en particiones de la unidad de predicción y un ejemplo de la denominación de tipo de división en particiones. Con referencia a la figura 4, una unidad de predicción que tiene un tamaño de 2N x 2N puede no ser dividida en particiones (tipo 2N x 2N), se puede dividir s en dos particiones rectangulares que tengan un tamaño de 2N x N (tipo 2N x N), se puede dividir en dos particiones rectangulares que tengan un tamaño de N x 2N (tipo N x 2N), o se puede dividir en cuatro particiones en forma de cuadriláteros que tengan un tamaño de N x N (tipo N x N). La unidad de predicción es una unidad básica para llevar a cabo la predicción, y la forma de partición de una unidad de predicción posible se puede definir de manera diferente en la unidad de intra-codificación y la unidad de inter-codificación. Por ejemplo, en la unidad de intra-codificación, solamente se puede permitir una partición de tipo 2N x 2N o N x N, y en la unidad de inter codificación, se puede permitir una partición de tipo 2N x 2N, 2N x N, N x 2N o N x N.
Si el tamaño de la unidad de codificación actual es mayor que el tamaño mínimo predeterminado de la unidad de codificación, la partición de tipo N x N no se puede permitir debido a que, en este caso, puede obtenerse el mismo resultado que en el caso en el que la unidad de codificación se divide en particiones nuevamente.
La partición no se lleva a cabo necesariamente de manera simétrica. La figura 5 ilustra un caso de partición asimétrica de una unidad de predicción.
Además, la partición de la unidad de predicción también es posible geométricamente. Tal como se muestra en la figura 6, pueden generarse particiones con formas diversas distintas de un cuadrilátero. En este caso, la unidad de predicción se puede dividir en dos particiones 610 y 620 a través de una línea 600 de partición arbitraria. La información de división en particiones se puede expresar como una distancia (p) desde el centro, y un ángulo (0) entre una línea perpendicular desde el centro (O) a la línea de partición y el eje básico (por ejemplo, eje x), etc. Dicha diversidad de formas de la partición de la unidad de predicción es ventajosa por cuanto es posible una predicción más precisa para una diversidad de formas de objetos incluidos en la imagen.
En la presente memoria descriptiva, a la unidad que se ha de codificar se le denomina unidad actual, y a la imagen que incluye la unidad actual se la denomina la imagen actual. Para restaurar la unidad actual, se puede utilizar la información descifrada dentro de la imagen actual o se puede utilizar la parte descifrada de otras imágenes. A la imagen (segmento) que utiliza únicamente la imagen en curso para la restauración, es decir, lleva a cabo únicamente una intra-predicción (predicción dentro de la pantalla), se le denomina una intra-imagen o imagen I (segmento), a la imagen (segmento) que usa un máximo de un vector de movimiento o índice de referencia para predecir cada unidad, se le denomina una imagen predictiva o imagen P (segmento), y a la imagen (segmento) que usa un máximo de dos vectores de movimiento e índices de referencia se le denomina imagen bi-predictiva o imagen B (segmento).
En la unidad de intra-predicción, se lleva a cabo la intra-predicción, que predice el valor de píxel de la unidad en cuestión a partir de las áreas restauradas dentro de la imagen actual. Por ejemplo, el valor de píxel de la unidad actual se puede predecir a partir de los píxeles codificados de las unidades, que están ubicados en los lados superior, izquierdo, superior izquierdo y/o superior derecho, sobre la base de la unidad actual.
El intra-modo se puede clasificar, en términos generales, en un modo vertical, un modo horizontal, un modo DC, un modo angular, etc., según la dirección del área de referencia en la que están ubicados los píxeles de referencia, que se usan en la predicción de los valores de píxel, y el método de predicción. El modo vertical usa el valor de un área contigua en vertical de la unidad en cuestión como valor de predicción de la unidad actual, y el modo horizontal usa, como área de referencia, el área contigua en horizontal. En el modo DC, como valor de predicción se usa el valor medio de las áreas de referencia. Además, el modo angular es un caso en el que el área de referencia está ubicada en una dirección arbitraria, y la dirección se puede indicar por el ángulo entre el píxel actual y el píxel de referencia. Por conveniencia, se pueden usar el ángulo predeterminado y el número de modo de predicción, y el número de ángulos usados se puede cambiar según el tamaño de la unidad en cuestión.
Con respecto a dicha diversidad de métodos de predicción se pueden definir y utilizar varios modos específicos. El modo de predicción se puede transmitir por el propio valor que indica el modo, aunque, para mejorar la eficiencia de transmisión, puede utilizarse el método de predicción del valor del modo de predicción de la unidad actual. En este caso, el modo de predicción de la unidad actual se puede adquirir basándose en la información sobre si el valor predicho en el modo de predicción se usa como él mismo en el decodificador y la diferencia con el valor real.
En la unidad de inter-predicción, se lleva a cabo la inter-predicción que predice el valor de píxel de la unidad en cuestión usando información de imágenes ya restauradas diferentes a la imagen actual. A la imagen usada en la predicción se le denomina imagen de referencia. El área de referencia que se utiliza en la predicción de la unidad actual en el proceso de inter-predicción se puede indicar usando el índice que indica la imagen de referencia que incluye el área de referencia (en lo sucesivo denominada como “índice de referencia”) e información de vector de movimiento, etc.
Algunos ejemplos de la inter-predicción (predicción entre pantallas) son la predicción en sentido directo, la predicción en sentido retrógrado y la bipredicción. La predicción en sentido directo es una predicción que utiliza una imagen de referencia visualizada (o emitida) temporalmente antes de la imagen actual, y la predicción en sentido inverso es una predicción que usa una imagen de referencia visualizada (o emitida) temporalmente después de la imagen actual. Con este fin, puede que sea necesario un conjunto de información de movimiento (por ejemplo, un vector de movimiento y un índice de imagen de referencia). En la bipredicción, puede utilizarse un máximo de dos áreas de referencia, y estas dos áreas de referencia pueden existir en la misma imagen de referencia, y pueden existir en imágenes diferentes. Las imágenes de referencia se pueden visualizar (o emitir) temporalmente tanto antes como después de la imagen actual. En el método de bipredicción, puede utilizarse un máximo de dos conjuntos de información de movimiento (por ejemplo, un vector de movimiento y un índice de imagen de referencia).
La información de movimiento de la unidad de predicción actual puede incluir la información de vector de movimiento y el índice de imagen de referencia. La Información de vector de movimiento puede significar el vector de movimiento, el valor de predicción del vector de movimiento, o el vector de movimiento diferencial, o también puede significar información de índice que especifique un valor de predicción del vector de movimiento. El vector de movimiento diferencial significa una diferencia entre el vector de movimiento y un valor de predicción del vector de movimiento.
El bloque de referencia de la unidad de predicción actual se puede adquirir usando el vector de movimiento y el índice de imagen de referencia. El bloque de referencia existe dentro de la imagen de referencia que tiene el índice de imagen de referencia. Además, el valor de píxel del bloque especificado por el vector de movimiento se puede utilizar como predictor de la unidad de predicción actual. Es decir, se usa la compensación por movimiento, que predice la imagen de la unidad de predicción actual estimando el movimiento a partir de la imagen decodificada previamente.
Además de la imagen actual, la lista de imágenes de referencia puede estar constituida por imágenes usadas para la inter-predicción. Un segmento B necesita dos listas de imágenes de referencia, y las listas se denominan, respectivamente, como lista 0 de referencia y lista 1 de referencia. Entre segmentos B, al segmento en el que la lista 0 de referencia es igual a la lista 1 de referencia se le denomina, en particular, segmento GPB.
Para reducir la cantidad de transmisión relacionada con el vector de movimiento, el valor de predicción del vector de movimiento se puede adquirir usando la información de movimiento de las unidades codificadas, y se puede transmitir solamente la diferencia del vector de movimiento. En el decodificador, el valor de predicción del vector de movimiento de la unidad actual se puede adquirir usando información de movimiento de otras unidades decodificadas, y el valor del vector de movimiento en la unidad actual se puede adquirir usando la diferencia transmitida. Cuando se adquiere el valor de predicción del vector de movimiento, puede usarse un método de competición de vectores de movimiento, método que adquiere diversos valores de candidatos de vector de movimiento usando la información de movimiento de las unidades ya codificadas y adquiere un valor de predicción de vector de movimiento entre los valores candidatos.
La información de predicción (por ejemplo, el índice de referencia, el vector de movimiento, la dirección de la predicción, etc.), que es necesaria en la inter-predicción de la unidad actual, no se incluye directamente en la corriente de bits cuando se transmite, y se puede deducir usando la unidad contigua. Usando un método de este tipo, se puede mejorar la tasa de compresión utilizando el número de bits asignados a la información de predicción. Específicamente, como información de predicción de la unidad actual se puede utilizar la información de predicción de la unidad contigua codificada usando la inter-predicción. Cuando se usa un método de este tipo, se expresa que la unidad actual se ha fusionado con la unidad contigua que entregó información de predicción, y a dicho método de predicción se le denomina modo de fusión.
Para el modo de fusión, la corriente de bits puede incluir información que indique si la unidad actual se ha fusionado (por ejemplo, un indicador como merge_flag), información de fusión que indique qué unidad contigua se ha fusionado con la unidad actual (por ejemplo, un indicador que indique si la unidad actual se ha fusionado con una cierta contigua, o información de índice que indique una cierta contigua, etc.), etc. La información que indica qué unidad contigua se ha fusionado con la unidad actual se puede establecer de manera que sea adquirida únicamente cuando se indique que la unidad actual se ha fusionado (en el ejemplo anterior, cuando merge_flag sea verdadero o 1).
Además, cuando se usa el modo de inter-predicción, se puede aplicar el modo de salto en unidades de la unidad de codificación. El modo de salto es un método de predicción que transmite únicamente cierta información (por ejemplo, información que indica cuál de los diversos candidatos de predicción de vectores de movimiento se usará) entre información para la restauración de predicción de las unidades actuales. En este caso, se puede utilizar como ella misma información de otras unidades ya codificadas. Cuando se usa el modo de salto, se puede reducir la cantidad de información transmitida y, por lo tanto, en primer lugar, se determina si la unidad de codificación está en el modo de salto y, en caso contrario, se puede usar otro modo (por ejemplo, un modo de fusión, un modo de predicción directa o un modo de inter-predicción general).
El modo de fusión se puede aplicar en unidades de la unidad de codificación, o se puede aplicar en unidades de la unidad de predicción. En caso de que el modo de fusión se aplique en unidades de la unidad de codificación, se transmite un indicador, que indica si aplicar fusión a cada unidad de codificación mínima que usa un modo de inter-predicción. Tal como se ha descrito anteriormente, el modo de salto se puede aplicar a la unidad de codificación y, por lo tanto, después de comprobar, en primer lugar, si el modo de salto se ha de aplicar en unidades de la unidad mínima de codificación (por ejemplo, usando un método tal como análisis sintáctico y comprobación del indicador que indica si aplicar el modo de omisión), únicamente cuando no se aplica el modo de salto, se puede adquirir el indicador de aplicación del modo de fusión.
Tal como se ha descrito anteriormente, la unidad de codificación se puede dividir en particiones de diversas maneras en unidades de la unidad de predicción. En caso de aplicar el modo de fusión en unidades de la unidad de predicción, el indicador de fusión se obtiene, respectivamente, para todas las particiones de modo inter en las cuales no se aplica el modo de salto (o el modo de predicción directa).
En lo sucesivo, se describe el funcionamiento específico del modo de fusión. Cuando se opera en el modo de fusión, la unidad que ha de ser objetivo puede incluir tanto las unidades de la unidad de codificación como de la unidad de predicción (partición).
A las unidades que se pueden fusionar con la unidad actual se les denomina candidatos a la fusión. Los candidatos a la fusión se pueden seleccionar como unidades adyacentes a la unidad actual entre unidades ya restauradas. A la unidad que se fusiona con la unidad actual, es decir, la unidad que lleva la información de predicción, se le denomina unidad a fusionar. Con el fin de determinar la unidad que se ha de fusionar, se puede utilizar información, obtenida a partir de la corriente de bits, que indique qué unidad contigua se ha fusionado, y la unidad que se ha de fusionar se puede deducir usando una regla específica.
En lo sucesivo, se describirán, con referencia a las figuras 7 y 8, los tipos de unidades, que pueden resultar candidatas a la fusión basándose en la unidad actual, se describirá, con referencia a las figuras 9 y 10, el método para transmitir información necesaria para la fusión, y se describirán, con referencia a las figuras 11 a 17, diversas realizaciones para deducir la unidad a fusionar entre unidades candidatas a la fusión.
La figura 7 ilustra candidatos a la fusión en diversas posiciones para una unidad actual. Los candidatos a la fusión pueden existir dentro de la imagen actual 700 en la que está ubicada la unidad actual, o pueden existir dentro de otra imagen 750 ya restaurada. A las unidades dentro de la imagen actual se les puede denominar candidatas a la fusión espaciales, y a las unidades dentro de otra imagen se les puede denominar candidatas a la fusión temporales. Algunos ejemplos de candidatas a la fusión espaciales son las unidades 710 del área izquierda adyacente a la unidad actual, las unidades 720 del área superior, y/o las unidades del área de esquina (C, C-1, C-2). Las candidatas a la fusión temporales pueden resultar unidades (D) ubicadas en una posición específica de otra imagen, por ejemplo, una posición correspondiente a la unidad actual, etc. Incluso cuando la figura 7 ilustra unidades de un tamaño específico, el tamaño de cada unidad puede variar dependiendo del nivel de dividido en particiones según se ha descrito anteriormente.
Con vistas a la eficiencia en la codificación, los candidatos a la fusión se pueden seleccionar como un cierto número de unidades teniendo en cuenta la eficiencia en la codificación y la complejidad del cálculo entre las posiciones.
Algunos ejemplos de los candidatos a la fusión son la unidad más superior (A) entre las unidades del área izquierda, una unidad (A-1) seleccionada entre las unidades del área izquierda excepto A, la unidad más a la izquierda (B) entre las unidades del área superior, una unidad (B-1) seleccionada entre las unidades del área superior excepto B, la unidad (C) en la esquina superior derecha, la unidad (C-1) en la esquina inferior izquierda, la unidad (C-2) en la esquina superior izquierda, y una unidad (D) correspondiente a otra imagen. Es evidente que, cuando hay solamente una unidad adyacente a la unidad actual en el área izquierda o superior, no hay ninguna unidad seleccionada adicionalmente.
De manera similar, es posible constituir candidatos a la fusión con la unidad seleccionada procedente del área izquierda, la unidad seleccionada procedente del área superior, las unidades del área de esquina (C, C-1, C-2) y la unidad (D) correspondiente a otra imagen, etc. Aquí, el número de unidades que se seleccionan en el área izquierda o superior, puede ser preferiblemente una (en este caso, el número máximo de candidatos a la fusión sería 6), o un número específico predeterminado. Las unidades del área de esquina también se pueden usar seleccionando solamente algunas de las unidades en función de las necesidades.
Para simplificar, se puede determinar el número menor de unidades como candidatos a la fusión. Por ejemplo, la unidad más superior (A) entre las unidades del área izquierda, la unidad (B) de más a la izquierda entre las unidades del área superior, la unidad (C) en la esquina superior derecha, la unidad (C-1) en la esquina inferior izquierda, y una unidad (D) correspondiente a otra imagen, etc., pueden resultar candidatos a la fusión. En este caso, el número máximo de candidatos a la fusión sería 5.
De manera más simple, únicamente dos unidades, por ejemplo, la unidad más superior (A; a la que en lo sucesivo se hará referencia como unidad contigua superior) entre las unidades del área izquierda, y la unidad más a la izquierda(B; a la que, en lo sucesivo , se hará referencia como unidad contigua izquierda) entre las unidades del área superior pueden resultar candidatas a la fusión.
Tal como se ha mencionado anteriormente, el tamaño de la unidad puede variar dependiendo del nivel de partición o del modo de partición. Por tanto, los candidatos a la fusión se pueden determinar teniendo en cuenta el tamaño de la unidad así como la posición (más a la izquierda o más superior, etc.). Por ejemplo, la selección se puede realizar basándose en la longitud del borde adyacente a la unidad actual. Es decir, se selecciona la unidad que es tangente al contorno más largo entre las unidades de las áreas izquierda o superior adyacentes a la unidad actual. Con referencia a la figura 8, por ejemplo, las unidades B, C y D están posicionadas en el área superior adyacente a la unidad actual X. Tal como se ha descrito anteriormente, las unidades B y C pueden ser unidades de codificación que se han dividido en particiones una vez más en comparación con la unidad D, o se pueden haber dividido en particiones en un modo (N x N) diferente al modo de la unidad D (2N x 2N). Entre las unidades B, C y D, la unidad D es tangente a la unidad actual X por el contorno más largo, y, por lo tanto, la unidad D se selecciona como candidata a la fusión entre las unidades contiguas superiores. También es posible seleccionar una o más unidades en el orden anterior entre las unidades contiguas superiores B, C y D. Los candidatos a la fusión también se pueden seleccionar teniendo en cuenta el área de la unidad además de la longitud del contorno adyacente.
En caso de que el número máximo de los candidatos a la fusión sea 2, la información sobre cuál de los dos candidatos se fusionará puede venir indicada por un indicador de un bit. La figura 9 es un diagrama de flujo que ilustra un proceso de selección de una unidad que se ha de fusionar en el ejemplo anterior, en el cual la unidad contigua izquierda A o la unidad contigua derecha B resulta el candidato a la fusión. En primer lugar, se adquiere (S901) un indicador A de fusión A (merge_flag) que indica si la unidad actual está codificada en un modo de fusión. Si la unidad actual está codificada en un modo de fusión sobre la base de la información del indicador fusión (es decir, merg_flag = VERDADERO o 1), se adquiere (S930) el indicador de sentido de fusión (merge_left_flag) que indica con qué unidad se ha fusionado. El indicador de dirección de fusión tiene el valor VERDADERO (o 1) cuando se fusiona con la unidad contigua izquierda, y tiene FALSO (o 9) cuando se fusiona con la unidad contigua superior. Por tanto, si el valor del indicador de dirección de fusión es 1 (S940), la información de predicción de la unidad contigua izquierda A se usa como información de predicción de la unidad actual X (S950), y si el valor del indicador de la dirección de fusión es 0, se usa la información de predicción de la unidad contigua superior B como la información de predicción de la unidad actual X (S970). En caso de que el indicador de fusión indique un caso diferente al modo de fusión, la información de predicción de la unidad actual se adquiere usando un modo de predicción general (S960). En lo anterior, el indicador de la dirección de fusión es meramente una cierta realización, y, por lo tanto, dicho indicador no indica necesariamente la fusión con la unidad contigua izquierda y se puede usar como un formato que indique si se ha de fusionar con una unidad específica entre candidatos a la fusión.
En caso de que el número máximo de candidatos a la fusión sea dos o más, la unidad que se ha de fusionar no se puede especificar solamente con la información del indicador, y, por lo tanto, es necesario utilizar otros métodos. Por ejemplo, se puede usar información de índice (merge index) sobre qué unidad entre los candidatos a la fusión se fusionará, es decir, información que especifica la unidad a fusionar. El índice se puede fijar en un cierto orden, o se puede cambiar de manera adaptativa según la situación.
Además, según una realización ejemplar de la presente invención, la información anterior se puede transmitir de manera más eficiente dependiendo del caso. Es decir, en una cierta condición en la que no es necesario transmitir la información anterior, puede omitirse la transmisión de dicha información.
La figura 10 es un diagrama de flujo que ilustra un proceso de obtención de información que es necesaria para un modo de fusión usando el número de candidatos a la fusión disponibles. En primer lugar, se determina el número de candidatos a la fusión (NumCandidate) que puede ser usado por la unidad actual, comprobando las posiciones de los candidatos a la fusión antes descritos (S1010). Estar disponible significa aquí que la unidad actual puede obtener información de predicción a partir de la unidad candidata a la fusión. Es decir, este es el caso en el que la unidad existe en la posición, la unidad está codificada en el modo inter y tiene información de predicción, y ya ha sido descodificada. Si el número de candidatos a la fusión disponibles es 0, no se puede aplicar el modo de fusión, y, por lo tanto, no es necesario transmitir el indicador de fusión (merge_flag), que indica si se ha de realizar una fusión. En este caso, la información de predicción de la unidad actual se obtiene usando un modo de inter-predicción general (S1070). Por lo tanto, comprobando el tamaño del número de candidatos a la fusión disponibles (NumCandidate) (S1020), el indicador de fusión (merge_flag) se obtiene únicamente cuando el número de los candidatos a la fusión es mayor de 0 (S1030). En caso de que el número de los candidatos a la fusión es 1, un candidato a la fusión se puede determinar como la unidad que se ha de fusionar. Por tanto, no es necesario transmitir por separado información (indicador o índice) sobre la unidad con la que se fusiona la unidad actual, y, de este modo, solamente en caso de que el indicador que indica si se va a realizar una fusión sea 1 y el número de candidatos a la fusión sea mayor de 1 (S1040). La unidad que se ha de fusionar se determina basándose en la información de fusión obtenida, y la información de predicción de la unidad que se ha de fusionar se usa como información de predicción de la unidad actual (S1060).
En el caso en el que el tipo de partición de la unidad de codificación de un tamaño 2N x 2N sea 2N x 2N, es decir, en el caso en el que la unidad de codificación esté constituida por una partición, puede usarse el modo de predicción directa. Por tanto, en este caso, el número de candidatos a la fusión (NumCandidates) se establece en 0 con independencia de la información de movimiento de la unidad contigua, y, de este modo, se puede establecer que el modo de fusión no se aplique a la unidad de codificación y también se puede establecer que no se transmita información relacionada.
No obstante, en este caso, puede que resulte imposible que la información de predicción de la unidad actual (dirección de predicción, índice de referencia, vector de movimiento, etc) sea expresada por el modo de predicción de dirección 2N x 2N. También puede que resulte necesario usar un modo mejorado de predicción de dirección para compensar una pérdida generada en tal caso.
Según una realización ejemplar de la presente invención, puede realizarse una señalización variable según el número de candidatos a la fusión. Por ejemplo, en caso de que el número de candidatos a la fusión, que resulten posibles para la unidad actual, sea 3, se transmite información para distinguir de 0 a 2, y en caso de que el número de los posibles candidatos a la fusión sea 2, se transmite únicamente información para distinguir 0 y 1. En este caso, existe la ventaja de que el número de bits asignados al índice se puede reducir cuando el número de candidatos a la fusión es pequeño.
Es posible usar un método de cambio de las unidades que pertenecen a los candidatos a la fusión después de establecer el número máximo de candidatos. Por ejemplo, se comprueban en orden posiciones predeterminadas, y solamente las unidades correspondientes, en número, al número máximo de candidatos resultan los candidatos a la fusión, y la unidad que se ha de fusionar se selecciona solamente entre los candidatos a la fusión. Por ejemplo, se supone que el número máximo de candidatos es 4, y los candidatos a la fusión se comprueban en el orden de A, B, C, C-1 y D. Si está disponible la totalidad de las unidades anteriores, las cuatro unidades A, B, C y C-1 resultan los candidatos a la fusión según el orden. Si la unidad C no está disponible en el ejemplo anterior, como candidatos a la fusión se determinarán cuatro unidades A, B, C-1 y D. Si el número de candidatos a la fusión disponibles es menor que el número máximo de candidatos, es posible usar el método de señalización variable antes explicado, según el número de candidatos a la fusión.
Cuando el modo de partición es del tipo N x N, es decir, la unidad de codificación está constituida por cuatro particiones en forma de cuadriláteros, la condición para determinar candidatos a la fusión disponibles se puede añadir en la cuarta partición. Una condición de este tipo se puede usar en el proceso de contar el número de candidatos a la fusión disponibles o de deducir las unidades que se han de fusionar. Con referencia a la figura 11, por ejemplo, en el caso de la partición n.° 3, la partición con la cual se puede fusionar de manera adaptativa la partición actual se determina según la información de movimiento de otras tres particiones (partición n.° 0 a 2).
Por ejemplo, cuando la partición n. ° 0 y la partición n. ° 1 tienen la misma información de movimiento, y la partición n. ° 2 tiene una información de movimiento diferente, la partición n. ° 3 no se puede fusionar con la partición n. ° 2 ya que, en tal caso, la partición sería redundante con la partición de un tipo 2N x N. Por lo tanto, en este caso, la partición n. ° 2 queda exenta de los candidatos a la fusión.
Cuando la partición n. ° 0 y la partición n. ° 2 tienen la misma información de movimiento, y la partición n. ° 1 tiene información de movimiento diferente, la partición n. ° 3 no se puede fusionar con la partición n. ° 1 debido a que, en tal caso, la segmentación sería redundante con la partición de un tipo N x 2N. Por lo tanto, en este caso, la partición n. ° 3 queda exenta de los candidatos a la fusión.
Cuando la partición n. ° 0, la partición n. ° 1 y la partición n. ° 2 tienen, todas ellas, la misma información de movimiento, la partición n. 3 no se puede fusionar con ninguna de la partición n. ° 1 y la partición n. ° 2 ya que, en tal caso, la partición sería redundante con la partición del tipo 2N x 2N. Por lo tanto, en este caso, la partición n. ° 1 y la partición n. ° 2 quedan exentas de los candidatos a la fusión.
Además, con el fin de reducir el número de bits para la transmisión de información para determinar una unidad que se ha de fusionar, en lugar de transmitir la información, puede usarse un método de deducción de la unidad que se ha de fusionar según una cierta regla. En lo sucesivo en la presente, con referencia a la figura 12, se describirá un método de determinación de la unidad que se ha de fusionar entre unidades candidatas a la fusión disponibles. En la figura 12, se supone que solamente las unidades A y B son unidades candidatas a la fusión para conveniencia de la explicación, pero las unidades de las diversas posiciones antes descritas pueden resultar las candidatas a la fusión.
Según con una realización ejemplar de la presente invención, la unidad que se ha de fusionar se puede seleccionar sobre la base de la longitud del contorno según el cual la unidad actual es tangente a la unidad contigua. Con referencia a la figura 12(a), por ejemplo, el contorno entre la unidad actual X y la unidad contigua superior A es mayor que el contorno entre la unidad actual A y la unidad contigua izquierda B, y, por lo tanto, la unidad que se ha de fusionar se selecciona como unidad contigua superior A. Es decir, la unidad actual X se fusiona con la unidad contigua superior A, y, como información de predicción de la unidad actual X, se usa la información de predicción de la unidad contigua superior A.
Según una realización ejemplar de la presente invención, la unidad, que tiene un vector de movimiento más similar a la unidad contigua de una cierta posición (por ejemplo, superior izquierda) entre las unidades contiguas de la unidad actual, se puede seleccionar como la unidad que se ha de fusionar de la unidad actual. Con referencia a la figura 12(b), por ejemplo, la unidad contigua superior A tiene un vector de movimiento que es más similar a la unidad contigua superior izquierda C que la unidad contigua izquierda B, y, por lo tanto, como unidad a fusionar, se selecciona la unidad contigua superior A.
Según una realización ejemplar de la presente invención, como unidad que se ha de fusionar se puede seleccionar la unidad con un área más amplia entre los candidatos a la fusión. Con referencia a la figura 12(c), por ejemplo, el área de la unidad contigua izquierda B es mayor que la unidad superior A, y, por tanto, como unidad que se ha de fusionar se selecciona la unidad contigua izquierda B.
Además, las realizaciones anteriores se pueden combinar con un cierto orden de prioridad.
Según una realización ejemplar de la presente invención, cuando se usa un modo de fusión, la unidad actual se divide en particiones geométricamente de manera automática, y cada área de partición se fusiona con la unidad contigua adyacente. Con referencia a la figura 13, por ejemplo, la unidad actual se divide en particiones como X1 y X2 a lo largo de la línea 1300 de partición. La línea 1300 de partición se determina usando la distancia Euclidiana de las unidades contiguas A y B que son candidatas a la fusión. Consecuentemente, X1 se fusiona con A, y X2 se fusiona con B.
Además, en la unidad dividida en particiones, cuando no hay ningún área adyacente o si hay solamente un área adyacente, la unidad que se ha de fusionar se puede deducir sin transmitir información específica.
Según una realización ejemplar de la presente invención, en el caso de una partición geométrica, puede que no haya ningún área restaurada adyacente. La figura 14 ilustra un caso en el que la unidad actual se ha dividido en particiones geométricamente.
En este caso, la unidad actual se divide en dos particiones, es decir, X1 y X2, y X2 no es adyacente a la región reconstruida. Aquí, en el caso de la partición X2, no se puede permitir la fusión con X1. Esto es debido a que, cuando X1 y X2, que pertenecen a la misma unidad de codificación, tienen la misma información de predicción debido a la fusión, no hay necesidad de partición. Por lo tanto, en una situación de este tipo, el modo de fusión no se puede aplicar a la partición X2. En este caso, como en el caso en el que el número de candidatos a la fusión disponibles es 0, tanto el indicador que indica si se ha de producir una fusión como la información que indica la unidad que se ha de fusionar no pueden ser obtenidos.
La figura 15 ilustra un caso en el que la unidad actual se divide en dos particiones rectangulares. Con referencia a la figura 15(a), en el caso de la partición X2, el área superior es adyacente al área restaurada, pero el área izquierda es adyacente a la partición X1 que pertenece a la misma unidad de codificación. De manera similar a la descripción anterior, la situación en la que la partición X2 se fusiona con la partición X1, que pertenece a la misma unidad de codificación, y que acaba teniendo la misma información de predicción, es redundante con el caso sin división en particiones, y, por lo tanto, es necesario que se produzca una exención de dicho caso. Por lo tanto, en el caso de X2, puede ser necesario aplicar el modo de fusión, pero las unidades del área izquierda no pueden ser candidatas a la fusión. Cuando se cuenta el número de candidatos a la fusión disponibles, pueden tenerse en cuenta dichos puntos. Tal como se ha descrito antes, si solamente dos tipos pueden resultar candidatos a la fusión, es decir, la unidad izquierda y la unidad superior (es decir, si se transmite información de indicador para indicar la unidad que se ha de fusionar), no es necesaria la transmisión del indicador para indicar la unidad que se ha de fusionar con respecto a X2. El número de candidatos a la fusión es grande, y cuando se usa información de índice adaptativa descrita anteriormente, esto resulta ventajoso porque se reduce la cantidad de la información que se ha de usar en el índice.
Además, la unidad que tiene la misma información de predicción que la información de predicción de otra partición X1, que pertenece a la misma unidad de codificación que la unidad actual, no puede ser candidata a la fusión disponible. Cuando se divide la misma unidad de codificación en dos particiones, es decir, X1 y X2, el caso en el que X2 se fusiona con una cierta unidad y llega a tener el mismo valor que la información de predicción de X2 conduce a un resultado igual que en la fusión con X1. Por tanto, en este caso, resulta que la partición de una unidad de codificación en X1 y X2 no tiene sentido. Por ello, en la presente invención, unidades, que buscan la misma información de predicción que X1 entre unidades candidatas a la fusión de diversas posiciones que pueden resultar candidatas de predicción en lo anterior, se eliminan de las candidatas a la fusión disponibles. Es decir, el número de candidatas a unidad de fusión que pueden ser usados por la partición actual, se reduce por el número de candidatos a la fusión que tienen la misma información de predicción que la de otra partición X1 que pertenece a la misma unidad de codificación. De esta manera, el número de unidades candidatas a la fusión disponibles resulta 0, y puede que no sea necesario transmitir el indicador de fusión que indica si aplicar el modo de fusión. Por ejemplo, con referencia a la figura 15(a), en el caso en el que la información de predicción de la unidad contigua superior A es la misma que la de X1, X2 no se puede fusionar con ninguna de A y X1. Por tanto, en este caso, dado que no hay ninguna unidad candidata a la fusión disponible, no es necesario transmitir ni el indicador que indica si aplicar el modo de fusión ni la información que indica la unidad que se ha de fusionar. Es decir, esto es lo mismo que el caso en el que el número de candidatos a la fusión disponibles es 0.
Por contraposición, en el caso de la figura 15(b), el lado izquierdo de la partición X2 es adyacente a la región restaurada, pero el lado superior no es adyacente a la región restaurada y resulta adyacente a otra partición X1 que pertenece a la misma unidad de codificación. Por tanto, en este caso, X2 no se fusiona con X1, y únicamente el área izquierda resulta un candidato a la fusión disponible. En el caso del ejemplo de la figura 15(b), el candidato a la fusión que queda es solamente la unidad A, y, por lo tanto, no es necesario transmitir la información de indicador para designar la unidad que se ha de fusionar. Asimismo, las unidades que tienen la misma información de predicción que X1 no se pueden fusionar con X2, y, por lo tanto, en el caso en el que el área adyacente izquierda A de X2 tiene la misma información de predicción que la de X1, no queda ninguna unidad candidata a la fusión disponible y no es necesario transmitir la información de indicador de fusión que indica si aplicar el modo de fusión.
La figura 16 ilustra varios ejemplos del caso en el que una unidad se divide de manera asimétrica en dos particiones. Aquí, se puede establecer que una partición, que ocupa un área más pequeña, se fusione con solamente una unidad adyacente al lado largo. En el caso de la figura 16(a), el lado largo de X1 es el área izquierda, y en el caso en el que se seleccione una de entre el área izquierda o el área superior, la unidad que se ha de fusionar se determina como unidad A sin transmitir el indicador (merge_left_flag) que designa la unidad. En el caso de la figura 16(b), el lado largo de la X1 es el área derecha, y la unidad que se ha de fusionar se determina como unidad A en la misma situación que la anterior.
La figura 17 ilustra varios ejemplos del caso en el que una unidad se divide geométricamente en dos particiones. En este caso, la unidad que se ha de fusionar se puede deducir según el tipo de partición. Aquí, el tipo de partición se puede considerar usando la longitud de la línea de borde entre la partición y la región reconstruida. Con referencia a la figura 17, con respecto a la primera partición geométrica X1, se supone que la longitud de la línea de borde entre X1 y el área restaurada izquierda es a, la longitud de la línea de borde entre X1 y el área restaurada superior es b, y c1 y c2 son ciertos umbrales predeterminados. Las figuras 17(a) y 17(b) indican los tipos de partición de varias particiones geométricas, y esto se puede especificar como un valor específico usando a y b, por ejemplo, un valor como a/b. Además, la unidad que se ha de fusionar se determina usando la relación entre este valor y el umbral.
Por ejemplo, tal como se muestra en la figura 17(a), en el caso en el que a/b es mayor que c1 (a/b > c1), la unidad que se ha de fusionar de X1 se determina como A. Por contraposición, tal como se muestra en la figura 17(b), en el caso en el que a/b es menor que c2 (a/b < c2), la unidad que se ha de fusionar de X1 se determina como B. En estos dos casos, no es necesario transmitir información que indique cuál de A y B se fusiona. Tal como se muestra en la figura 17(c), en el caso en el que a/b está entre c1 y c2 (c2 <= a/b <= c1), se transmite información separada que indica cuál de A y B es la unidad que se ha de fusionar.
Un método de descodificación/codificación, al que se aplica la presente invención, se configura con un programa para su ejecución en ordenador y, a continuación, se almacena en un medio de grabación legible por ordenador.
Además, se pueden almacenar, en soporte de grabación legible por ordenador, datos multimedia que tienen una estructura de datos de la presente invención. Los medios de grabación legibles por ordenador incluyen todos los tipos de dispositivos de almacenamiento para almacenar datos que pueden ser leídos por un sistema informático. Los medios de grabación legibles por ordenador incluyen ROM, RAM, CD-ROM, cintas magnéticas, discos flexibles, dispositivos de almacenamiento óptico de datos, etc., y también incluyen un dispositivo implementado con ondas portadoras (por ejemplo, transmisión por internet). Además, una corriente de bits generada por el método de codificación se almacena en un medio de grabación legible por ordenador o se transmite a través de una red de comunicaciones cableada/inalámbrica.
Diversas realizaciones descritas en la presente memoria se pueden implementar en un medio legible por ordenador usando, por ejemplo,softwareinformático,hardwareo alguna combinación de los mismos. Para una implementación enhardware,las realizaciones descritas en la presente memoria se pueden implementar en uno o más circuitos integrados de aplicación específica (ASIC), procesadores de señal digital (DSP), dispositivos de procesamiento de señales digitales (DSPD), dispositivos de lógica programable (PLD), matrices de puertas programables in situ (FPGA), procesadores, controladores, microcontroladores, microprocesadores, otras unidades electrónicas diseñadas para llevar a cabo las funciones descritas en la presente memoria o una combinación selectiva de los mismos. En algunos casos, dichas realizaciones se implementan por controlador. Para una implementación ensoftware,las realizaciones descritas en la presente memoria se pueden implementar con módulos desoftwareindependientes, tales como procedimientos y funciones, cada uno de los cuales lleva a cabo una o más de las funciones y operaciones descritas en la presente memoria. Los códigos desoftwarese pueden implementar con una aplicación desoftwareescrita en cualquier lenguaje de programación adecuado y se pueden almacenar en memoria, y pueden ser ejecutados por un controlador.
Resultará evidente para aquellos expertos en la técnica que, en la presente invención, pueden hacerse diversas modificaciones y variaciones sin salir del alcance de la invención que se define mediante las reivindicaciones. De este modo, se pretende que la presente invención cubra las modificaciones y variaciones de esta invención siempre que estas se sitúen dentro del alcance de las reivindicaciones adjuntas y sus equivalentes.
Aplicabilidad industrial
La presente invención es aplicable a la codificación o decodificación de una señal de vídeo.

Claims (11)

REIVINDICACIONES
1. Un método para decodificar una corriente de bits para una señal de vídeo, siendo llevado a cabo el método por un aparato de decodificación y comprendiendo:
obtener una pluralidad de bloques de predicción a partir de un bloque de codificación;
obtener información de indicador de fusión de un bloque de predicción actual de la pluralidad de bloques de predicción procedentes de la corriente de bits, indicando la información de indicador de fusión si el bloque de predicción actual está codificado en un modo de fusión;
obtener información de índice de fusión del bloque de predicción actual a partir de la corriente de bits, especificando la información de índice de fusión un candidato a la fusión que se ha de fusionar con el bloque de predicción actual de entre candidatos a la fusión que incluyen bloques contiguos espaciales y temporales del bloque de predicción actual;
inferir información de predicción del bloque de predicción actual basándose en los candidatos a la fusión y en la información de índice de fusión, incluyendo la información de predicción información de vector de movimiento e información de índice de referencia; y
llevar a cabo una inter-predicción para el bloque de predicción actual basándose en la información de predicción del bloque de predicción actual,
en donde, basándose en que el bloque de codificación 2Nx2N está dividido en particiones en un bloque de predicción Nx2N izquierdo y un bloque de predicción Nx2N derecho y el bloque de predicción actual que es el bloque de predicción Nx2N derecho del bloque de codificación, el bloque de predicción Nx2N izquierdo del bloque de codificación es excluido de los candidatos a la fusión; y
en donde basándose en que el bloque de codificación 2Nx2N está dividido en particiones en un bloque de predicción 2NxN superior y un bloque de predicción 2NxN inferior y el bloque de predicción actual sea el bloque de predicción 2NxN inferior del bloque de codificación, el bloque de predicción 2NxN superior del bloque de codificación se excluye de los candidatos a la fusión.
2. El método de la reivindicación 1, en el que cada uno de los bloques contiguos espaciales y temporales se codifica en un modo de inter-predicción.
3. El método de la reivindicación 1 o 2, en el que los bloques contiguos espaciales incluyen un bloque de predicción contiguo izquierdo, un bloque de predicción contiguo superior izquierdo, un bloque de predicción contiguo superior derecho o un bloque de predicción contiguo inferior izquierdo.
4. El método de una cualquiera de las reivindicaciones 1 a 3, en el que los bloques contiguos espaciales son bloques de predicción contiguos adyacentes al bloque de predicción actual dentro de una imagen que incluye el bloque de predicción actual.
5. Un aparato configurado para llevar a cabo el método de una cualquiera de las reivindicaciones 1 a 4.
6. Un método para codificar una corriente de bits para una señal de vídeo, siendo llevado a cabo el método por un aparato de codificación y comprendiendo:
obtener una pluralidad de bloques de predicción a partir de un bloque de codificación;
codificar información de indicador de fusión de un bloque de predicción actual de la pluralidad de bloques de predicción en la corriente de bits, indicando la información de indicador de fusión si el bloque de predicción actual se codifica en un modo de fusión;
codificar información de índice de fusión del bloque de predicción actual en la corriente de bits, especificando la información de índice de fusión un candidato a la fusión que se ha de fusionar con el bloque de predicción actual de entre candidatos a la fusión que incluyen bloques contiguos espaciales y temporales del bloque de predicción actual;
inferir información de predicción del bloque de predicción actual basándose en los candidatos a la fusión y la información de índice de fusión, de manera que la información de predicción incluye información de vector de movimiento e información de índice de referencia; y
llevar a cabo una inter-predicción para el bloque de predicción actual basándose en la información de predicción del bloque de predicción actual,
en donde, basándose en que el bloque de codificación 2Nx2N se divida en particiones en un bloque de predicción Nx2N izquierdo y un bloque de predicción Nx2N derecho y el bloque de predicción actual sea el bloque de predicción Nx2N derecho del bloque de codificación, el bloque de predicción Nx2N izquierdo del bloque de codificación es excluido de los candidatos a la fusión, y
en donde basándose en que el bloque de codificación 2Nx2N se divida en particiones en un bloque de predicción 2NxN superior y un bloque de predicción 2NxN inferior y el bloque de predicción actual sea el bloque de predicción 2NxN inferior del bloque de codificación, el bloque de predicción 2NxN superior del bloque de codificación se excluye de los candidatos a la fusión.
7. El método de la reivindicación 6, en el que cada uno de los bloques contiguos espaciales y temporales se codifica en un modo de inter-predicción.
8. El método de la reivindicación 6 o 7, en el que los bloques contiguos espaciales incluyen un bloque de predicción contiguo izquierdo, un bloque de predicción contiguo superior izquierdo, un bloque de predicción contiguo superior derecho o un bloque de predicción contiguo inferior izquierdo.
9. El método de una cualquiera de las reivindicaciones 6 a 8, en el que los bloques contiguos espaciales son bloques de predicción contiguos adyacentes al bloque de predicción actual dentro de una imagen que incluye el bloque de predicción actual.
10. Un medio de grabación legible por ordenador en el cual está almacenada la corriente de bits generada con el método de la reivindicación 6.
11. Un aparato configurado para llevar a cabo el método de la reivindicación 6.
ES22198173T 2010-05-04 2011-05-04 Method for decoding and encoding a bitstream Active ES3037154T3 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US33090210P 2010-05-04 2010-05-04
US33327310P 2010-05-11 2010-05-11
US41280110P 2010-11-12 2010-11-12
US41443610P 2010-11-17 2010-11-17

Publications (1)

Publication Number Publication Date
ES3037154T3 true ES3037154T3 (en) 2025-09-29

Family

ID=44904230

Family Applications (4)

Application Number Title Priority Date Filing Date
ES18192011T Active ES2823480T3 (es) 2010-05-04 2011-05-04 Método y aparato para procesar una señal de vídeo
ES22198173T Active ES3037154T3 (en) 2010-05-04 2011-05-04 Method for decoding and encoding a bitstream
ES11777580T Active ES2711614T3 (es) 2010-05-04 2011-05-04 Método y aparato para procesar una señal de vídeo
ES20176589T Active ES2936323T3 (es) 2010-05-04 2011-05-04 Método y aparato para codificar y descodificar una señal de vídeo

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES18192011T Active ES2823480T3 (es) 2010-05-04 2011-05-04 Método y aparato para procesar una señal de vídeo

Family Applications After (2)

Application Number Title Priority Date Filing Date
ES11777580T Active ES2711614T3 (es) 2010-05-04 2011-05-04 Método y aparato para procesar una señal de vídeo
ES20176589T Active ES2936323T3 (es) 2010-05-04 2011-05-04 Método y aparato para codificar y descodificar una señal de vídeo

Country Status (14)

Country Link
US (9) US9363520B2 (es)
EP (6) EP4550789A1 (es)
KR (9) KR101789635B1 (es)
CN (7) CN102870414B (es)
DK (2) DK2568706T3 (es)
ES (4) ES2823480T3 (es)
FI (1) FI3739883T3 (es)
HR (2) HRP20230139T1 (es)
HU (4) HUE052059T2 (es)
PL (4) PL3739883T3 (es)
PT (2) PT3429205T (es)
RS (1) RS67039B1 (es)
SI (1) SI3739883T1 (es)
WO (1) WO2011139099A2 (es)

Families Citing this family (88)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101619972B1 (ko) * 2008-10-02 2016-05-11 한국전자통신연구원 이산 여현 변환/이산 정현 변환을 선택적으로 이용하는 부호화/복호화 장치 및 방법
KR101789635B1 (ko) * 2010-05-04 2017-10-25 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
DK2897365T3 (da) * 2010-07-09 2017-02-13 Samsung Electronics Co Ltd Apparat til at afkode video ved at anvende bloksammenlægning
US9357229B2 (en) 2010-07-28 2016-05-31 Qualcomm Incorporated Coding motion vectors in video coding
MX2013003063A (es) 2010-10-06 2013-05-30 Ntt Docomo Inc Dispositivo para codificacion predictiva de imagenes, metodo para codificacion predictiva de imagenes, programa informatico para codificacion predictiva de imagenes, dispositivo para decodificacion predictiva de imagenes, metodo para la decodificacion predictiva de imagenes y programa informatico para decodificacion predictiva de imagenes.
US9066102B2 (en) * 2010-11-17 2015-06-23 Qualcomm Incorporated Reference picture list construction for generalized P/B frames in video coding
US10171813B2 (en) * 2011-02-24 2019-01-01 Qualcomm Incorporated Hierarchy of motion prediction video blocks
JP5982734B2 (ja) * 2011-03-11 2016-08-31 ソニー株式会社 画像処理装置および方法
PL3136727T3 (pl) 2011-04-12 2018-11-30 Sun Patent Trust Sposób kodowania ruchomych obrazów i urządzenie do kodowania ruchomych obrazów
US8718389B2 (en) * 2011-04-13 2014-05-06 Huawei Technologies Co., Ltd. Image encoding and decoding methods and related devices
AU2012260302B2 (en) * 2011-05-24 2016-11-17 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
CA2834123C (en) 2011-05-27 2020-02-11 Panasonic Corporation Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US9485518B2 (en) 2011-05-27 2016-11-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
EP4270953A3 (en) 2011-05-31 2023-11-22 Sun Patent Trust Video decoding method, video decoding device
SG194746A1 (en) 2011-05-31 2013-12-30 Kaba Gmbh Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device
KR101894397B1 (ko) * 2011-06-14 2018-09-03 삼성전자주식회사 움직임 정보의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US20140078254A1 (en) * 2011-06-15 2014-03-20 Mediatek Inc. Method and Apparatus of Motion and Disparity Vector Prediction and Compensation for 3D Video Coding
USRE47366E1 (en) 2011-06-23 2019-04-23 Sun Patent Trust Image decoding method and apparatus based on a signal type of the control parameter of the current block
US8743969B2 (en) 2011-06-23 2014-06-03 Panasonic Corporation Image decoding method and apparatus based on a signal type of the control parameter of the current block
CA2830046C (en) 2011-06-24 2018-09-04 Panasonic Corporation Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
KR102062283B1 (ko) 2011-06-24 2020-01-03 선 페이턴트 트러스트 화상 복호 방법, 화상 부호화 방법, 화상 복호 장치, 화상 부호화 장치 및 화상 부호화 복호 장치
JP5933545B2 (ja) 2011-06-27 2016-06-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 復号方法及び復号装置
BR122022013246B1 (pt) 2011-06-28 2022-11-16 Sun Patent Trust Aparelho de decodificação para decodificar um parâmetro de controle para controlar decodificação de uma imagem, e aparelho de codificação para codificar um parâmetro de controle para controlar codificação de uma imagem
MX2013010892A (es) 2011-06-29 2013-12-06 Panasonic Corp Metodo de decodificacion de imagenes, metodo de codificacion de imagenes, aparato de decodificacion de imagenes, aparato de codificacion de imagenes y aparato de codificacion y decodificacion de imagenes.
CN106851269B (zh) 2011-06-30 2019-11-15 太阳专利托管公司 图像解码方法及装置、图像编码方法及装置、编解码装置
PH12013502397A1 (en) 2011-06-30 2014-01-13 Sun Patent Trust Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
WO2013001769A1 (ja) 2011-06-30 2013-01-03 パナソニック株式会社 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置及び画像符号化復号装置
WO2013005966A2 (ko) 2011-07-01 2013-01-10 한국전자통신연구원 비디오 부호화 방법 및 복호화 방법과 이를 이용한 장치
KR20130004173A (ko) 2011-07-01 2013-01-09 한국항공대학교산학협력단 비디오 부호화 방법 및 복호화 방법과 이를 이용한 장치
WO2013008438A1 (ja) 2011-07-11 2013-01-17 パナソニック株式会社 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置及び画像符号化復号装置
JP5830993B2 (ja) * 2011-07-14 2015-12-09 ソニー株式会社 画像処理装置及び画像処理方法
EP3487178A1 (en) 2011-08-03 2019-05-22 Sun Patent Trust Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus
MX369711B (es) 2011-08-29 2019-11-19 Ibex Pt Holdings Co Ltd Aparato para decodificar información de movimientos de modo de fusión.
SI3468197T1 (sl) * 2011-09-09 2022-06-30 Lg Electronics Inc. Postopek zunanjega napovedovanja in naprava za to
CN107483927B (zh) 2011-09-09 2020-06-05 株式会社Kt 用于解码视频信号的方法
CN103858430B (zh) 2011-09-29 2017-05-03 夏普株式会社 图像解码装置、图像解码方法及图像编码装置
PL3754982T3 (pl) * 2011-09-29 2024-09-02 Sharp Kabushiki Kaisha Urządzenie do dekodowania obrazu, sposób dekodowania obrazu, sposób kodowania obrazu i urządzenie kodowania obrazu do realizowania konwersji bipredykcyjnej na unipredykcyjną
EP3923572A1 (en) 2011-10-19 2021-12-15 Sun Patent Trust Image encoding method, image encoding device, image decoding method, and picture decoding device
US9571833B2 (en) 2011-11-04 2017-02-14 Nokia Technologies Oy Method for coding and an apparatus
EP2597872A3 (en) * 2011-11-23 2013-12-25 Humax Co., Ltd. Methods for encoding/decoding of video using common merging candidate set of asymmetric partitions
US8792745B2 (en) * 2011-12-06 2014-07-29 Sony Corporation Encoder optimization of adaptive loop filters in HEVC
CA2855777C (en) 2011-12-23 2017-10-24 Electronics And Telecommunications Research Institute Method and apparatus for setting reference picture index of temporal merging candidate
CN110830797B (zh) * 2012-01-18 2023-09-15 韩国电子通信研究院 视频解码装置、视频编码装置和传输比特流的方法
CN104282030A (zh) * 2013-07-12 2015-01-14 富士通株式会社 图像压缩装置及方法
US9281611B2 (en) 2013-08-14 2016-03-08 Lear Corporation Electric connector with wire retainer tube
CN108683922B (zh) * 2014-03-19 2021-05-04 株式会社Kt 对多视图视频信号进行解码的方法和装置
USD794050S1 (en) 2014-08-19 2017-08-08 Fujifilm Corporation Display screen for digital camera with transitional graphical user interface
US10397611B2 (en) 2014-10-08 2019-08-27 Lg Electronics Inc. Method and device for encoding/decoding 3D video
KR20220162877A (ko) * 2014-10-31 2022-12-08 삼성전자주식회사 고정밀 스킵 부호화를 이용한 비디오 부호화 장치 및 비디오 복호화 장치 및 그 방법
WO2017086748A1 (ko) * 2015-11-20 2017-05-26 한국전자통신연구원 기하 변환 영상을 이용하는 영상의 부호화/복호화 방법 및 장치
CN109155857B (zh) 2016-03-11 2023-05-30 数字洞察力有限公司 视频编码方法以及装置
US10560718B2 (en) * 2016-05-13 2020-02-11 Qualcomm Incorporated Merge candidates for motion vector prediction for video coding
CN109644267B (zh) * 2016-08-03 2023-07-04 株式会社Kt 视频信号处理方法和装置
CN109952761B (zh) * 2016-09-20 2022-04-15 株式会社Kt 用于处理视频信号的方法和装置
WO2018066927A1 (ko) * 2016-10-06 2018-04-12 엘지전자(주) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
JP6895247B2 (ja) * 2016-10-06 2021-06-30 日本放送協会 符号化装置、復号装置及びプログラム
KR102559061B1 (ko) * 2016-11-18 2023-07-24 주식회사 케이티 비디오 신호 처리 방법 및 장치
CN117478880A (zh) * 2017-10-16 2024-01-30 数字洞察力有限公司 用于将图像编码/解码的方法和存储比特流的记录介质
WO2019164031A1 (ko) 2018-02-22 2019-08-29 엘지전자 주식회사 영상 코딩 시스템에서 블록 분할 구조에 따른 영상 디코딩 방법 및 장치
CN110505482B (zh) * 2018-05-16 2021-10-26 华为技术有限公司 一种编解码方法及装置
WO2019219066A1 (zh) * 2018-05-16 2019-11-21 华为技术有限公司 一种编解码方法及装置
US10616574B2 (en) * 2018-06-04 2020-04-07 Tencent America LLC Methods and apparatus for extended merge mode with adaptive grid size in video coding
MX2020012662A (es) * 2018-06-08 2021-02-09 Kt Corp Método y aparato para procesar una señal de video.
CN117499637A (zh) * 2018-06-27 2024-02-02 数字洞察力有限公司 对图像进行编码/解码的方法和发送比特流的方法
CN110662075B (zh) * 2018-06-29 2023-04-25 北京字节跳动网络技术有限公司 改进的时域运动矢量预测推导
US11671619B2 (en) 2018-07-02 2023-06-06 Intellectual Discovery Co., Ltd. Video coding method and device using merge candidate
CN117241039A (zh) * 2018-08-28 2023-12-15 华为技术有限公司 帧间预测方法、装置以及视频编码器和视频解码器
WO2020094074A1 (en) 2018-11-06 2020-05-14 Beijing Bytedance Network Technology Co., Ltd. Position-depending ordering of motion candidate list for geometric partitioning mode
PT3884670T (pt) * 2018-11-22 2023-06-02 Huawei Tech Co Ltd Método, aparelho e produto de programa informático para predição inter
CN113170182B (zh) 2018-12-03 2024-01-26 北京字节跳动网络技术有限公司 不同预测模式下的修剪方法
MX2023010864A (es) 2018-12-31 2024-04-23 Beijing Dajia Internet Information Tech Co Ltd Sistema y método de señalización de modos de fusión de movimiento en codificación de video.
CN113056908B (zh) * 2019-01-29 2024-04-05 深圳市欢太科技有限公司 视频字幕合成方法、装置、存储介质及电子设备
US11533506B2 (en) * 2019-02-08 2022-12-20 Tencent America LLC Method and apparatus for video coding
US20200288175A1 (en) * 2019-03-06 2020-09-10 Qualcomm Incorporated Signaling of triangle merge mode indexes in video coding
US10742972B1 (en) * 2019-03-08 2020-08-11 Tencent America LLC Merge list construction in triangular prediction
EP4243419B1 (en) * 2019-03-12 2024-12-18 Beijing Dajia Internet Information Technology Co., Ltd. Video coding for geometric inter partition prediction
WO2020198172A1 (en) 2019-03-23 2020-10-01 Beijing Dajia Internet Information Technology Co., Ltd. Methods and apparatus of video coding for triangle prediction
WO2020220037A1 (en) * 2019-04-25 2020-10-29 Beijing Dajia Internet Information Technology Co., Ltd. Methods and apparatuses for video coding with triangle prediction
CN114009019B (zh) * 2019-05-08 2025-04-18 北京达佳互联信息技术有限公司 用于在视频编解码中用信令传递合并模式的方法和装置
WO2020251421A2 (en) * 2019-10-03 2020-12-17 Huawei Technologies Co., Ltd. Method and apparatus of high-level syntax for non-rectangular partitioning modes
AU2020380731B2 (en) * 2019-11-05 2024-03-07 Lg Electronics Inc. High level syntax signaling method and device for image/video coding
WO2021091254A1 (ko) 2019-11-05 2021-05-14 엘지전자 주식회사 영상/비디오 코딩 시스템에서 픽처 헤더에서 슬라이스 타입에 관한 정보를 시그널링하는 방법 및 장치
KR20250067956A (ko) 2019-11-05 2025-05-15 엘지전자 주식회사 영상/비디오 코딩 방법 및 장치
US11496755B2 (en) * 2019-12-28 2022-11-08 Tencent America LLC Method and apparatus for video coding
EP4055826B1 (en) * 2019-12-30 2025-06-04 Sharp Kabushiki Kaisha Device and method for coding video data
CA3167878A1 (en) * 2020-01-14 2021-03-11 Huawei Technologies Co., Ltd. Method and apparatus of signaling the number of candidates for merge mode
WO2021196211A1 (zh) * 2020-04-03 2021-10-07 Oppo广东移动通信有限公司 一种帧间预测方法、编码器、解码器及存储介质
WO2024112126A1 (ko) * 2022-11-25 2024-05-30 현대자동차주식회사 코딩트리유닛의 분할구조를 예측하고 수정하는 비디오 부호화/복호화 방법 및 장치

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100508798B1 (ko) 2002-04-09 2005-08-19 엘지전자 주식회사 쌍방향 예측 블록 예측 방법
US20040081238A1 (en) * 2002-10-25 2004-04-29 Manindra Parhy Asymmetric block shape modes for motion estimation
KR100513732B1 (ko) 2002-12-05 2005-09-08 삼성전자주식회사 3차원 객체 데이터 부호화 및 복호화 방법 및 장치
EP1431919B1 (en) 2002-12-05 2010-03-03 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding three-dimensional object data by using octrees
MY139467A (en) 2003-01-07 2009-10-30 Thomson Licensing Sa Mixed inter/intra video coding of macroblock partitions
US8761252B2 (en) 2003-03-27 2014-06-24 Lg Electronics Inc. Method and apparatus for scalably encoding and decoding video signal
KR20060109247A (ko) 2005-04-13 2006-10-19 엘지전자 주식회사 베이스 레이어 픽처를 이용하는 영상신호의 엔코딩/디코딩방법 및 장치
KR20060105409A (ko) 2005-04-01 2006-10-11 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
JP2006333436A (ja) * 2005-01-07 2006-12-07 Ntt Docomo Inc 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、及び、動画像復号プログラム
WO2006104366A1 (en) 2005-04-01 2006-10-05 Lg Electronics Inc. Method for scalably encoding and decoding video signal
US8660180B2 (en) 2005-04-01 2014-02-25 Lg Electronics Inc. Method and apparatus for scalably encoding and decoding video signal
WO2006104364A1 (en) 2005-04-01 2006-10-05 Lg Electronics Inc. Method for scalably encoding and decoding video signal
EP1878249B1 (en) 2005-04-01 2020-03-04 LG Electronics, Inc. Method for scalably decoding a video signal
WO2006109988A1 (en) 2005-04-13 2006-10-19 Lg Electronics Inc. Method and apparatus for decoding video signal using reference pictures
US7996041B2 (en) 2005-04-15 2011-08-09 Nokia Corporation Apparatus and method for requesting initiation of a communication session using capability configuration parameters with card application toolkit
WO2006115057A1 (ja) 2005-04-19 2006-11-02 Otsuka Pharmaceutical Factory, Inc. 人工髄液
US8755434B2 (en) 2005-07-22 2014-06-17 Lg Electronics Inc. Method and apparatus for scalably encoding and decoding video signal
BRPI0715507A2 (pt) * 2006-08-02 2013-06-18 Thomson Licensinc S A mÉtodos e aparelhos para particionamento geomÉtrico adaptativo para decodificaÇço de vÍdeo
US8363936B2 (en) 2006-08-25 2013-01-29 Thomson Licensing Method and apparatus for reduced resolution partitioning
KR101165212B1 (ko) 2007-01-08 2012-07-11 노키아 코포레이션 비디오 코딩에서 확장된 공간 스케일러빌러티를 위한 개선된 계층 예측
EP2106666B1 (en) 2007-01-08 2019-06-12 Nokia Technologies Oy Improved inter-layer prediction for extended spatial scalability in video coding
US8750377B2 (en) * 2007-04-12 2014-06-10 Thomson Licensing Method and apparatus for context dependent merging for skip-direct modes for video encoding and decoding
US9516340B2 (en) 2007-06-12 2016-12-06 Thomson Licensing Methods and apparatus supporting multi-pass video syntax structure for slice data
US8605786B2 (en) 2007-09-04 2013-12-10 The Regents Of The University Of California Hierarchical motion vector processing method, software and devices
CN101472174A (zh) * 2007-12-29 2009-07-01 智多微电子(上海)有限公司 视频解码器中用于复原原始图像数据的方法及装置
KR101789635B1 (ko) * 2010-05-04 2017-10-25 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
CN103477635B (zh) 2010-10-08 2017-01-18 Ge视频压缩有限责任公司 编码器和编码方法与解码器和解码方法
PL3754982T3 (pl) * 2011-09-29 2024-09-02 Sharp Kabushiki Kaisha Urządzenie do dekodowania obrazu, sposób dekodowania obrazu, sposób kodowania obrazu i urządzenie kodowania obrazu do realizowania konwersji bipredykcyjnej na unipredykcyjną
TWI580263B (zh) * 2011-12-28 2017-04-21 Jvc Kenwood Corp Dynamic image decoding device, dynamic image decoding method and dynamic image decoding program
CN107592542B (zh) * 2011-12-28 2020-05-22 Jvc 建伍株式会社 动图像解码装置以及动图像解码方法

Also Published As

Publication number Publication date
US20200244967A1 (en) 2020-07-30
KR102355933B1 (ko) 2022-01-25
SI3739883T1 (sl) 2023-03-31
CN104811733A (zh) 2015-07-29
CN104811737A (zh) 2015-07-29
US11006123B2 (en) 2021-05-11
KR20180100261A (ko) 2018-09-07
PL3739883T3 (pl) 2023-04-11
EP4518323A3 (en) 2025-04-09
US20210250588A1 (en) 2021-08-12
US9363520B2 (en) 2016-06-07
CN104811735B (zh) 2018-11-09
US10666947B2 (en) 2020-05-26
KR20130105783A (ko) 2013-09-26
KR20220093407A (ko) 2022-07-05
US20190124336A1 (en) 2019-04-25
US9357218B2 (en) 2016-05-31
US20150163494A1 (en) 2015-06-11
CN104811732A (zh) 2015-07-29
KR102158700B1 (ko) 2020-09-22
HUE061303T2 (hu) 2023-06-28
KR20210021152A (ko) 2021-02-24
US10397580B2 (en) 2019-08-27
US20240364896A1 (en) 2024-10-31
PL4135328T3 (pl) 2025-09-08
US12069277B2 (en) 2024-08-20
PL2568706T3 (pl) 2019-06-28
HUE043816T2 (hu) 2019-09-30
DK3429205T3 (da) 2020-09-07
CN104811734B (zh) 2018-04-13
CN104811734A (zh) 2015-07-29
DK2568706T3 (en) 2019-03-11
HRP20230139T1 (hr) 2023-03-31
EP4550789A1 (en) 2025-05-07
KR20210115063A (ko) 2021-09-24
US20160249054A1 (en) 2016-08-25
EP2568706B1 (en) 2018-12-19
KR102521802B1 (ko) 2023-04-13
CN102870414A (zh) 2013-01-09
KR20170122280A (ko) 2017-11-03
US20230135855A1 (en) 2023-05-04
PT3429205T (pt) 2020-08-28
KR102303515B1 (ko) 2021-09-16
KR101988327B1 (ko) 2019-06-12
KR101878148B1 (ko) 2018-07-13
CN104811732B (zh) 2018-04-20
ES2936323T3 (es) 2023-03-16
PL3429205T3 (pl) 2021-02-08
CN104811736A (zh) 2015-07-29
EP4135328B1 (en) 2025-07-02
KR20180081838A (ko) 2018-07-17
US20130107959A1 (en) 2013-05-02
US20180227582A1 (en) 2018-08-09
EP3739883A1 (en) 2020-11-18
CN102870414B (zh) 2015-05-20
WO2011139099A3 (ko) 2012-03-01
RS67039B1 (sr) 2025-08-29
KR102219985B1 (ko) 2021-02-25
HRP20250919T1 (hr) 2025-09-26
EP4518323A2 (en) 2025-03-05
HUE052059T2 (hu) 2021-04-28
CN104811736B (zh) 2018-06-26
ES2711614T3 (es) 2019-05-06
ES2823480T3 (es) 2021-05-07
FI3739883T3 (fi) 2023-01-13
CN104811733B (zh) 2018-06-26
EP2568706A2 (en) 2013-03-13
WO2011139099A2 (ko) 2011-11-10
EP3429205A1 (en) 2019-01-16
KR101789635B1 (ko) 2017-10-25
CN104811735A (zh) 2015-07-29
EP4135328A1 (en) 2023-02-15
US11553185B2 (en) 2023-01-10
EP3429205B1 (en) 2020-07-15
KR102415787B1 (ko) 2022-06-30
KR20200109386A (ko) 2020-09-22
CN104811737B (zh) 2018-06-15
KR20220013472A (ko) 2022-02-04
US9936202B2 (en) 2018-04-03
HUE072457T2 (hu) 2025-11-28
EP4135328C0 (en) 2025-07-02
EP3739883B1 (en) 2022-11-16
PT2568706T (pt) 2019-02-13
EP2568706A4 (en) 2016-03-02

Similar Documents

Publication Publication Date Title
ES3037154T3 (en) Method for decoding and encoding a bitstream
ES2967198T3 (es) Predicción intra utilizando píxeles de referencia de líneas adicionales
ES2908214T3 (es) Filtración adaptativa de muestras de referencia para intra predicción usando líneas de píxeles distantes
ES2737874B2 (es) Metodo y aparato para procesar senal de video
ES2703607B2 (es) Método y aparato para procesar señales de vídeo
ES2938187T3 (es) Métodos de codificación de vídeo basados en modo de intra predicción y aparato de procesamiento de vídeo de los mismos
ES2995257T3 (en) Image decoding method, image encoding method, and computer-readable storage medium encoded image information
ES2786077B2 (es) Metodo y aparato para procesar una senal de video
ES2991337T3 (es) Procedimiento de descodificación y procedimiento de codificación de una señal de vídeo
US20180234679A1 (en) Intra prediction mode-based image processing method and apparatus therefor
ES2703458A2 (es) Metodo y aparato para procesar senales de video