[go: up one dir, main page]

JP2013542667A - 映像のイントラ予測方法及びその装置 - Google Patents

映像のイントラ予測方法及びその装置 Download PDF

Info

Publication number
JP2013542667A
JP2013542667A JP2013531502A JP2013531502A JP2013542667A JP 2013542667 A JP2013542667 A JP 2013542667A JP 2013531502 A JP2013531502 A JP 2013531502A JP 2013531502 A JP2013531502 A JP 2013531502A JP 2013542667 A JP2013542667 A JP 2013542667A
Authority
JP
Japan
Prior art keywords
unit
coding
depth
size
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013531502A
Other languages
English (en)
Inventor
チョン,ジアンル
セレギン,ヴァディム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013542667A publication Critical patent/JP2013542667A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/825Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only the luminance and chrominance signals being recorded in separate channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N11/00Colour television systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N11/00Colour television systems
    • H04N11/06Transmission systems characterised by the manner in which the individual colour picture signal components are combined
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N11/00Colour television systems
    • H04N11/24High-definition television systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N11/00Colour television systems
    • H04N11/24High-definition television systems
    • H04N11/26High-definition television systems involving two-channel transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N11/00Colour television systems
    • H04N11/24High-definition television systems
    • H04N11/28High-definition television systems involving bandwidth reduction, e.g. subsampling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • H04N9/873Regeneration of colour television signals for restoring the colour component sequence of the reproduced chrominance signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

映像のイントラ予測装置及び方法に係り、該イントラ予測方法は、イントラ予測される色差ブロックの復元された周辺ピクセル、及び色差ブロックと対応する輝度ブロックの復元された周辺ピクセルに基づいて、色差ブロックと輝度ブロックとの相関関係を示すパラメータを獲得し、獲得されたパラメータを利用して、輝度ブロックから色差ブロックを予測する。また、これにより、パラメータを獲得する段階は、色差ブロックの復元された周辺ピクセル、及び輝度ブロックの復元された周辺ピクセルを利用した所定の演算過程を介してパラメータを獲得し、演算過程は、オーバーフローを防止するために、パラメータのビット深度を変更するスケーリング過程を含む。

Description

本発明は、映像の符号化及び復号化に係り、さらに詳細には、輝度信号と色差信号との相関関係(correlation)を利用して、以前に復元された輝度信号から、色差信号を予測するイントラ予測方法及びその装置に関する。
MPEG−1、MPEG−2、MPEG−4H.264/MPEG−4 AVC(advanced video coding)のような映像符号化方法では、映像を符号化するために、所定サイズのブロックに分ける。その後、インター予測(inter prediction)またはイントラ予測(intra prediction)を利用して、それぞれのブロックを予測符号化する。
原本ブロックで、インター予測またはイントラ予測の結果として生成された予測ブロックを減算して残差ブロックを生成し、生成された残差(residual)ブロックを離散コサイン変換、量子化及びエントロピ符号化してビットストリームを生成する。
また、従来技術によれば、1つのピクセルを輝度(luminance)成分及び色差(chroma)成分で表現し、輝度成分及び色差成分をそれぞれ符号化及び復号化する。
本発明が解決しようとする技術的課題は、輝度信号と色差信号との相関関係を利用して、輝度信号から色差信号を予測する方法及びその装置を提供するものである。
また、本発明が解決しようとする技術的課題は、演算過程で、データ正確度を維持しながら、ビットオーバーフローを防止することができる予測方法及びその装置を提供するものである。
本発明によれば、復元された色差信号と復元された輝度信号との相関関係を示すパラメータを獲得し、獲得されたパラメータを利用して、復元された輝度信号から色差信号を予測する。パラメータの獲得時、所定の演算過程を介してパラメータを獲得し、演算過程は、ルックアップ・テーブルの大きさを減少させてオーバーフローを防止するために、パラメータのビット深度を変更する適応的スケーリング過程を含む。
本発明の実施形態によれば、輝度信号と色差信号との相関関係を利用して、予測効率を向上させることができる。
また、本発明によれば、除算演算なしに、輝度信号と色差信号との線形関係を定義するためのパラメータを獲得することにより、予測に必要となる演算量を減少させる一方、演算速度を向上させることができる。
また、本発明によれば、データの正確度を維持しながら、パラメータ獲得過程で発生しうるビットオーバーフローを防止することができる。
本発明の一実施形態によるビデオ符号化装置のブロック図である。 本発明の一実施形態によるビデオ復号化装置のブロック図である。 本発明の一実施形態による符号化単位の概念を図示する図面である。 本発明の一実施形態による符号化単位に基づいた映像符号化部のブロック図である。 本発明の一実施形態による符号化単位に基づいた映像復号化部のブロック図である。 本発明の一実施形態による深度別符号化単位及びパーティションを図示する図面である。 本発明の一実施形態による、符号化単位及び変換単位の関係を図示する図面である。 本発明の一実施形態によって、深度別符号化情報を図示する図面である。 本発明の一実施形態による深度別符号化単位を図示する図面である。 本発明の一実施形態による、符号化単位、予測単位及び周波数変換単位の関係を図示する図面である。 本発明の一実施形態による、符号化単位、予測単位及び周波数変換単位の関係を図示する図面である。 本発明の一実施形態による、符号化単位、予測単位及び周波数変換単位の関係を図示する図面である。 表1の符号化モード情報による符号化単位、予測単位及び変換単位の関係を図示する図面である。 本発明の一実施形態によるイントラ予測装置の構成を示したブロック図である。 色フォーマットを示した参照図である。 色フォーマットを示した参照図である。 色フォーマットを示した参照図である。 色フォーマットによる輝度ブロックと色差ブロックとを示した参照図である。 色フォーマットによる輝度ブロックと色差ブロックとを示した参照図である。 本発明の一実施形態によって、輝度信号をダウンサンプリングする過程について説明するための参照図である。 本発明の一実施形態による輝度信号と色差信号との相関関係を示すパラメータ獲得過程、及び色差信号の予測過程について説明するための参照図である。 本発明の一実施形態による輝度信号と色差信号との相関関係を示すパラメータ獲得過程、及び色差信号の予測過程について説明するための参照図である。 本発明の一実施形態によって、推定値A’を獲得する過程を例示した図面である。 本発明の一実施形態によるルックアップ・テーブルの一例を示した参照図である。 本発明の一実施形態によるイントラ予測方法を示したフローチャートである。
前述の技術的課題を解決するための本発明の一実施形態による映像のイントラ予測方法は、イントラ予測される色差ブロックの復元された周辺ピクセル、及び前記色差ブロックと対応する輝度ブロックの復元された周辺ピクセルに基づいて、前記色差ブロックと輝度ブロックとの相関関係を示すパラメータを獲得する段階と、前記獲得されたパラメータを利用して、前記輝度ブロックから、前記色差ブロックを予測する段階と、を含み、前記パラメータを獲得する段階は、前記色差ブロックの復元された周辺ピクセル、及び前記輝度ブロックの復元された周辺ピクセルを利用した所定の演算過程を介して、前記パラメータを獲得し、前記演算過程は、ルックアップ・テーブルの大きさを減少させてオーバーフローを防止するために、前記パラメータのビット深度を変更する適応的スケーリング過程を含むことを特徴とする。
本発明の一実施形態による映像のイントラ予測装置は、イントラ予測される色差ブロックの復元された周辺ピクセル、及び前記色差ブロックと対応する輝度ブロックの復元された周辺ピクセルに基づいて、前記色差ブロックと輝度ブロックとの相関関係を示すパラメータを獲得するパラメータ獲得部獲得部;及び前記獲得されたパラメータを利用して、前記輝度ブロックから、前記色差ブロックを予測する予測遂行部;を含み、前記パラメータ獲得部は、前記色差ブロックの復元された周辺ピクセル、及び前記輝度ブロックの復元された周辺ピクセルを利用した所定の演算過程を介して、前記パラメータを獲得し、前記演算過程は、ルックアップ・テーブルの大きさを減少させてオーバーフローを防止するために、前記パラメータのビット深度を変更する適応的スケーリング過程をさらに含むことを特徴とする。
以下、添付された図面を参照して、本発明の望ましい実施形態について具体的に説明する。
図1は、本発明の一実施形態によるビデオ符号化装置のブロック図を図示している。一実施形態によるビデオ符号化装置100は、最大符号化単位分割部110、符号化単位決定部120及び出力部130を含む。
最大符号化単位分割部110は、映像の現在ピクチャのための最大サイズの符号化単位である最大符号化単位に基づいて、現在ピクチャを区画することができる。現在ピクチャが最大符号化単位より大きければ、現在ピクチャの映像データは、少なくとも1つの最大符号化単位に分割される。一実施形態による最大符号化単位は、サイズ32x32,64x64,128x128,256x256などのデータ単位であり、縦横サイズが8より大きい2の累乗(power of 2)である正方形のデータ単位であってもよい。映像データは、少なくとも1つの最大符号化単位別に、符号化単位決定部120に出力される。
一実施形態による符号化単位は、最大サイズ及び深度で特徴づけられる。深度とは、最大符号化単位から、符号化単位が空間的に分割された回数を示し、深度が深くなるほど、深度別符号化単位は、最大符号化単位から最小符号化単位まで分割される。最大符号化単位の深度が最上位深度であり、最小符号化単位が最下位符号化単位であると定義される。最大符号化単位は、深度が深くなるにつれて、深度別符号化単位の大きさは減少するので、上位深度の符号化単位は、複数個の下位深度の符号化単位を含む。
前述のように、符号化単位の最大サイズによって、現在ピクチャの映像データを最大符号化単位に分割し、それぞれの最大符号化単位は、深度別に分割される符号化単位を含む。一実施形態による最大符号化単位は、深度別に分割されるので、最大符号化単位に含まれた空間領域(spatial domain)の映像データが、深度によって階層的に分類される。
最大符号化単位の高さ及び幅を階層的に分割することができる総回数を制限する最大深度、及び符号化単位の最大サイズがあらかじめ設定されている。
符号化単位決定部120は、深度ごとに、最大符号化単位の領域が分割された少なくとも1つの分割領域を符号化し、少なくとも1つの分割領域別に最終符号化結果が出力される深度を決定する。すなわち、符号化単位決定部120は、現在ピクチャの最大符号化単位ごとに、深度別符号化単位で映像データを符号化し、最小の符号化誤差が発生する深度を選択して符号化深度と決定する。決定された符号化深度別及び最大符号化単位別の映像データは、出力部130に出力される。
最大符号化単位内の映像データは、最大深度以下の少なくとも1つの深度によって、深度別符号化単位に基づいて符号化され、それぞれの深度別符号化単位に基づいた符号化結果が比較される。深度別符号化単位の符号化誤差の比較結果、符号化誤差が最小である深度が選択される。それぞれの最大化符号化単位ごとに、少なくとも1つの符号化深度が決定される。
最大符号化単位の大きさは、深度が深くなるにつれて、符号化単位が階層的に分割されて分割され、符号化単位の個数は増加する。また、1つの最大符号化単位に含まれる同一深度の符号化単位であるとしても、それぞれのデータに係わる符号化誤差を測定し、下位深度への分割いかんが決定される。従って、1つの最大符号化単位に含まれるデータであるとしても、位置によって、深度別符号化誤差が異なるので、位置によって、符号化深度が異なって決定される。従って、1つの最大符号化単位について、符号化深度が一つ以上設定され、最大符号化単位のデータは、一つ以上の符号化深度の符号化単位によって区画される。
従って、一実施形態による符号化単位決定部120は、現在最大符号化単位に含まれるツリー構造による符号化単位を決定する。一実施形態による「ツリー構造による符号化単位」は、現在最大符号化単位に含まれる全ての深度別符号化単位において、符号化深度に決定された深度の符号化単位を含む。符号化深度の符号化単位は、最大符号化単位内で、同一領域では、深度によって階層的に決定され、他の領域については、独立して決定される。同様に、現在領域に係わる符号化深度は、他の領域に係わる符号化深度と独立して決定される。
一実施形態による最大深度は、最大符号化単位から最小符号化単位までの分割回数と係わる指標である。一実施形態による第1最大深度は、最大符号化単位から最小符号化単位までの全分割回数を示すことができる。一実施形態による第2最大深度は、最大符号化単位から最小符号化単位までの深度レベルの総個数を示すことができる。例えば、最大符号化単位の深度が0であるとするとき、最大符号化単位が1回分割された符号化単位の深度は、1に設定され、2回分割された符号化単位の深度は、2に設定される。その場合、最大符号化単位から4回分割された符号化単位が最小符号化単位であるならば、深度0,1,2,3及び4の深度レベルが存在するので、第1最大深度は4、第2最大深度は、5に設定される。
最大符号化単位の予測符号化及び周波数変換が行われる。予測符号化及び周波数変換も同様に、最大符号化単位ごとに、最大深度以下の深度ごとに、深度別符号化単位を基に行われる。
最大符号化単位が、深度別に分割されるたびに、深度別符号化単位の個数が増加するので、深度が深くなるにつれて生成される全ての深度別符号化単位について、予測符号化及び周波数変換を含んだ符号化が行われなければならない。以下、説明の便宜のために、少なくとも1つの最大符号化単位のうち、現在深度の符号化単位を基に、予測符号化及び周波数変換について説明する。
一実施形態によるビデオ符号化装置100は、映像データの符号化のためのデータ単位の大きさまたは形態を、多様に選択することができる。映像データの符号化のためには、予測符号化、周波数変換、エントロピ符号化などの段階を経るが、全ての段階にわたって、同一のデータ単位が使用されもし、段階別にデータ単位が変更されもする。
例えば、ビデオ符号化装置100は、映像データの符号化のための符号化単位だけではなく、符号化単位の映像データの予測符号化を行うために、符号化単位と異なるデータ単位を選択することができる。
最大符号化単位の予測符号化のためには、一実施形態による符号化深度の符号化単位、すなわち、それ以上分割されない符号化単位を基に、予測符号化が行われる。以下、予測符号化の基盤になるそれ以上分割されない符号化単位を「予測単位」とする。予測単位が分割されたパーティションは、予測単位及び予測単位の高さ及び幅のうち、少なくとも一つが分割されたデータ単位を含む。
例えば、サイズ2Nx2N(ただし、Nは正の整数)の符号化単位が、それ以上分割されない場合、サイズ2Nx2Nの予測単位になり、パーティションの大きさは、2Nx2N、2NxN、Nx2N、NxNなどであってもよい。一実施形態によるパーティションタイプは、予測単位の高さまたは幅が対称的な比率に分割された対称的パーティションだけではなく、1:nまたはn:1のように、非対称的な比率に分割されたパーティション、幾何学的な形態に分割されたパーティション、任意的形態のパーティションなどを選択的に含んでもよい。
予測単位の予測モードは、イントラモード、インターモード及びスキップモードのうち、少なくとも一つである。例えば、イントラモード及びインターモードは、2Nx2N,2NxN,Nx2N,NxNサイズのパーティションについて遂行される。また、スキップモードは、2Nx2Nサイズのパーティションについてのみ遂行される。符号化単位以内の1つの予測単位ごとに、独立して符号化が行われ、符号化誤差が最小である予測モードが選択される。
また、一実施形態によるビデオ符号化装置100は、映像データの符号化のための符号化単位だけではなく、符号化単位と異なるデータ単位を基に、符号化単位の映像データの周波数変換を行うことができる。
符号化単位の周波数変換のためには、符号化単位より小さいか、あるいはそれと同じ大きさのデータ単位を基に、周波数変換が行われる。例えば、周波数変換のためのデータ単位は、イントラモードのためのデータ単位、及びインターモードのためのデータ単位を含んでもよい。
以下、周波数変換の基盤になるデータ単位を、「変換単位」とする。符号化単位と類似した方式で、符号化単位内の変換単位も再帰的に、さらに小サイズの変換単位に分割されながら、符号化単位の残差データが、変換深度によって、ツリー構造による変換単位によって区画される。
一実施形態による変換単位についても、符号化単位の高さ及び幅が分割され、変換単位に至るまでの分割回数を示す変換深度が設定される。例えば、サイズ2Nx2Nの現在符号化単位の変換単位の大きさが2Nx2Nであるならば、変換深度0、変換単位の大きさがNxNであるならば、変換深度1、変換単位の大きさがN/2xN/2であるならば、変換深度2に設定される。すなわち、変換単位についても、変換深度によって、ツリー構造による変換単位が設定される。
符号化深度別符号化情報は、符号化深度だけではなく、予測関連情報及び周波数変換関連情報が必要である。従って、符号化単位決定部120は、最小符号化誤差を発生させた符号化深度だけではなく、予測単位をパーティションに分割したパーティションタイプ、予測単位別予測モード、周波数変換のための変換単位の大きさなどを決定することができる。
一実施形態による最大符号化単位のツリー構造による符号化単位及びパーティションの決定方式については、図3ないし図12を参照して詳細に説明する。
符号化単位決定部120は、深度別符号化単位の符号化誤差をラグランジュ乗数(Lagrangian multiplier)基盤の率・歪曲最適化技法(rate-distortion optimization)を利用して測定することができる。
出力部130は、符号化単位決定部120で決定された少なくとも1つの符号化深度に基づいて符号化された最大符号化単位の映像データ及び深度別符号化モードについての情報をビットストリーム形態で出力する。
符号化された映像データは、映像の残差データの符号化結果であってもよい。
深度別符号化モードについての情報は、符号化深度情報、予測単位のパーティションタイプ情報、予測モード情報、変換単位の大きさ情報などを含んでもよい。
符号化深度情報は、現在深度に符号化せず、下位深度の符号化単位に符号化するか否かを示す深度別分割情報を利用して定義される。現在符号化単位の現在深度が、符号化深度であるならば、現在符号化単位は、現在深度の符号化単位で符号化されるので、現在深度の分割情報は、それ以上下位深度に分割されないように定義される。一方、現在符号化単位の現在深度が符号化深度ではないならば、下位深度の符号化単位を利用した符号化を試みなればならないので、現在深度の分割情報は、下位深度の符号化単位に分割されるように定義される。
現在深度が符号化深度ではないならば、下位深度の符号化単位に分割された符号化単位について符号化が行われる。現在深度の符号化単位内に、下位深度の符号化単位が一つ以上存在するので、それぞれの下位深度の符号化単位ごとに、反復的に符号化が行われ、同一深度の符号化単位ごとに、再帰的(recursive)符号化が行われる。
1つの最大符号化単位内に、ツリー構造の符号化単位が決定され、符号化深度の符号化単位ごとに、少なくとも1つの符号化モードについての情報が決定されなければならないので、1つの最大符号化単位については、少なくとも1つの符号化モードについての情報が決定される。また、最大符号化単位のデータは、深度によって階層的に区画され、位置別に符号化深度が異なることがあるので、データについて、符号化深度及び符号化モードについての情報が設定される。
従って、一実施形態による出力部130は、最大符号化単位に含まれている符号化単位、予測単位及び最小単位のうち少なくとも一つについて、当該符号化深度及び符号化モードに係わる符号化情報が割り当てられる。
一実施形態による最小単位は、最下位符号化深度である最小符号化単位が4分割された大きさの正方形のデータ単位であり、最大符号化単位に含まれる全ての符号化単位、予測単位及び変換単位内に含まれる最大サイズの正方形データ単位であってもよい。
例えば、出力部130を介して出力される符号化情報は、深度別符号化単位別符号化情報と、予測単位別符号化情報とに分類される。深度別符号化単位別符号化情報は、予測モード情報、パーティションサイズ情報を含んでもよい。予測単位別に伝送される符号化情報は、インターモードの推定方向についての情報、インターモードの参照映像インデックスについての情報、動きベクトルについての情報、イントラモードのクロマ成分についての情報、イントラモードの補間方式についての情報などを含んでもよい。また、ピクチャ、スライスまたはGOP別に定義される符号化単位の最大サイズについての情報、及び最大深度についての情報は、ビットストリームのヘッダに挿入される。
ビデオ符号化装置100の最も簡単な形態の実施形態によれば、深度別符号化単位は、1階層上位深度の符号化単位の高さ及び幅を半分にした大きさの符号化単位である。すなわち、現在深度の符号化単位の大きさが2Nx2Nであるならば、下位深度の符号化単位の大きさは、NxNである。また、2Nx2Nサイズの現在符号化単位は、NxNサイズの下位深度符号化単位を最大4個含む。
従って、一実施形態によるビデオ符号化装置100は、現在ピクチャの特性を考慮して決定された最大符号化単位の大きさ及び最大深度を基に、それぞれの最大符号化単位ごとに、最適の形態及び大きさの符号化単位を決定し、ツリー構造による符号化単位を構成することができる。また、それぞれの最大符号化単位ごとに、多様な予測モード、周波数変換方式などで符号化することができるので、多様な映像サイズの符号化単位の映像特性を考慮して、最適の符号化モードが決定される。
従って、映像の解像度が非常に高いか、あるいはデータ量が非常に多い映像を既存マクロブロック単位に符号化するのであれば、ピクチャ当たりマクロブロックの数が過度に多くなる。それによって、マクロブロックごとに生成される圧縮情報も多くなるので、圧縮情報の伝送負担が大きくなり、データ圧縮効率が低下する傾向がある。従って、一実施形態によるビデオ符号化装置は、映像の大きさを考慮して、符号化単位の最大サイズを増大させながら、映像特性を考慮して、符号化単位を調節することができるので、映像圧縮効率が上昇する。
図2は、本発明の一実施形態によるビデオ復号化装置のブロック図を図示している。一実施形態によるビデオ復号化装置200は、受信部210、映像データ及び符号化情報抽出部220、並びに映像データ復号化部230を含む。一実施形態によるビデオ復号化装置200の各種プロセッシングのための符号化単位、深度、予測単位、変換単位、各種符号化モードについての情報など、各種用語の定義は、図1及びビデオ符号化装置100を参照して説明したところと同一である。
受信部205は、符号化されたビデオに係わるビットストリームを受信してパージング(parsing)する。映像データ及び符号化情報抽出部220は、パージングされたビットストリームから、最大符号化単位別に、ツリー構造による符号化単位によって、符号化単位ごとに符号化された映像データを抽出し、映像データ復号化部230に出力する。映像データ及び符号化情報抽出部220は、現在ピクチャに係わるヘッダから、現在ピクチャの符号化単位の最大サイズについての情報を抽出することができる。
また、映像データ及び符号化情報抽出部220は、パージングされたビットストリームから、最大符号化単位別に、ツリー構造による符号化単位に係わる符号化深度及び符号化モードについての情報を抽出する。抽出された符号化深度及び符号化モードについての情報は、映像データ復号化部230に出力される。すなわち、ビット列の映像データを最大符号化単位に分割し、映像データ復号化部230をして、最大符号化単位ごとに、映像データを復号化させる。
最大符号化単位別符号化深度及び符号化モードについての情報は、一つ以上の符号化深度情報について設定され、符号化深度別符号化モードについての情報は、当該符号化単位のパーティションタイプ情報、予測モード情報及び変換単位の大きさ情報などを含んでもよい。また、符号化深度情報として、深度別分割情報が抽出されもする。
映像データ及び符号化情報抽出部220が抽出した最大符号化単位別符号化深度及び符号化モードについての情報は、一実施形態によるビデオ符号化装置100のように、符号化端で、最大符号化単位別深度別符号化単位ごとに、反復的に符号化を行い、最小符号化誤差を発生させると決定された符号化深度及び符号化モードについての情報である。従って、ビデオ復号化装置200は、最小符号化誤差を発生させる符号化方式によってデータを復号化して映像を復元することができる。
一実施形態による符号化深度及び符号化モードに係わる符号化情報は、当該符号化単位、予測単位及び最小単位のうち、所定データ単位について割り当てられているので、映像データ及び符号化情報抽出部220は、所定データ単位別に、符号化深度及び符号化モードについての情報を抽出することができる。所定データ単位別に、当該最大符号化単位の符号化深度及び符号化モードについての情報が記録されているのであれば、同一の符号化深度及び符号化モードについての情報を有している所定データ単位は、同一の最大符号化単位に含まれるデータ単位であると類推される。
映像データ復号化部230は、最大符号化単位別符号化深度及び符号化モードについての情報に基づいて、それぞれの最大符号化単位の映像データを復号化し、現在ピクチャを復元する。すなわち、映像データ復号化部230は、最大符号化単位に含まれるツリー構造による符号化単位において、それぞれの符号化単位ごとに、読み取られたパーティションタイプ、予測モード、変換単位に基づいて符号化された映像データを、復号化することができる。復号化過程は、イントラ予測及び動き補償を含む予測過程、及び周波数逆変換過程を含んでもよい。
映像データ復号化部230は、符号化深度別符号化単位の予測単位のパーティションタイプ情報及び予測モード情報に基づいて、符号化単位ごとに、それぞれのパーティション及び予測モードによって、イントラ予測または動き補償を行うことができる。
また、映像データ復号化部230は、最大符号化単位別周波数逆変換のために、符号化深度別符号化単位の変換単位の大きさ情報に基づいて、符号化単位ごとに、それぞれの変換単位によって周波数逆変換を行うことができる。
映像データ復号化部230は、深度別分割情報を利用して、現在最大符号化単位の符号化深度を決定することができる。もし、分割情報が現在深度で、それ以上分割されないことを示しているのであれば、現在深度が符号化深度である。従って、映像データ復号化部230は、現在最大符号化単位の映像データについて、現在深度の符号化単位を、予測単位のパーティションタイプ、予測モード及び変換単位サイズ情報を利用して、復号化することができる。
すなわち、符号化単位、予測単位及び最小単位のうち、所定データ単位について設定されている符号化情報を観察し、同一の分割情報を含んだ符号化情報を保有しているデータ単位が集まり、映像データ復号化部230によって同一の符号化モードで復号化され1つのデータ単位と見なされる。
一実施形態によるビデオ復号化装置200は、符号化過程で、最大符号化単位ごとに、再帰的に符号化を行い、最小符号化誤差を発生させた符号化単位に係わる情報を獲得し、現在ピクチャに係わる復号化に利用することができる。すなわち、最大符号化単位ごとに、最適符号化単位に決定されたツリー構造による符号化単位の符号化された映像データの復号化が可能になる。
従って、高い解像度の映像、またはデータ量が過度に多い映像でも、符号化端から伝送された最適符号化モードについての情報を利用して、映像の特性に適応的に決定された符号化単位の大きさ及び符号化モードによって、効率的に映像データを復号化して復元することができる。
以下、図3ないし図13を参照して、本発明の一実施形態によるツリー構造による符号化単位、予測単位及び変換単位の決定方式について説明する。
図3は、階層的符号化単位の概念を図示している。符号化単位の例は、符号化単位の大きさは、幅x高さで表現され、サイズ64x64である符号化単位から、32x32、16x16、8x8を含んでもよい。サイズ64x64の符号化単位は、サイズ64x64,64x32,32x64,32x32のパーティションに分割され、サイズ32x32の符号化単位は、サイズ32x32,32x16,16x32,16x16のパーティションで、サイズ16x16の符号化単位は、サイズ16x16,16x8,8x16,8x8のパーティションに、サイズ8x8の符号化単位は、サイズ8x8,8x4,4x8,4x4のパーティションに分割される。
ビデオデータ310については、解像度が1920x1080、符号化単位の最大サイズが64、最大深度が2に設定されている。ビデオデータ320については、解像度が1920x1080、符号化単位の最大サイズが64、最大深度が3に設定されている。ビデオデータ330については、解像度が352x288、符号化単位の最大サイズが16、最大深度が1に設定されている。図3に図示された最大深度は、最大符号化単位から最小符号化単位までの全分割回数を示す。
解像度が高いか、あるいはデータ量が多い場合、符号化効率の向上だけではなく、映像特性を正確に反映させるために、符号化サイズの最大サイズが相対的に大きいことが望ましい。従って、ビデオデータ330に比べて、解像度の高いビデオデータ310,320は、符号化サイズの最大サイズが64に選択される。
ビデオデータ310の最大深度が2であるので、ビデオデータ310の符号化単位315は、長軸サイズが64である最大符号化単位から、2回分割されて深度が2階層深くなり、長軸サイズが32,16である符号化単位まで含んでもよい。一方、ビデオデータ330の最大深度が1であるので、ビデオデータ330の符号化単位335は、長軸サイズが16である符号化単位から、1回分割されて深度が1階層深くなり、長軸サイズが8である符号化単位まで含んでもよい。
ビデオデータ320の最大深度が3であるので、ビデオデータ320の符号化単位325は、長軸サイズが64である最大符号化単位から、3回分割されて深度が3階層深くなり、長軸サイズが32,16,8である符号化単位まで含んでもよい。深度が深くなるほど、詳細情報の表現能力が向上する。
図4は、本発明の一実施形態による符号化単位に基づいた映像符号化部のブロック図を図示している。一実施形態による映像符号化部400は、ビデオ符号化装置100の符号化単位決定部120で、映像データを符号化するのに経る作業を含む。すなわち、イントラ予測部410は、現在フレーム405において、イントラモードの符号化単位について、イントラ予測を行い、動き推定部420及び動き補償部425は、インターモードの現在フレーム405及び参照フレーム495を利用して、インター推定及び動き補償を行う。
イントラ予測部410、動き推定部420及び動き補償部425から出力されたデータは、周波数変換部430及び量子化部440を経て、量子化された変換係数に出力される。量子化された変換係数は、逆量子化部460、周波数逆変換部470を介して、空間領域のデータに復元され、復元された空間領域のデータは、デブロッキング部480及びループ・フィルタリング部490を経て後処理され、参照フレーム495として出力される。量子化された変換係数は、エントロピ符号化部450を経て、ビットストリーム455として出力される。
一実施形態によるビデオ符号化装置100に適用されるためには、映像符号化部400の構成要素である、イントラ予測部410、動き推定部420、動き補償部425、周波数変換部430、量子化部440、エントロピ符号化部450、逆量子化部460、周波数逆変換部470、デブロッキング部480及びループ・フィルタリング部490が、いずれも最大符号化単位ごとに、最大深度を考慮して、ツリー構造による符号化単位のうち、それぞれの符号化単位に基づいた作業を行わなければならない。
特に、イントラ予測部410、動き推定部420及び動き補償部425は、現在最大符号化単位の最大サイズ及び最大深度を考慮して、ツリー構造による符号化単位のうち、それぞれの符号化単位のパーティション及び予測モードを決定して、周波数変換部430は、ツリー構造による符号化単位のうち、それぞれの符号化単位内の変換単位の大きさを決定しなければならない。
図5は、本発明の一実施形態による符号化単位に基づいた映像復号化部のブロック図を図示している。ビットストリーム505がパージング部510を経て、復号化対象である符号化された映像データ、及び復号化のために必要な符号化についての情報がパージングされる。符号化された映像データは、エントロピ復号化部520及び逆量子化部530を経て、逆量子化されたデータとして出力され、周波数逆変換部540を経て、空間領域の映像データが復元される。
空間領域の映像データについて、イントラ予測部550は、イントラモードの符号化単位についてイントラ予測を行い、動き補償部560は、参照フレーム585を共に利用して、インターモードの符号化単位について動き補償を行う。
イントラ予測部550及び動き補償部560を経た空間領域のデータは、デブロッキング部570及びループ・フィルタリング部580を経て後処理され、復元フレーム595として出力される。また、デブロッキング部570及びループ・フィルタリング部580を経て後処理されたデータは、参照フレーム585として出力される。
ビデオ復号化装置200の映像データ復号化部230で、映像データを復号化するために、一実施形態による映像復号化部500のパージング部510以後の段階別作業が行われる。
一実施形態によるビデオ復号化装置200に適用されるためには、映像復号化部500の構成要素である、パージング部510、エントロピ復号化部520、逆量子化部530、周波数逆変換部540、イントラ予測部550、動き補償部560、デブロッキング部570及びループ・フィルタリング部580が、いずれも最大符号化単位ごとに、ツリー構造による符号化単位に基づいて作業を行わなければならない。
特に、イントラ予測部550、動き補償部560は、ツリー構造による符号化単位ごとに、それぞれパーティション及び予測モードを決定し、周波数逆変換部540は、符号化単位ごとに、変換単位の大きさを決定しなければならない。
図6は、本発明の一実施形態による深度別符号化単位及びパーティションを図示している。
一実施形態によるビデオ符号化装置100、及び一実施形態によるビデオ復号化装置200は、映像特性を考慮するために、階層的な符号化単位を使う。符号化単位の最大高さ及び幅、最大深度は、映像の特性によって、適応的に決定され、ユーザの要求によって、多様に設定されもする。あらかじめ設定された符号化単位の最大サイズによって、深度別符号化単位の大きさが決定されてもよい。
一実施形態による符号化単位の階層構造600は、符号化単位の最大高さ及び幅が64であり、最大深度が4である場合を図示している。一実施形態による符号化単位の階層構造600の縦軸に沿って深度が深くなるので、深度別符号化単位の高さ及び幅がそれぞれ分割される。また、符号化単位の階層構造600の横軸に沿って、それぞれの深度別符号化単位の予測符号化の基盤になる予測単位及びパーティションが図示されている。
すなわち、符号化単位610は、符号化単位の階層構造600において、最大符号化単位であって深度が0であり、符号化単位の大きさ、すなわち、高さ及び幅が64x64である。縦軸に沿って深度が深くなり、サイズ32x32である深度1の符号化単位620、サイズ16x16である深度2の符号化単位630、サイズ8x8である深度3の符号化単位640、サイズ4x4である深度4の符号化単位650が存在する。サイズ4x4である深度4の符号化単位650は、最小符号化単位である。
それぞれの深度別に横軸に沿って、符号化単位の予測単位及びパーティションが配列される。すなわち、深度0のサイズ64x64の符号化単位610が予測単位であるならば、予測単位は、サイズ64x64の符号化単位610に含まれるサイズ64x64のパーティション610、サイズ64x32のパーティション612、サイズ32x64のパーティション614、サイズ32x32のパーティション616に分割される。
同様に、深度1のサイズ32x32の符号化単位620の予測単位は、サイズ32x32の符号化単位620に含まれるサイズ32x32のパーティション620、サイズ32x16のパーティション622、サイズ16x32のパーティション624、サイズ16x16のパーティション626に分割される。
同様に、深度2のサイズ16x16の符号化単位630の予測単位は、サイズ16x16の符号化単位630に含まれるサイズ16x16のパーティション630、サイズ16x8のパーティション632、サイズ8x16のパーティション634、サイズ8x8のパーティション636に分割される。
同様に、深度3のサイズ8x8の符号化単位640の予測単位は、サイズ8x8の符号化単位640に含まれるサイズ8x8のパーティション640、サイズ8x4のパーティション642、サイズ4x8のパーティション644、サイズ4x4のパーティション646に分割される。
最後に、深度4のサイズ4x4の符号化単位650は、最小符号化単位であり、最下位深度の符号化単位であり、当該予測単位も、サイズ4x4のパーティション650だけに設定される。
一実施形態によるビデオ符号化装置100の符号化単位決定部120は、最大符号化単位610の符号化深度を決定するために、最大符号化単位610に含まれるそれぞれの深度の符号化単位ごとに、符号化を行わなければならない。
同一の範囲及び大きさのデータを含むための深度別符号化単位の個数は、深度が深くなるほど、深度別符号化単位の個数も増加する。例えば、深度1の符号化単位一つが含むデータについて、深度2の符号化単位は、四つが必要である。従って、同一のデータの符号化結果を深度別に比較するために、1つの深度1の符号化単位、及び4つの深度2の符号化単位を利用して、それぞれ符号化されなければならない。
それぞれの深度別符号化のためには、符号化単位の階層構造600の横軸に沿って、深度別符号化単位の予測単位ごとに符号化を行い、当該深度で最小の符号化誤差である代表符号化誤差が選択される。また、符号化単位の階層構造600の縦軸に沿って深度が深くなり、それぞれの深度ごとに符号化を行い、深度別代表符号化誤差を比較して最小符号化誤差が検索される。最大符号化単位610において、最小符号化誤差が発生する深度及びパーティションが、最大符号化単位610の符号化深度及びパーティションタイプに選択される。
図7は、本発明の一実施形態による、符号化単位及び変換単位の関係を図示している。
一実施形態によるビデオ符号化装置100、または一実施形態によるビデオ復号化装置200は、最大符号化単位ごとに、最大符号化単位より小さいか、あるいはそれと同じ大きさの符号化単位で、映像を符号化したり復号化する。符号化過程において、周波数変換のための変換単位の大きさは、それぞれの符号化単位より大きくないデータ単位を基に選択される。
例えば、一実施形態によるビデオ符号化装置100、または一実施形態によるビデオ復号化装置200で、現在符号化単位710が64x64サイズであるとき、32x32サイズの変換単位720を利用して周波数変換が行われる。
また、64x64サイズの符号化単位710のデータを、64x64サイズ以下の32x32,16x16,8x8,4x4サイズの変換単位で、それぞれ周波数変換を行って符号化した後、原本との誤差が最小である変換単位が選択される。
図8は、本発明の一実施形態による深度別符号化情報を図示している。一実施形態によるビデオ符号化装置100の出力部130は、符号化モードについての情報であり、それぞれの符号化深度の符号化単位ごとに、パーティションタイプについての情報800、予測モードについての情報810、変換単位サイズに係わる情報820を符号化して伝送することができる。
パーティションタイプに係わる情報800は、現在符号化単位の予測符号化のためのデータ単位として、現在符号化単位の予測単位が分割されたパーティションの形態に係わる情報を示す。例えば、サイズ2Nx2Nの現在符号化単位CU_0は、サイズ2Nx2Nのパーティション802、サイズ2NxNのパーティション804、サイズNx2Nのパーティション806、サイズNxNのパーティション808のうち、いずれか1つのタイプに分割されて利用される。その場合、現在符号化単位のパーティションタイプについての情報800は、サイズ2Nx2Nのパーティション802、サイズ2NxNのパーティション804、サイズNx2Nのパーティション806及びサイズNxNのパーティション808のうち一つを示すように設定される。
予測モードについての情報810は、それぞれのパーティションの予測モードを示す。例えば、予測モードについての情報810を介して、パーティションタイプについての情報800が示すパーティションが、イントラモード812、インターモード814及びスキップモード816のうち一つで予測符号化が行われるかが設定される。
また、変換単位サイズについての情報820は、現在符号化単位を、いかなる変換単位を基に周波数変換を行うかを示す。例えば、変換単位は、第1イントラ変換単位サイズ822、第2イントラ変換単位サイズ824、第1インター変換単位サイズ826、第2イントラ変換単位サイズ828のうち一つである。
一実施形態によるビデオ復号化装置200の映像データ及び符号化情報抽出部210は、それぞれの深度別符号化単位ごとに、パーティションタイプについての情報800、予測モードについての情報810、変換単位サイズに係わる情報820を抽出し、復号化に利用することができる。
図9は、本発明の一実施形態による深度別符号化単位を図示している。
深度の変化を示すために、分割情報が利用される。分割情報は、現在深度の符号化単位が、下位深度の符号化単位に分割されるか否かを示す。
深度0及び2N_0x2N_0サイズの符号化単位900の予測符号化のための予測単位910は、2N_0x2N_0サイズのパーティションタイプ912、2N_0xN_0サイズのパーティションタイプ914、N_0x2N_0サイズのパーティションタイプ916、N_0xN_0サイズのパーティションタイプ918を含んでもよい。予測単位が対称的な比率に分割されたパーティション912,914,916,918だけが例示されているが、前述のように、パーティションタイプは、それらに限定されるものではなく、非対称的パーティション、任意的形態のパーティション、幾何学的形態のパーティションなどを含んでもよい。
パーティションタイプごとに、1つの2N_0x2N_0サイズのパーティション、2つの2N_0xN_0サイズのパーティション、2つのN_0x2N_0サイズのパーティション、4つのN_0xN_0サイズのパーティションごとに反復的に予測符号化が行われなければならない。サイズ2N_0x2N_0、サイズN_0x2N_0、サイズ2N_0xN_0及びサイズN_0xN_0のパーティションについては、イントラモード及びインターモードで予測符号化が行われる。スキップモードは、サイズ2N_0x2N_0のパーティションについてのみ予測符号化が行われる。
サイズ2N_0x2N_0,2N_0xN_0及びN_0x2N_0のパーティションタイプ912,914,916のうち一つによる符号化誤差が最小であれば、それ以上下位深度に分割する必要ない。
サイズN_0xN_0のパーティションタイプ918による符号化誤差が最小であれば、深度0を1に変更しながら分割し(920)、深度2及びサイズN_0xN_0のパーティションタイプの符号化単位930について反復的に符号化を行い、最小符号化誤差を検索して行くことができる。
深度1及びサイズ2N_1x2N_1(=N_0xN_0)の符号化単位930の予測符号化のための予測単位940は、サイズ2N_1x2N_1のパーティションタイプ942、サイズ2N_1xN_1のパーティションタイプ944、サイズN_1x2N_1のパーティションタイプ946、サイズN_1xN_1のパーティションタイプ948を含んでもよい。
また、サイズN_1xN_1サイズのパーティションタイプ948による符号化誤差が最小であれば、深度1を深度2に変更しながら分割し(950)、深度2及びサイズN_2xN_2の符号化単位960について反復的に符号化を行い、最小符号化誤差を検索して行くことができる。
最大深度がdである場合、深度別分割情報は、深度d−1になるまで設定され、分割情報は、深度d−2まで設定される。すなわち、深度d−2から分割され(970)、深度d−1まで符号化が行われる場合、深度d−1及びサイズ2N_(d−1)x2N_(d−1)の符号化単位980の予測符号化のための予測単位990は、サイズ2N_(d−1)x2N_(d−1)のパーティションタイプ992、サイズ2N_(d−1)xN_(d−1)のパーティションタイプ994、サイズN_(d−1)x2N_(d−1)のパーティションタイプ996、サイズN_(d−1)xN_(d−1)のパーティションタイプ998を含んでもよい。
パーティションタイプのうち、1つのサイズ2N_(d−1)x2N_(d−1)のパーティション、2つのサイズ2N_(d−1)xN_(d−1)のパーティション、2つのサイズN_(d−1)x2N_(d−1)のパーティション、4つのサイズN_(d−1)xN_(d−1)のパーティションごとに、反復的に予測符号化を介した符号化が行われ、最小符号化誤差が発生するパーティションタイプが検索される。
サイズN_(d−1)xN_(d−1)のパーティションタイプ998による符号化誤差が最小であったとしても、最大深度がdであるので、深度d−1の符号化単位CU_(d−1)は、それ以上下位深度への分割過程を経ず、現在最大符号化単位900に係わる符号化深度が深度d−1に決定され、パーティションタイプは、N_(d−1)xN_(d−1)に決定される。また、最大深度がdであるので、深度d−1の符号化単位952について、分割情報は設定されない。
データ単位999は、現在最大符号化単位に係わる「最小単位」であるとする。一実施形態による最小単位は、最下位符号化深度である最小符号化単位が4分割されたサイズの正方形のデータ単位であってもよい。このような反復的符号化過程を介して、一実施形態によるビデオ符号化装置100は、符号化単位900の深度別符号化誤差を比較し、最小の符号化誤差が発生する深度を選択し、符号化深度を決定し、当該パーティションタイプ及び予測モードが符号化深度の符号化モードに設定される。
このように、深度0,1,…,d−1,dの全ての深度別最小符号化誤差を比較し、誤差が最小である深度が選択されて符号化深度に決定される。符号化深度、予測単位のパーティションタイプ及び予測モードは、符号化モードについての情報として符号化されて伝送される。また、深度0から符号化深度に至るまで符号化単位が分割されなければならないので、符号化深度の分割情報だけが「0」に設定され、符号化深度を除いた深度別分割情報は、「1」に設定されなければならない。
一実施形態によるビデオ復号化装置200の映像データ及び符号化情報抽出部220は、符号化単位900に係わる符号化深度及び予測単位についての情報を抽出し、符号化単位912を復号化するのに利用することができる。一実施形態によるビデオ復号化装置200は、深度別分割情報を利用して、分割情報が「0」である深度を符号化深度として把握し、当該深度に係わる符号化モードについての情報を利用して、復号化に利用することができる。
図10、図11及び図12は、本発明の一実施形態による、符号化単位、予測単位及び周波数変換単位の関係を図示している。
符号化単位1010は、最大符号化単位について、一実施形態によるビデオ符号化装置100が決定した符号化深度別符号化単位である。予測単位1060は、符号化単位1010において、それぞれの符号化深度別符号化単位の予測単位のパーティションであり、変換単位1070は、それぞれの符号化深度別符号化単位の変換単位である。
深度別符号化単位1010は、最大符号化単位の深度が0であるとすれば、符号化単位1012,1054は、深度が1、符号化単位1014,1016,1018,1028,1050,1052は、深度が2、符号化単位1020,1022,1024,1026,1030,1032,1048は、深度が3、符号化単位1040,1042,1044,1046は、深度が4である。
予測単位1060において、一部パーティション1014,1016,1022,1032,1048,1050,1052,1054は、符号化単位が分割された形態である。すなわち、パーティション1014,1022,1050,1054は、2NxNのパーティションタイプであり、パーティション1016,1048,1052は、Nx2Nのパーティションタイプ、パーティション1032は、NxNのパーティションタイプである。深度別符号化単位1010の予測単位及びパーティションは、それぞれの符号化単位より小さいか、あるいはそれと同じである。
変換単位1070において、一部変換単位1052の映像データについては、符号化単位に比べて小サイズのデータ単位で、周波数変換または周波数逆変換が行われる。また、変換単位1014,1016,1022,1032,1048,1050,1052,1054は、予測単位1060において、当該予測単位及びパーティションと比較すれば、互いに異なるサイズまたは形態のデータ単位である。すなわち、一実施形態によるビデオ符号化装置100、及び一実施形態に他のビデオ復号化装置200は、同一の符号化単位に係わるイントラ予測/動き推定/動き補償作業、及び周波数変換/逆変換作業であるとしても、それぞれ別個のデータ単位を基に行われる。
これにより、最大符号化単位ごとに、領域別に階層的な構造の符号化単位ごとに、再帰的に符号化が行われて最適符号化単位が決定されることにより、再帰的ツリー構造による符号化単位が構成される。符号化情報は、符号化単位に係わる分割情報、パーティションタイプ情報、予測モード情報、変換単位サイズ情報を含んでもよい。以下の表1は、一実施形態によるビデオ符号化装置100、及び一実施形態によるビデオ復号化装置200で設定することができる一例を示している。
Figure 2013542667
一実施形態によるビデオ符号化装置100の出力部130は、ツリー構造による符号化単位に係わる符号化情報を出力し、一実施形態によるビデオ復号化装置200の符号化情報抽出部220は、受信されたビットストリームから、ツリー構造による符号化単位に係わる符号化情報を抽出することができる。
分割情報は、現在符号化単位が、下位深度の符号化単位に分割されるか否かを示す。現在深度dの分割情報が0であるならば、現在符号化単位が下位符号化単位にそれ以上分割されない深度が符号化深度であるので、符号化深度について、パーティションタイプ情報、予測モード、変換単位サイズ情報が定義される。分割情報によって、1段階さらに分割されなければならない場合には、分割された4個の下位深度の符号化単位ごとに、独立して符号化が行われなければならない。
予測モードは、イントラモード、インターモード及びスキップモードのうち一つで示すことができる。イントラモード及びインターモードは、全てのパーティションタイプで定義され、スキップモードは、パーティションタイプ2Nx2Nでのみ定義される。
パーティションタイプ情報は、予測単位の高さまたは幅が対称的な比率に分割された対称的パーティションタイプ2Nx2N,2NxN,Nx2N及びNxNと、非対称的な比率に分割された非対称的パーティションタイプ2NxnU,2NxnD,nLx2N,nRx2Nとを示すことができる。非対称的パーティションタイプ2NxnU及び2NxnDは、それぞれ高さが1:3及び3:1に分割された形態であり、非対称的パーティションタイプnLx2N及びnRx2Nは、それぞれ幅が1:3及び3:1に分割された形態を示す。
変換単位サイズは、イントラモードで2種の大きさ、インターモードで2種の大きさに設定される。すなわち、変換単位分割情報が0であるならば、変換単位の大きさが、現在符号化単位のサイズ2Nx2Nに設定される。変換単位分割情報が1であるならば、現在符号化単位が分割された大きさの変換単位が設定される。また、サイズ2Nx2Nである現在符号化単位に係わるパーティションタイプが、対称形パーティションタイプであるならば、変換単位の大きさは、NxN、非対称形パーティションタイプであるならば、N/2xN/2に設定される。
一実施形態によるツリー構造による符号化単位の符号化情報は、符号化深度の符号化単位、予測単位及び最小単位のうち、少なくとも一つについて割り当てられる。符号化深度の符号化単位は、同一の符号化情報を保有している予測単位及び最小単位を一つ以上含んでもよい。
従って、隣接したデータ単位同士それぞれ保有している符号化情報を確認すれば、同一の符号化深度の符号化単位に含まれるか否かが確認される。また、データ単位が保有している符号化情報を利用すれば、当該符号化深度の符号化単位を確認することができるので、最大符号化単位内の符号化深度の分布が類推される。
従って、その場合、現在符号化単位が周辺データ単位を参照して予測する場合、現在符号化単位に隣接する深度別符号化単位内のデータ単位の符号化情報が直接参照されて利用される。
他の実施形態で、現在符号化単位が周辺符号化単位を参照して予測符号化が行われる場合、隣接する深度別符号化単位の符号化情報を利用して、深度別符号化単位内で、現在符号化単位に隣接するデータが検索されることにより、周辺符号化単位が参照される。
図13は、表1の符号化モード情報による符号化単位、予測単位及び変換単位の関係を図示している。最大符号化単位1300は、符号化深度の符号化単位1302,1304,1306,1312,1314,1316,1318を含む。このうち1つの符号化単位1318は、符号化深度の符号化単位であるので、分割情報が0に設定される。サイズ2Nx2Nの符号化単位1318のパーティションタイプ情報は、パーティションタイプ2Nx2N 1322,2NxN 1324,Nx2N 1326,NxN 1328,2NxnU 1332,2NxnD 1334,nLx2N 1336及びnRx2N 1338のうち一つに設定される。
パーティションタイプ情報が、対称形パーティションタイプ2Nx2N 1322,2NxN 1324,Nx2N 1326及びNxN 1328のうち一つに設定されている場合、変換単位分割情報(TU size flag)が0であるならば、サイズ2Nx2Nの変換単位1342が設定され、変換単位分割情報が1であるならば、サイズNxNの変換単位1344が設定される。
パーティションタイプ情報が、非対称形パーティションタイプ2NxnU 1332、2NxnD 1334、nLx2N 1336及びnRx2N 1338のうち一つに設定された場合、変換単位分割情報(TU size flag)が0であるならば、サイズ2Nx2Nの変換単位1352が設定され、変換単位分割情報が1であるならば、サイズN/2xN/2の変換単位1354が設定される。
以下、図4の本発明の一実施形態による符号化装置400、及び図5の復号化装置500で遂行される予測過程について具体的に説明する。本発明の一実施形態による予測過程は、図4のイントラ予測部410、及び図5のイントラ予測部550で、新たなイントラ予測モードとして遂行される。以下の説明で、前述の予測単位は、ブロックとする。
一般的に、カラービデオ信号は、カラーを表現するために、各ピクセルごとに少なくとも3つの色成分を必要とする。カラー空間は、カラービデオ信号の各サンプルを、赤色(red)、緑色(green)、青色(blue)の相対的な比率を示す3つのピクセル値を介して示すRGBカラー空間、人間の視覚システム(HVS:human visual system)が輝度にさらに敏感であるということを考慮して、カラービデオ信号で、輝度と色差成分とを分離して表現するYCbCrカラー空間、及びYUVカラー空間などの多様な種類が存在する。一般的なビデオ符号化/復号化方法は、ビデオ信号をこのような複数個の色成分に分け、符号化及び復号化を行う。このような複数個の色成分を含むビデオ信号で、同一ピクセルを表現する複数個の色成分間には、一定の相関関係が存在する確率が高い。例えば、対応する同一ブロックのピクセルの輝度(Y)成分の値と、色差(Cb,Cr)の値は、互いに類似したパターンを有することができる。
従って、本発明の一実施形態によるイントラ予測装置は、現在色差ブロックの処理以前に復元された周辺輝度ピクセル、及び復元された周辺色差ピクセルを利用して、輝度信号と色差信号との線形的な相関関係を示すパラメータを獲得し、獲得されたパラメータを利用して、以前に復元された輝度ブロックから、現在色差ブロックの予測値を生成する。特に、本発明の一実施形態によれば、輝度信号と色差信号との線形的相関関係を示すパラメータを、ハードウェア的に負担になる除算演算を防止し、シフト演算、乗算演算、加算演算、減算演算及びルックアップ(look-up)テーブル・アクセスのみを利用して、効率的に獲得する方式が提供される。また、本発明の一実施形態によれば、パラメータを獲得する演算過程で、必要な値をルックアップ・テーブル方式にあらかじめ保存し、ルックアップ・テーブルを参照してパラメータを獲得する演算過程を遂行することにより、演算量を減少させる方式が提供される。以下の説明で、輝度成分のピクセルから、対応する色差成分のピクセルを予測する過程を中心に説明するが、本発明の思想は、かようなYCbCrカラー空間に限定されるものではなく、RGBなど、他のカラー空間にも適用されるということは、本発明が属する技術分野で当業者であるならば、理解することができるであろう。
図14は、本発明の一実施形態によるイントラ予測装置の構成を示したブロック図である。図14を参照すれば、本発明の一実施形態によるイントラ予測装置1400は、サンプリング部1410、パラメータ獲得部1420及び予測遂行部1430を含む。
サンプリング部1410は、輝度ブロックの大きさが対応する色差ブロックの大きさより大きい場合、復元された輝度ブロックのピクセル及び周辺ピクセルをダウンサンプリングし、輝度信号の大きさと色差信号との大きさとを同一にマッチングさせる。
パラメータ獲得部1420は、色差ブロックの復元された周辺ピクセル、及び色差ブロックと対応する輝度ブロックの復元された周辺ピクセルに基づいて、色差ブロックと輝度ブロックとの相関関係を示すパラメータを獲得する。特に、パラメータ獲得部1410は、後述するルックアップ・テーブルの大きさ及びパラメータ獲得のための演算過程で発生するオーバーフローを防止するために、ビット深度を変更するスケーリング過程を遂行する。具体的なパラメータ獲得部1410の動作は、後述する。
予測遂行部1430は、獲得されたパラメータを利用して、復元された輝度ピクセルから対応する色差ピクセルを予測する。
図15Aないし図15Cは、複数個の色成分を含む色フォーマットを示した参照図であり、図16A及び図16B、は色フォーマットによる輝度ブロックと色差ブロックとを示した参照図である。
図15Aないし図15Cの4:2:0色フォーマット、4:2:2色フォーマット及び4:4:4色フォーマットで、各数字は、水平方向での相対的なサンプリングの比率を示す。例えば、4:4:4色フォーマットでは、4つの輝度(Y)ピクセル1530について、4つのCbピクセルと4つのCrピクセルとが存在する。図16Aを参照すれば、4:4:4色フォーマットでは、Y輝度ブロックの大きさを2Nx2M(N,Mは、整数)とするとき、Y輝度ブロックと対応するCb,Cr色差ブロックも、2Nx2Mの大きさを有する。4:2:2色フォーマットでは、色差成分Cb,Crは、垂直方向では、輝度成分Yと同一の解像度を有するが、水平方向では、輝度成分の1/2解像度を有する。すなわち、4:2:2色フォーマットでは、水平方向に4つの輝度ピクセル1510ごとに2つのCbピクセル及び2つのCrピクセルが存在する。また、4:2:0色フォーマットでは、色差成分Cb,Crは、輝度成分Yに比べて、水平と垂直とで1/2解像度を有する。すなわち、色差成分Cb,Crは、輝度成分Yのピクセル数に比べ、1/4のピクセルを有し、図16Bに図示されたように、4:2:0フォーマットで、2Nx2Mの大きさを有する輝度ブロックYに比べて、対応する色差ブロックCb,Crは、水平と垂直との方向に1/2ほど小さいNxMの大きさを有する。
従って、サンプリング部1410は、4:2:2色フォーマットまたは4:2:0色フォーマットのように、輝度ブロックが色差ブロックに比べて大きい場合、復元された輝度ブロック及び輝度ブロックの周辺ピクセルをダウンサンプリングし、輝度信号と色差信号とが1:1にマッチングされるようにする。
図17は、本発明の一実施形態によって、輝度信号をダウンサンプリングする過程について説明するための参照図である。図17を参照すれば、輝度ブロック1710の大きさを、2nSx2nS(nSは、正の整数)、色差ブロック1720の大きさを、nSxnSとすれば、サンプリング部1410は、輝度ブロック1710及びその周辺ピクセルを、1/2比率でダウンサンプリングする。具体的には、サンプリング部1410は、次の数式(1)及び数式(2)に基づいて、復元された輝度信号Rec_Lをダウンサンプリングし、ダウンサンプリングされた輝度信号Rec_L」(x,y)を生成する。
数式(1)によれば、現在ブロック内に位置した輝度ピクセル、及び現在ブロックの左側に隣接した輝度ピクセルは、色差サンプルの相対的な位置によって、正確にダウンサンプリングされる。
Figure 2013542667
(x=−1,…,nS−1,y=0,…,nS−1)
数式(2)によれば、現在ブロックの上側に隣接した輝度ピクセルは、本発明の実施形態によるイントラ予測方法において、輝度ピクセルのバッファラインを、2本のラインから1本のラインに減少させるために、ただ一番目上のラインのピクセルのみを利用してダウンサンプリングされる。
Figure 2013542667
(x=0,…,nS−1,y=−1)
もし数式(2)の低域通過フィルタがスキップされた場合には、次の数式:REC_L’(x,y)=Rec_L(2x、2y+1);(x=0,…,nS−1,y=−1)による代案的方法が数式(2)を代替して利用される。
(x,y)位置のピクセルのうち、xが−1であるピクセルは、ブロックに隣接した左側の周辺ピクセルを示し、yが−1であるピクセルは、ブロックに隣接した上側の周辺ピクセルを示すと仮定する。また、nSxnSブロック内のピクセルのうち、最左上側ピクセルの位置は(0,0)、最右下側ピクセルの位置は(nS−1,nS−1)であると仮定する。
4:2:2または4:2:0の色フォーマットを利用する場合にのみ、前述の数式(1)または数式(2)によってダウンサンプリングされた輝度信号Rec_L’(x,y)を利用し、4:4:4色フォーマットを利用する場合、復元された輝度信号Rec_L(x,y)をそのまま色差信号の予測に利用することができ、ダウンサンプリング過程は、スキップされる。
4:4:4色フォーマットの場合には、U信号及びV信号がY成分の信号に比べ、相対的にかなり狭い帯域を有するために、ダウンサンプリング・フィルタの代わりに、予測効率を向上させるために、低域通過フィルタが、復元された輝度信号に付加的に遂行される。
図18A及び図18Bは、本発明の一実施形態による輝度信号と色差信号との相関関係を示すパラメータ獲得過程、及び色差信号の予測過程について説明するための参照図である。
前述のように、対応する輝度ピクセルと色差ピクセルとの間には、所定の相関関係、例えば、線形的な相関関係を有する。図18A及び図18Bを参照すれば、以前に復元された輝度ブロック1820の(x,y)位置でのピクセルを、Rec_L’(x,y)であるとすれば、予測遂行部1430は、次の数式(3)のような輝度信号と色差信号との線形関係を利用して、色差ブロック1810の(x,y)位置での予測値Pred_c(x,y)を獲得することができる。
Figure 2013542667
数式(3)でaは、加重値(weight)を示すパラメータ、bは、オフセット(offset)を示すパラメータである。a及びbの値は、次の数式(4)及び数式(5)のように、色差ブロック1810の周辺ピクセルRec_c(i)(i=0,…,2nS−1)1811,1812、及び輝度ブロック1821の周辺ピクセルRec_L’(i)1821,1822を利用した演算過程を介して獲得される。
Figure 2013542667
数式(4)及び数式(5)でIは、色差ブロック1810または輝度ブロック1820の上側及び左側に隣接した周辺ピクセルの個数であり、図18A及び図18Bに図示されたように、色差ブロック1810及び輝度ブロック1820の大きさがnSxnSである場合、Iは、2nSである。図18A及び図18Bでは、周辺ピクセルとして、上側及び左側に位置したピクセルを利用する場合を図示したが、もし右側または下側に位置した周辺ピクセルが、現在ブロック以前に処理されて復元された場合であるならば、右側または下側に位置した周辺ピクセルも、a及びbの値を獲得するのに利用される。また、乗算演算や除算演算をシフト演算に代替するために、周辺ピクセルの個数Iは、2の累乗(power of 2)であることが望ましい。一般的に、ブロックの大きさを定義するnSの値は、2の累乗であるので、Iも、2の累乗の値を有する。
一方、数式(4)を利用して、aの値を高いデータ正確度で計算するためには、浮動小数点演算(float point operation)が利用される。しかし、aの値が浮動小数点の値を有するとすれば、数式(4)の演算は、浮動小数点除算を含むことになり、演算の複雑度が増大する。従って、本発明の実施形態によるパラメータ獲得部1420は、オーバーフローを防止する一方、演算を簡略化させるために、数式(4)及び数式(5)を変更した整数演算アルゴリズムによってスケーリングされたパラメータa’及びb’を計算する。
具体的には、数式(4)によるaの値の代わりに、浮動小数点演算を回避するために、次の数式(6)のように、aの値をnビットほどアップスケーリング及び四捨五入した整数値a’を定義する。
Figure 2013542667
数式(6)によって、浮動小数点数(number)であるaの値は、レフト演算(<<)を介して、アップスケーリング及び四捨五入(rounding)され、整数値a’に変更される。nビットは、データ正確度及び計算の複雑度を考慮して設定される。一例としてn値は、13である。また、数式(5)による浮動小数点bの値も、数式(6)のa’の値を利用して変更されて四捨五入された整数値b’で表現される。このような整数値a’及びb’を利用する場合、数式(3)は、次の数式(7)のように変更される。
Figure 2013542667
一方、数式(6)に基づいて、a’を計算するためには、A1/A2の計算が必要である。A1及びA2の代わりに、A1及びA2の所定個数の上位ビットを除いた残りのビットを0に変更することによって生成された推定値(approximate value)A1’及びA2’が利用される。具体的には、A1の上位nA1個のビットを除いた残りのビットを、0に変更して生成された推定値A1’、及びA2の上位nA2個のビットを除いた残りのビットを、0に変更して生成された推定値A2’は、それぞれ次の数式(8)及び数式(9)の通りである。
Figure 2013542667
数式(8)で[.]演算は、フロア(floor)演算、すなわち、[]中の値より小さい最大整数値を選択する演算を示し、rA1=max(bdepth(A1)−nA1,0)、rA2=max(bdepth(A2)−nA2、,0)である。bdepth(A1)及びdepth(A2)は、それぞれA1及びA2のビット深度を示す。また、nA1は、オーバーフローを防止し、乗算時に発生するビット数を考慮して設定され、一例として、nA1は15である。また、nA2は、後述するルックアップ・テーブルのサイズと係わるものであり、一例として、64個の変数に基づいたルックアップ・テーブルの場合、nA2は6である。
図19は、本発明の一実施形態によって、推定値A2’を獲得する過程を例示したのである。図示されたように、A2のビット深度(bit depth)を27、全体ビット深度を32と仮定する。nA2=6であるとすれば、rA2=max(27−6,0)=21であり、[A2>>21]の演算を介して、A2の上位6個のビットである「101011」1910が抽出される。[A2>>21]の値に、さらに2rA2、すなわち、221を乗ずれば、上位6個のビットを除いた残りの21個のビットは、0の値を有することになり、推定値A2’が獲得される。
前述の数式(8)及び数式(9)を数式(6)に適用すれば、次の数式(10)の通りである。
Figure 2013542667
数式(10)で、ntableは、データ正確度及び演算複雑度を考慮して決定され、一例として、ntableは、15の値に設定される。
数式(10)で、
Figure 2013542667
値は、除算演算を含む。除算演算を防止するために、除算演算の代わりに、
Figure 2013542667
の結果値を所定のルックアップ・テーブル形態で保存し、ルックアップ・テーブルを参照することにより、数式(10)によって、a’値を獲得することができる。このように、ルックアップ・テーブルを利用する場合、数式(10)に基づいたa’の計算時、除算演算を行わず、乗算演算及びシフト演算だけでa’の値を獲得することができる。
図20は、本発明の一実施形態によるルックアップ・テーブルの一例を示した参照図である。
A2=6であると仮定すれば、
Figure 2013542667
が有することができる場合の数は、A2の上位6個ビットが有することができる場合の数と同じである。すなわち、2^(nA2=2^6であり、全64個のエレメントを有するルックアップ・テーブルを利用して、
Figure 2013542667
が決定される。従って、パラメータ獲得部1420は、図20に図示されたようなA2の上位6個のビットが有することができる64個の変数に対応する
Figure 2013542667
値を保存したルックアップ・テーブルを利用して、
Figure 2013542667
値を獲得することができる。
Figure 2013542667
が獲得されれば、数式(10)に基づいて、パラメータ獲得部1420は、乗算演算及びシフト演算のみを利用して、a’の値を計算することができる。
また、パラメータ獲得部1420は、獲得されたa’を利用して、次の数式(11)のように、b’の値を計算することができる。
Figure 2013542667
数式(11)に基づいたb’の計算は、Iが2の累乗である場合、除算演算なしに行われる。もし周辺ピクセルとして、図18A及び図18Bに図示された周辺ピクセル以外に、左上側や右上側の周辺ピクセルを利用して、Iの値が2の累乗ではない場合には、(1/I)の値をルックアップ・テーブル形態で保存し、数式(11)の分子に、ルックアップ・テーブルによる(1/I)の値を乗じることにより、b’の値が獲得される。
数式(10)に基づいたa’の値は、数式(7)による乗算演算を所定ビット内で行わせるためにクリッピングされる。例えば、数式(7)による乗算演算を16ビットで行う場合、a’の値は、[−2−15、215−1]の範囲内でクリッピングされる。nが13である場合、実際aの値は、[−4,4]の範囲内に制限され、エラーの増幅が防止される。
一方、パラメータ獲得部1420は、数式(10)に基づいて、a’を計算するとき、四捨五入エラー(rounding error)を低減させるために、nの値は、整数の代わりに、A1及びA2の値によって適応的に決定される。一例として、nの値は、次の数式(12)のように決定される。
Figure 2013542667
数式(12)を数式(10)に代入すれば、次の数式(13)を得ることができる。
Figure 2013542667
a’の値を所定ビットに維持するためには、a’のビット深度を調整しなければならない場合がある。例えば、a’のビット深度を(a_bits)ビットに維持するために、a’のビット深度を調整するための変数bitAdjustを、次の数式:bitAdjust=max(0,bdepth(abs(a’))−(a_bits−1))の通りであるとすれb、パラメータ獲得部1420は、a’=a’>>bitAdjustを介して、a’のビット深度を低減させる。a’の値が8ビットより小さく表現されるように維持するために、a_bitsの典型的な値は、7または8である。数式(12)のn値の代わりに、次の数式(14)のようなn値を数式(7)に適用し、a’の値を所定ビット内に維持しながら、a’の四捨五入誤差を減少させることができる。
Figure 2013542667
このように、本発明の一実施形態によるパラメータ獲得部1420は、数式(10)または数式(11)によって、輝度信号と色差信号との相関関係を定義するためのパラメータa’及びb’の値を獲得する。a’及びb’の値が獲得されれば、予測遂行部1430は、数式(7)に基づいて、復元された輝度ピクセルから、対応する色差ピクセルの予測値を生成する。
一方、前述の数式(4)は、次の数式(15)のように表現される。
Figure 2013542667
数式(15)で、CL、C、L及びLLは、それぞれ次の数式(16)の通りである。
Figure 2013542667
数式(15)によるaの計算時に、オーバーフローを防止するために、パラメータ獲得部1420は、CL、C、L及びLLの値のビット数を低減させるデスケーリングを行う。
一例として、Rec_L’(i)及びRec_c(i)のようなサンプルのビット数をnと定義すれば、A1及びA2の最大ビット(bitsmax)は、次の数式(17)の通りである。
Figure 2013542667
最大ビット(bitsmax)を所定のA(Aは整数)ビットに維持するためには、Aビットを超えるビット数ほどビット深度を低減させなければならない。例えば、A=32であるとすれば、ビット調節パラメータ(bitAdjust)は、次の数式(18)のように定義される。
Figure 2013542667
数式(18)を適用し、パラメータ獲得部1420は、A1及びA2の値を、次の数式(19)のようにスケーリングする。
Figure 2013542667
もしIが2の累乗の値を有するのであるならば、次の数式(20)のようなビット調節パラメータ(bitAdjust2)が新たに定義される。
Figure 2013542667
数式(20)のビット調節パラメータ(bitAdjust2)を利用して、パラメータ獲得部1420は、A1及びA2を計算する前に、CL、C、LL、L及びIを、次の数式(21)のようにデスケーリングすることができる。
Figure 2013542667
このように、本発明の他の実施形態によるパラメータ獲得部1420は、A1及びA2が有することができる値の範囲を考慮して、オーバーフローが発生しないように、A1及びA2の計算に利用されるCL、C、LL、L及びIの値を、数式(21)のようにデスケーリングしてビット深度を低減させる。
一方、本発明のまた他の実施形態によるパラメータ獲得部1420は、色差ブロック1810及び輝度ブロック1820の大きさを定義するnS値、及びRec_C(i)のビット深度(BitDepth)に基づいて、次の数式(22)に定義されるパラメータk3を獲得する。
Figure 2013542667
パラメータ獲得部1420は、A1及びA2の計算時、オーバーフローを防止するために、CL、C、LL及びLの値を、それぞれ次の数式(23)のようにデスケーリングする。
Figure 2013542667
また、パラメータ獲得部1420は、k3値及びnS値に基づいて、次の数式(24)に定義されるパラメータk2を獲得する。
Figure 2013542667
また、パラメータ獲得部1420は、前述の数式(23)によってデスケーリングされたCL、C、LL及びLの値と、数式(23)によるk2の値とを利用して、次の数式(25)のように、A1及びA2を獲得することができる。
Figure 2013542667
パラメータ獲得部1420は、A1及びA2が、所定範囲のビット内で表現されるように、次の数式(26)のように、獲得されたA1及びA2の値をダウンスケーリングしたA1’及びA2’の値を生成することができる。
Figure 2013542667
このように、A1’及びA2’の値が獲得されれば、パラメータ獲得部1420は、次のアルゴリズムによって、輝度信号と色差信号との線形相関関係を示す加重値a及びオフセットbの値を獲得する。

k1=Max(0,log(abs(A2)−5)−Max(0,log(abs(A1))−14+2;
a=A2’<1?0:Clip3(−215,215−1,A1’*lmDiv+1<<(k1−1))>>k1;
a=a>>Max(0,log(abs(a))−6;
k=13−Max(0,log(abs(a))−6;
b=(L−((a*C)>>k1)+1<<(k2−1)))>>k2;

前記アルゴリズムで、全ての整数は、加重値aの値を7ビットデータで表現するように決定される。lmDivは、数式(25)のA2’によって決定される所定の値を示す。
前述のアルゴリズムに基づいて、a、bの値が決定されれば、本発明のさらに他の実施形態による予測遂行部1430は、次の数式(27)によって、復元された輝度信号Rec_L’(x,y)に対応する色差信号の予測値Pred_C(x,y)を獲得する。
Figure 2013542667
予測遂行部1430は、色差信号のビット深度を考慮して、色差信号が有することができる値の範囲内に、Pred_C(x,y)が存在するように、数式(27)による色差信号の予測値Pred_C(x,y)をクリッピングすることができる。
図21は、本発明の一実施形態によるイントラ予測方法を示したフローチャートである。図21を参照すれば、段階2110で、サンプリング部1410は、色差ブロックと輝度ブロックとの大きさが異なる場合、復元された輝度ブロック及び周辺ピクセルをサンプリングし、色差信号と輝度信号とを一致させる輝度信号のサンプリングを行う。前述のように、サンプリングは、4:2:0または4:2:2のように、輝度信号と色差信号とが一致しない場合に行われ、4:4:4色フォーマットでは、サンプリング段階はスキップされる。
段階2120で、パラメータ獲得部1420は、イントラ予測される色差ブロックの復元された周辺ピクセル、及び色差ブロックと対応する輝度ブロックの復元された周辺ピクセルに基づいて、前記色差ブロックと輝度ブロックとの相関関係を示すパラメータを獲得する。前述のように、本発明によるパラメータ獲得部1420は、色差ブロックの復元された周辺ピクセル、及び輝度ブロックの復元された周辺ピクセルを利用して、数式(4)及び数式(5)のように、加重値a及びオフセットbを計算する。特に、パラメータ獲得部1420は、データ正確度、及び演算過程で発生しうるオーバーフロー防止のために、a及びbのビット深度を変更することができる。また、パラメータ獲得部1420は、a及びbの計算過程に利用される変数をスケーリングしたり、あるいは近似値で代替することにより、除算演算を除いた乗算、減算及びシフトの演算のみを利用して、a及びbの値を獲得する。
段階2130で、予測遂行部1430は、獲得されたパラメータを利用して、輝度ブロックから色差ブロックを予測する。前述のように、予測遂行部1430は、数式(3)に基づいて、復元された輝度信号から対応する色差信号を予測する。また、予測遂行部1430は、数式(7)のように、浮動小数点を利用した演算の代わりに、整数演算を行うために、a及びbの値をアップスケーリングして予測を行うこともできる。
本発明はまた、コンピュータで読み取り可能な記録媒体に、コンピュータで読み取り可能なコードとして具現することが可能である。コンピュータで読み取り可能な記録媒体は、コンピュータ・システムによって読み取り可能なデータが保存される全ての種類の記録装置を含む。コンピュータで読み取り可能な記録媒体の例としては、ROM(read-only memory)、RAM(random-access memory)、CD(compact disc)−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ保存装置などが含まれる。また、コンピュータで読み取り可能な記録媒体は、ネットワークで連結されたコンピュータ・システムに分散され、分散方式で、コンピュータで読み取り可能なコードに保存されて実行される。
以上、本発明についてその望ましい実施形態を中心に説明した。本発明が属する技術分野で当業者であるならば、本発明が本発明の本質的な特性から外れない範囲で変形された形態に具現されるということを理解することができるであろう。本発明の範囲は、前述の説明ではなく、特許請求の範囲に示されており、それと同等な範囲内にある全ての差異は、本発明に含まれたものであると解釈されなければならないのである。

Claims (15)

  1. 映像のイントラ予測方法において、
    イントラ予測される色差ブロックの復元された周辺ピクセル、及び前記色差ブロックと対応する輝度ブロックの復元された周辺ピクセルに基づいて、前記色差ブロックと輝度ブロックとの相関関係を示すパラメータを獲得する段階と、
    前記獲得されたパラメータを利用して、前記輝度ブロックから、前記色差ブロックを予測する段階と、を含み、
    前記パラメータを獲得する段階は、
    前記色差ブロックの復元された周辺ピクセル、及び前記輝度ブロックの復元された周辺ピクセルを利用した所定の演算過程を介して、前記パラメータを獲得し、前記演算過程は、ルックアップ・テーブルの大きさを減少させてオーバーフローを防止するために、前記パラメータのビット深度を変更する適応的スケーリング過程を含むことを特徴とするイントラ予測方法。
  2. 前記パラメータは、
    前記輝度ブロックの復元されたピクセルと、前記色差ブロックの対応するピクセルとの線形関係を定義する加重値及びオフセット値を含むことを特徴とする請求項1に記載のイントラ予測方法。
  3. 前記輝度ブロックの(x,y)位置の復元されたピクセルをRec_L’(x,y)、前記色差ブロックの(x,y)位置のピクセルの予測値をPred_C(x,y)、前記加重値をa、前記オフセット値をbとするとき、
    前記相関関係は、次の数式:Pred_C(x,y)=a*Rec_L’(x,y)+bのように定義されることを特徴とする請求項2に記載のイントラ予測方法。
  4. 前記輝度ブロックの復元されたI個の周辺ピクセルを、Rec_L’(i)(i=0からI−1までの整数)、前記色差ブロックの復元されたI個の周辺ピクセルを、Rec_C(i)とするとき、
    前記加重値aは、次の数式:
    Figure 2013542667
    によって決定されることを特徴とする請求項3に記載のイントラ予測方法。
  5. 前記オフセットbは、次の数式:
    Figure 2013542667
    によって決定されることを特徴とする請求項4に記載のイントラ予測方法。
  6. 前記A1及びA2を、それぞれ上位所定個数のビットを利用して近似化した推定値A1’及びA2’を獲得する段階と、
    前記推定値A1’及びA2’に基づいて、前記加重値aを、所定のnビットほどアップスケーリングした整数値a’を獲得する段階と、をさらに含むことを特徴とする請求項4に記載のイントラ予測方法。
  7. A1は、前記A1から抽出される上位ビットの個数、nA2は、前記A2から抽出される上位ビットの個数、rA1=max(bdepth(A1)−nA1,0),rA2=max(bdepth(A2−nA2,0)、bdepth(A1)及びbdepth(A2は、それぞれA1及びA2のビット深度、ntableは、所定の整数値を示すとするとき、
    前記A1’は、次の数式:
    Figure 2013542667
    前記A2’は、次の数式:
    Figure 2013542667
    によって決定され、
    前記a’は、次の数式:
    Figure 2013542667
    によって決定されることを特徴とする請求項6に記載のイントラ予測方法。
  8. Figure 2013542667
    の値は、所定のルックアップ・テーブルを利用して獲得されることを特徴とする請求項7に記載のイントラ予測方法。
  9. 前記加重値aは次の数式:
    Figure 2013542667
    によって定義されるCL、C、LL及びLを、それぞれ所定ビットほどダウンスケーリングした値を利用して獲得されることを特徴とする請求項4に記載のイントラ予測方法。
  10. 前記色差ブロックの大きさを、nSxnS(nSは、正の整数)、色差ピクセルのビット深度を、BitDepthとするとき、前記CL、C、LL及びLは、次の数式:
    Figure 2013542667
    によるk3ビットほどダウンスケーリングされてビット深度が低減されることを特徴とする請求項9に記載のイントラ予測方法。
  11. k2を、次の数式:
    Figure 2013542667
    によって定義される変数とするとき、次の数式:
    Figure 2013542667
    によって、前記A1及びA2の値を獲得する段階をさらに含むことを特徴とする請求項10に記載のイントラ予測方法。
  12. 前記A1及びA2の値を、それぞれ絶対値に基づいた所定ビットほどダウンスケーリングし、A1’及びA2’を生成する段階をさらに含み、
    前記加重値a及びオフセットbは、次のアルゴリズムによって決定されることを特徴とする請求項11に記載のイントラ予測方法:

    k1=Max(0,log(abs(A2)−5)−Max(0,log(abs(A1))−14+2;
    a=A2’<1?0:Clip3(−215,215−1,A1’*lmDiv+1<<(k1−1))>>k1;
    a=a>>Max(0,log(abs(a))−6;
    k=13−Max(0,log(abs(a))−6;
    b=(L−((a*C)>>k1)+1<<(k2−1)))>>k2;
    }。
  13. 前記予測する段階は、
    前記加重値aを、所定のnビットほどアップスケーリングした整数値a’、及び前記オフセットbを四捨五入した整数値b’を利用して、次の数式:
    Figure 2013542667
    によって(x,y)位置での色差ブロックの予測値Pred_C(x,y)を予測することを特徴とする請求項3に記載のイントラ予測方法。
  14. 前記色差ブロックのピクセルが有することができる値の範囲内で、前記Pred_C(x,y)をクリッピングする段階をさらに含むことを特徴とする請求項13に記載のイントラ予測方法。
  15. 前記色差ブロックと前記輝度ブロックとの大きさが異なる場合、前記復元された輝度ブロック及び周辺ピクセルをサンプリングし、前記色差信号と前記輝度信号とを一致させる段階をさらに含むことを特徴とする請求項1に記載のイントラ予測方法。
JP2013531502A 2010-10-01 2011-09-30 映像のイントラ予測方法及びその装置 Pending JP2013542667A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US38875910P 2010-10-01 2010-10-01
US61/388,759 2010-10-01
PCT/KR2011/007280 WO2012044126A2 (ko) 2010-10-01 2011-09-30 영상의 인트라 예측 방법 및 장치

Publications (1)

Publication Number Publication Date
JP2013542667A true JP2013542667A (ja) 2013-11-21

Family

ID=45893704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013531502A Pending JP2013542667A (ja) 2010-10-01 2011-09-30 映像のイントラ予測方法及びその装置

Country Status (12)

Country Link
US (1) US9661337B2 (ja)
EP (1) EP2624568A4 (ja)
JP (1) JP2013542667A (ja)
CN (1) CN103238334A (ja)
AU (1) AU2011308105A1 (ja)
BR (1) BR112013007782A2 (ja)
CA (1) CA2813191A1 (ja)
MX (1) MX2013003679A (ja)
PH (1) PH12013500665A1 (ja)
RU (1) RU2013120307A (ja)
SG (2) SG10201401182TA (ja)
WO (1) WO2012044126A2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102124495B1 (ko) * 2010-04-09 2020-06-19 엘지전자 주식회사 비디오 데이터 처리 방법 및 장치
CN103416066B (zh) * 2011-03-06 2018-04-24 Lg电子株式会社 使用亮度采样的色度块的内部预测方法以及使用其的装置
MX2014000163A (es) * 2011-06-28 2014-02-19 Samsung Electronics Co Ltd Metodo y aparato de prediccion para componente de croma de imagen que utiliza componente de luma de imagen.
GB2495941B (en) * 2011-10-25 2015-07-08 Canon Kk Method and apparatus for processing components of an image
WO2013155662A1 (en) 2012-04-16 2013-10-24 Mediatek Singapore Pte. Ltd. Methods and apparatuses of simplification for intra chroma lm mode
JPWO2014051080A1 (ja) * 2012-09-28 2016-08-25 三菱電機株式会社 カラー動画像符号化装置、カラー動画像復号装置、カラー動画像符号化方法及びカラー動画像復号方法
EP3697090B1 (en) * 2013-03-29 2022-01-05 JVCKENWOOD Corporation Image decoding device, image decoding method, and image decoding program
KR101530774B1 (ko) 2013-09-30 2015-06-22 연세대학교 산학협력단 영상 부호화 및 복호화 방법, 장치 및 시스템
KR101530782B1 (ko) 2013-12-03 2015-06-22 연세대학교 산학협력단 영상 부호화 및 복호화 방법, 장치 및 시스템
WO2015139203A1 (en) * 2014-03-18 2015-09-24 Mediatek Singapore Pte. Ltd. Dlt signaling in 3d video coding
WO2016199409A1 (en) * 2015-06-07 2016-12-15 Sharp Kabushiki Kaisha Systems and methods for optimizing video coding based on a luminance transfer function or video color component values
US10484712B2 (en) * 2016-06-08 2019-11-19 Qualcomm Incorporated Implicit coding of reference line index used in intra prediction
WO2018131838A1 (ko) * 2017-01-11 2018-07-19 엘지전자 주식회사 영상 코딩 시스템에서 인트라 예측에 따른 영상 디코딩 방법 및 장치
CN117176958A (zh) 2017-11-28 2023-12-05 Lx 半导体科技有限公司 图像编码/解码方法、图像数据的传输方法和存储介质
KR101956756B1 (ko) 2018-06-12 2019-03-11 광운대학교 산학협력단 성분 간 참조 기반의 비디오 신호 처리 방법 및 장치
JP7502278B2 (ja) * 2018-09-21 2024-06-18 インターデイジタル ヴィーシー ホールディングス インコーポレイテッド 双予測を使用するビデオエンコーディングおよびデコーディングのための方法および装置
CN117319670A (zh) * 2018-12-13 2023-12-29 华为技术有限公司 色度块的预测方法和装置
CN113273213B (zh) * 2018-12-31 2024-07-02 韩国电子通信研究院 图像编码/解码方法和设备以及存储比特流的记录介质
CN113812159B (zh) * 2019-05-14 2024-06-21 北京字节跳动网络技术有限公司 视频编解码中的缩放方法
US11863754B2 (en) 2019-05-15 2024-01-02 Hyundai Motor Company Method and for reconstructing chroma block and video decoding apparatus

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6757429B2 (en) 2001-02-21 2004-06-29 Boly Media Communications Inc. Method of compressing digital images
AU2003201069C1 (en) 2002-01-14 2008-11-06 Nokia Technologies Oy Coding dynamic filters
JP3975188B2 (ja) * 2002-09-30 2007-09-12 三星電子株式会社 色相の空間予測符号化を利用した映像の符号化及び復号化方法及び装置
US7136533B2 (en) 2002-12-19 2006-11-14 Hewlett-Packard Development Company, L.P. Color image compression with adaptive prediction
US7646815B2 (en) 2003-07-15 2010-01-12 Lsi Corporation Intra estimation chroma mode 0 sub-block dependent prediction
US7317839B2 (en) * 2003-09-07 2008-01-08 Microsoft Corporation Chroma motion vector derivation for interlaced forward-predicted fields
EP1575176A1 (en) * 2004-03-09 2005-09-14 Deutsche Thomson-Brandt Gmbh Arrangement for adaptive bit recovery
KR101246915B1 (ko) * 2005-04-18 2013-03-25 삼성전자주식회사 동영상 부호화 또는 복호화 방법 및 장치
US20060291565A1 (en) * 2005-06-22 2006-12-28 Chen Eddie Y System and method for performing video block prediction
KR20070077609A (ko) * 2006-01-24 2007-07-27 삼성전자주식회사 인트라 예측 모드 결정 방법 및 장치
US8111756B2 (en) * 2006-08-30 2012-02-07 Jiun-In Guo Method for reducing computational complexity of video compression standard
KR101257942B1 (ko) 2008-04-23 2013-04-23 고려대학교 산학협력단 광역 역광보정 영상처리에서의 전처리 방법 및 장치
KR101601840B1 (ko) * 2009-02-23 2016-03-22 에스케이 텔레콤주식회사 채널 상관 관계를 이용한 영상 부호화/복호화 장치 및 방법과 그를 위한 컴퓨터로 읽을 수 있는 기록매체
JP5818800B2 (ja) * 2009-10-05 2015-11-18 トムソン ライセンシングThomson Licensing 符号化方法及び復号化方法
KR101503269B1 (ko) * 2010-04-05 2015-03-17 삼성전자주식회사 영상 부호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치, 및 영상 복호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치
KR102124495B1 (ko) * 2010-04-09 2020-06-19 엘지전자 주식회사 비디오 데이터 처리 방법 및 장치
KR101530782B1 (ko) * 2013-12-03 2015-06-22 연세대학교 산학협력단 영상 부호화 및 복호화 방법, 장치 및 시스템

Also Published As

Publication number Publication date
WO2012044126A2 (ko) 2012-04-05
RU2013120307A (ru) 2014-11-20
MX2013003679A (es) 2013-08-12
CN103238334A (zh) 2013-08-07
WO2012044126A3 (ko) 2012-05-31
SG10201401182TA (en) 2014-07-30
PH12013500665A1 (en) 2013-06-03
BR112013007782A2 (pt) 2016-06-07
EP2624568A4 (en) 2014-10-15
CA2813191A1 (en) 2012-04-05
SG189184A1 (en) 2013-05-31
US20130182761A1 (en) 2013-07-18
US9661337B2 (en) 2017-05-23
EP2624568A2 (en) 2013-08-07
AU2011308105A1 (en) 2013-05-02

Similar Documents

Publication Publication Date Title
KR101756843B1 (ko) 휘도 성분 영상을 이용한 색차 성분 영상의 예측 방법 및 예측 장치
JP2013542667A (ja) 映像のイントラ予測方法及びその装置
JP5654685B2 (ja) 動き補償方法及び動き補償装置
RU2689129C1 (ru) Способ для интерполяции изображений с использованием асимметричного интерполяционного фильтра и устройство для этого
KR101957945B1 (ko) 트리 구조 부호화 단위에 기반한 디블록킹 필터링을 수행하는 비디오 부호화 방법과 그 장치 및 복호화 방법과 그 장치
CN113873238B (zh) 用于处理视频信号的方法和设备
KR101855293B1 (ko) 영상의 인트라 예측 부호화, 복호화 방법 및 장치
JP5654594B2 (ja) 映像の符号化方法及び装置、その復号化方法及び装置
KR102169608B1 (ko) 인트라 예측 처리 속도 향상을 위한 비디오의 부호화 방법 및 장치, 비디오의 복호화 방법 및 장치
JP6272819B2 (ja) スケーラブルビデオ符号化方法、復号化方法、符号化装置及び記録媒体
KR101468078B1 (ko) 화면 내 예측 방법 및 장치
KR20140089488A (ko) 비디오의 부호화 방법 및 장치, 그 복호화 방법 및 장치
KR20120061035A (ko) 영상의 인트라 예측 방법 및 장치
KR20250029008A (ko) 영상 부호화/복호화 방법 및 장치
KR20120005931A (ko) 비디오 부호화, 복호화 방법 및 장치

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140428

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140508

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140528

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140605

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140627

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140704

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141007