WO2009011442A1 - 画像処理方法、画像処理装置及びコンピュータ読取り可能な記録媒体 - Google Patents
画像処理方法、画像処理装置及びコンピュータ読取り可能な記録媒体 Download PDFInfo
- Publication number
- WO2009011442A1 WO2009011442A1 PCT/JP2008/063089 JP2008063089W WO2009011442A1 WO 2009011442 A1 WO2009011442 A1 WO 2009011442A1 JP 2008063089 W JP2008063089 W JP 2008063089W WO 2009011442 A1 WO2009011442 A1 WO 2009011442A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- frame
- image
- reference frame
- pixel
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/521—Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
Definitions
- FIG. 1 is a block diagram showing a configuration of an image for performing an image printing method according to the first embodiment of the present invention.
- FIG. 8 is a view showing a male who flicks the drawing boat amount by pressing the training key.
- FIG. 9 shows processes (1) to (9) in FIG. FIG.
- Fig. 14 A— 14 C is the pixel corresponding to the 3 ⁇ 4 ⁇ pixel in the example of Fig. 13! !] It is a figure showing the search for a vector.
- FIG. 16 is a flowchart showing the alignment processing performed in the alignment processing unit and the algorithm of the high-angle departmentalization performed in the high-angle storage unit.
- FIG. 1 is a block diagram showing a configuration of an image processing apparatus that makes it difficult to perform the image i M ⁇ method according to the first embodiment of the present invention.
- HW ⁇ 1 is a frame in which a frame designation is input from a moving image data force with motion information s input video i
- the combination processing unit 16 and the high angle department i conversion processing unit 18 function as an image quality improvement unit 2 2.
- FIG. 2 is a flowchart showing the scissors performed in the scissors according to the present embodiment.
- moving image data input is performed by moving image data input processing (sioi) with “ ⁇ ”. Go.
- the input moving image data is converted into a frame image that is considered to be a motion vector by moving image data decoding (S 1 0 2).
- the frame selection i M (S I 0 3) is used to select the high angle in the frame image.
- the reference frame that becomes 3 ⁇ 4f ⁇ of hatching and the reference frame that turns into the high angle I ⁇ ⁇ are distant.
- the image displacement amount calculation process (S 1 0 4) one or more frame images are tracked for each pixel using the motion vector decoded in the moving image data decoding process of S 1 0 2
- a weighting coefficient is applied to each pixel of the reference frame in the weighting process (S 1 0 5).
- the coding error of each reference frame decoded in the moving image data decoding process (S 1 0 2) and the accumulation of motion vectors in the image displacement summarizing process (S 1 0 4) are calculated. Weight using number of times Generate a coefficient.
- FIG. 3 is a block diagram showing the configuration of the decoding process block of MP EG 4.
- the moving picture recovery 12 in FIG. 1 corresponds to the decoding 100 0 in the decoding of the MP EG 4 shown in FIG.
- the moving image data with motion corresponds to the encoded signal 1 0 8 in FIG.
- the encoded signal 1 0 8 input to the decoded " ⁇ 1 0 0 is decoded by the long decoding block 1 0 1, the image data is transferred to the inverse quantization block 1 0 2, and the motion information data is moved to the motion vector.
- the video data is then output to the inverse DCT (Discrete Cosine Transfo) block 1 0 3.
- the motion vector decoding block 1 0 5 is then decoded.
- the motion vector is stored in the memory 10 7 in the motion compensation block 10 6, compensates for the motion of the previous frame image, and is added to the inverse DCT-generated elephant data 1 0. 9 ⁇ T.
- the macroblock code type is The motion vector of this macroblock force S in I NTER 4 V is a force of 4 pixels.
- the motion vector of the 8 x 8 pixel block is 3 ⁇ 4MV4, so the position of the pixel being followed is further increased by MV4. Use »to move.
- the vertical position of the moved pixel is made to correspond to the position in the frame of I 1 VO ⁇ of the first frame.
- the third frame of the first frame is the reference frame, so the elephant pixels in the reference frame have been able to follow up to the reference frame, and the initial values 0, MV 1 and MV 4 used for tracking are accumulated. By doing so, it is possible to obtain the amount of coordinates from the reference pixel of the reference frame to the pixel corresponding to the pixel of the frame.
- the frame is read (S301), the frame is deformed by a plurality of parameters, and the image sequence is ⁇ (S302). Then, the reference frame selected in the frame selection process (S 103) is read (S303). Then, by using pixel matching such as a region-based matching method, rough pixels (stand-up correspondence) are performed between the base frame and the reference frame (S304).
- parabola fitting or spline interpolation can be used as a method of obtaining a similar similarity curve by complementing the implicit similarity map.
- This image is calculated as an image displacement amount between the image displacement parameter force control frame and the reference frame when the typical value is an extreme value.
- g (z) is a regularization term that takes into account image smoothness, image color correlation, etc., and is a weight coefficient. The effect is related to the male form 1 ⁇ ⁇ a ⁇ ⁇ It is almost the same as the extended surface.
- the present invention is not limited to the above-described embodiments, and includes various modifications and improvements S that can be made within the scope of the technical idea!
- the alignment collar 16 and the high-angle sugar collar 18 of the image quality improvement section 22 are separately provided, but these may be integrated, and the configuration of the image 1 Is not limited to that shown in FIG.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
画像処理方法は、基準フレームおよび参照フレームを選択するフレーム選択ステップと、参照フレームと基準フレームとの間の画像変位量を算出する画像変位量算出ステップと、参照フレームの符号化の種類および符号化された動画像データの動き情報のうち少なくとも一方を用いて重み係数を生成する重み係数生成ステップと、画像変位量算出ステップで算出された画像変位量と、重み係数生成ステップで生成された重み係数を用いて基準フレームを画質改善する画質改善ステップと、を有する。
Description
明 細 書 画 iw^法、 画^0^^¾ぴコンピュータ り可能な 媒体 癒分野
本努明は、 画像処理に関し、 特に動き情報を持つ符号化された動画像データから得られ るフレーム画像の画質を改善することのできる画 ί繞理に関する。 背景技術
従来の撮像装置には、 撮像した画像を高角? i s化する際に複数の参照画像を重み付けす ることで 画像の高^^化を行うものがあった (JP2006— 140886 Aの第 1頁、 図 1、 図 2) 。 この撮難置では、 基箱像から時間的に近い参照画像ほど大きい 重み係数を付与し、 ¾¾S像から時間的に遠い参照画像ほど小さい重み係数を付与するよ うにしていた。 発明の開示
し力 し、 例えば MP EG (Moving Picture Expert Group) や H. 26 x (H. 26 1、 H. 263、 H. 264等) のようにフレーム毎に符号化の觀が異なる複数の復号 フレーム (復号画像) を位置合わせして画質改 ^高角? i^®像の生成を行う^ \ 従来 の撮像装置 (JP2006— 140886 Α) のような時間関係のみを考慮した重み付け を行うと復号フレームの画質にばらつきがあるため、 低画質のフレーム画像に対して大き な重み係数を付加し、 高画質のフレーム画像に対して小さな重み係数を付加してしまうこ
とがあり、適切な重み付けができないという問題点があった。
また、 M P E Gや H. 2 6 Xのような動画像データの複数の復号フレームと動画像デー タに!^されている動き情報 (動きベクトル) を用いて参照フレームと難フレームの位 置合わせを行って高角? iti ®像を^^するような^^、参照フレームと »フレームとの 間の画像変位量は、 動画像データに記録されている動きベクトルを用いて参照フレームか ら基準フレームまで追従を行レヽ、 この追従に棚した動きべクトルを累勸 Π算することに よって求めることができる。 このようにして求められた画 it¾位量は累 算回数が多レ、 ほと ^差が大きいと考えられるが、 MP EG等の符号化された動画像データでは、 追従に おける累積回数と基準フレームまでの時間的 は必ずしも一致しない。 そのため、 従来 の撮 ¾置 ( J P 2 0 0 6 - 1 4 0 8 8 6 A) の技術を利用すると、適切な重み付けがで きないという問題点があつた。
本発明のある態様によれば、 動き' lf を持つ符号化された動画像データを処理する画像 処 ffi^去であって、 符号化された動画像データを復号化して得られるフレーム画像の中か ら基準フレームおよび参照フレームを選択するフレーム選択ステップと、 参照フレームと 基準フレ ムとの間の画像変位量を算出する画像変位量算出ステップと、 参照フレームの 符号化の誦および符号化された動画像データの動き' If#のうち少なくとも一方を用レヽて 重み係数を生^ る重み係 ステップと、 画像変位量算出ステップで算出された画像 変位量と、 重み係» ^ステップで ^^された重み係数を用いて基準フレームを画質改善 する画質改善ステップと、 を有する画«¾ ^法が される。
本発明の別の態様によれば、 動き 'ffl(¾を持つ符号化された動画像データを用いる画脑 a¾置であって、嫌 夺号化された動画像データを復号化して得られるフレーム画像の中 から ¾2pフレ ムおよび参照フレームを選択するフレーム 51 ^部と、 |ίί|Β 照フレームと
|ίί|5¾ ^フレームとの間の画 ίβί立量を算出する画像変位量算出部と、 Ι ΐΒ 照フレーム の符号化の觀およひ Wfisr夺号化された動画像データの動き のうち少なくとも一方を 用いて、 藤己参照フレームの各画素に対して重み係数を生針る重み係 ½成部と、 鎌己 画像変位量算出部によって算出された画 ί象変位量と、 Ml己重み係^^ β¾¾によって^ ¾さ れた重み係数を用いて tfifflS準フレームを画質改善する画質改 理部と、 を備える画像 処雌置が される。
本発明のさらに別の嫌によれば、 動き' ftmを持つ符号化された動画像データを用いる 画象処理をコンピュータに実 させるコンピュータプログラムを »したコンピュータ読 み取り可能な言 5^媒体であって、 t&f己コンピュータプログラムは、籠 夺号ィ匕された動画 像データを復号化して得られるフレーム画像の中から »フレームおよび参照フレームを 選択するフレーム選択ステップと、 ΙΐΠΕ 照フレームと ttifSS準フレームとの間の画像変 位量を算出する画像変位量算出ステップと、 ΐ 照フレームの符号化の觀およひ mia 符号化された動画像データの動き' w#のうち少なくとも一方を用いて重み係数を生^ る 重み係 ステップと、 tiilB画 i ¾位量算出ステップで算出された画像変位量と、 嫌己 重み係 » ^ステップで生成された重み係数を用いて tfiias ^フレームを画質改善する画 質改善ステップと、 を嫌己コンピュータに紫亍させる、 コンピュータ読み取り可畫な言 媒体が^^される。 図面の簡単な説明
図 1は、 本発明の^ ί形態 1に係る画 ί»¾^法を する画 置の構成を示す プロック図である。
図 2は、 »形態 1に係る画像処 S^†去で行われる処理を示すフローチヤ一トである。
図 3は、 MP EG 4の復号ィ ブロックの構成を示すプロック図である。
図 4は、本実施形態のフレーム指定にぉ 、て 者が基準フレームおよび参照フレーム を指定する際の指定 を示した図である。
図 5は、本 »形態の位置合わせ処理を行うための画像変位體出麵の概要を示した 図である。
図 6は、 図 2の画 ί象変位 出処理の内容を示すフローチャートである。
図 7は、 図 2の画 位量算出 の内容を示すフ口一チヤ一トである。
図 8は、爾練 鍵にぉ ヽて画 ί艇位量を f Tる雄を示した図である。 図 9は、 図 6における処理 (1 ) 乃至 (9) の; ¾!理内容を示した図である。
図 1 0 A、 1 0 Bは、 動き補償時の予測方向と、 動き補償によつて各フレーム力 S持つ動 きべクトルの方向を例示する図である。
図 1 1は、 各フレーム符号化タィプの各マクロブロック符号化モードと各モードにお ヽ てそのマクロブロックカ S持つ動きべクトルを示す図である。
図 1 2は、画 ίβί立 出処理における追従の例を示す図である。
図 1 3は、画 ί練位量算出麵における追従の他の例を示す図である。
図 1 4 A— 1 4 Cは、 図 1 3の例において ¾ ^画素に対応する画素およひ!!]きべクトル を探す^去を示す図である。
図 1 5は、 図 2の重み係数^ ¾処理の内容を説明するための図である。
図 1 6は、位置合わせ処理部で行われる位置合わせ処理と高角? « ίί 化 部で行 われる高角科讓ヒ達のアルゴリズムを示すフローチヤ一トである。
図 1 7は、 本発明の^形態 2にお!/、て画 ί«位量算出処理で行われる画像変位量の算 出方法を示したフローチヤ一トである。
図 1 8は、 画像変ィ立量算出 の S 3 0 7において求められた類似度曲線の例を示す図 である。 発明を るための最良の开態
以下、 図面を参照しながら本発明の ¾¾开態 1に係る画 ί»¾¾·法およひ Βίί»»置 について説明する。
図 1は、 本発明の 態 1に係る画 i M^法を難する画像処»置の構成を示す ブロック図である。 図 1に示す!H W^置 1は、動き情報付き動画像データ力 s入力され る動画 i A力部 1 1、動画像復 2、 画像変位量算出部 1 3、 ^¾ からのフレー ム指定が入力されるフレーム選択部 1 5、位置合わせ処理部 1 6、 高解 i S化処理部 1 8、 メモリ 1 9、 重み係 成咅! 32 0、 およひ Τϋί象表示眘 1を備えており、ィ立置合わせ 処理部 1 6と高角科 i 化処理部 1 8は画質改 «部 2 2として機倉する。 なお画像表示 部 2 1は、爾^] 置 1と一体にしてもよく、另 IJ体として設けるようにしてもよレヽ。 なお本難形態では、 動き' Iff g付き動画像データ ¾|¾に雜しているものとし、 フレー ム画像間の動き情報 (動きベクトル ft報) を持つあらゆる動画像データのことを意味する ものとする。 例えば、 難一般的な動き' lf 付き動画像データとして、 MP EG (Moving Picture Expert Group) 1、 MP EG 2. MP EG 4や、 H. 2 6 1、 H. 2 6 3、 H. 2 6 4などの符号化された動画像データがある。
動き 'lt¾付き動画像データ力 S動爾 A力部 1 1に入力された後、動画像復^^ 1 2で連 続するフレーム画像を復号化しメモリ 1 9に保存する。 ここで、例えば: MP EGの 、 動画像復 2はフレーム画像の復号化をすると共にフレーム画像間の動きべクトスレ[#
報を複号化し変換することで動きべクトルを抽出する。 MP EGに識されている動きべ クトノレ [f¾は、 となるブロック (後に説明する) の動きベクトルと難するブロック の動きべクトルの 値を Ιϊ»号化しているため、 動きべクトノレ [f報を復号化した後に 離するプロックの動きべクトルに^ H直を加算することで変換を行い、 となるプロ ックの動きべクトルを抽出する。 また動画像復^ 1 1 2は、 後财る図 3の MP EG 4の 復 に対応する。
保存された復号化データは、 画像表示部 2 1で動画表示することができ、使用者は画像 表示部 2 1で表示された画像を閲覧し、例えば 解讓匕などの画質改 »®を行いたい 基準フレームと画質改»¾に使用する参照フレームを指定することが可言 gである。 者からのフレーム指定により、 フレーム選択部 1 5は画像変位量算出部 1 3 定フレー ム情報を出力する。 画 i ¾位量算出部 1 3は、 例えば ¾J画像復^ ¾ 1 2によって抽出され た動きべクトルをメモリ 1 9経由又は動画像復 |U 2経由で取得し、 その動きべクトル を累 算することによりフレーム指定された各参照フレームから,フレームまでの画 麵鍾を算出する。
動画像復^ ¾ 1 2で復号化された各フレーム画像の符号化の觀 (後に説明する) と、 画像変位量算出部 1 3における動きべクトルの累働ロ算回数は、重み係 152 0に入 力され、 重み係 ¾ ^部 2 0はこれらのデータを用レ、て高角? i lS化処理部 1 8へ出力する 重み係数を^ Tる。
画像変位量算出部 1 3で算出された画像変位量は位置合わせ 部 1 6に入力され、 こ の画像変位量を用いて ¾ ^フレームと各参照フレームの位 g¾f応を画素ごとに求める。 な お位置合わせ処理部 1 6は、 メモリ 1 9に保存されている復号化されたフレーム画像への アクセスが自由にできるようになっている。 位 応力 S求められた基準フレームと各参照
フレームのデータは、 高麟嫉化鍵部 1 8へ入力される。 高角 ff應匕処理部 1 8は、位 g¾ "応が求められた ¾ ^フレームと各参照フレームのデータと重み係 ¾ ^部 2 0で^ ¾ された重み係数を用いて画質改»¾を行う。 本 ¾形態では、画質改 »理として高解 ί讓匕麵を行ヽ、動画像復^ ¾ 1 2で復号化されたフレーム画像よりも角? (鍵の高レ、高 解 «Ρί像を して、 この高解鍵画像をメモリ 1 9へ保存する。 なお高角? ί維化処理 部 1 8で用いる重み係数のデータは、 重み係» ^部 2 0から纖高角 滅化纏部 1 8 に入力するようにしてもよいし、 メモリ 1 9を介して高解 «化処理部 1 8に入力するよ うにしてもよい。 メモリ 1 9に ί呆存された高角科 画像は、 画像表示部 2 1に表示するこ と力 Sでき、 ^ffi者は画像表示部 2 1で高角? iti ®像を 、することができる。
図 2は、本魏形態に係る爾狭 ¾¾¾で行われる麵を示すフローチヤ一トである。 本実施形態に係る符号化された動画像データの持つ動き情報を利用する画像処¾ ^法で は、 ま Τ»き' f餽付き動画像データ入力処理 (s i o i ) により動画像データの入力を行 う。 次に、入力した動画像データを動画像データ復号麵 (S 1 0 2) により動きべクト ルと 镜するフレーム画像 ^号化する。 それから、麵者のフレーム指定に基づいてフ レーム選 i M (S I 0 3 ) により、 フレーム画像中の高角? (嫉化の ¾f ^となる基準フレ ームと高角 I脑匕に翻する参照フレームを遠尺する。
そして画像変位量算出処理 (S 1 0 4) において、 S 1 0 2の動画 ί象データ復号処理で 復号化された動きべクトルを用いて 1または複数のフレーム画像間を画素ごとに追 る ことにより参照フレームと基準フレームとの間の画像変位量を算出した後、重み係 成 処理 (S 1 0 5) において、 参照フレームの各画素に対して重み係数を する。 このと き、 動画像データ復号処理 (S 1 0 2) で復号化された各参照フレームの符号化の觀 と、 画像変位纏出処理 (S 1 0 4) における動きべクトルの累勸ロ算回数を用いて重み
係数を生^ Tる。 それから爾 β位量算出処理 (S 1 0 4) において算出された画 «位 量を用いて £^フレームと参照フレームの位置合わせ (S I 0 6) を行った後、 重み 係#«鍵 (S 1 0 5) において生成された重み係数を用いて高解 ί纏匕処理 (S 1 0 7) を行い、高角 ?βΐϋ像を^ Τる。
図 3は、 MP EG 4の復号化処理プロックの構成を示すプロック図である。 本難形態 におレヽて図 1の動画像復 1 2は、 図 3に示す MP EG 4の復号化 «プロックにおけ る復 1 0 0と対応する。 また動き' 付き動画像データは、 図 3の符号化信号 1 0 8 と対応する。 復"^ 1 0 0に入力された符号化信号 1 0 8は、 長複号化ブロック 1 0 1で復号化され、 象データは逆量子化ブロック 1 0 2へ、動き情報データは動きべクト ル復号化ブロック 1 0 5へそれぞれ出力される。 その後、 映像データは逆 D C T (Discrete Cosine Transfo )ブロック 1 0 3で逆 D C丁される。 動きべクトル復号化ブ ロック 1 0 5で復号された動きべクトルは動き補償ブロック 1 0 6でメモリ 1 0 7に保存 されて 、る前のフレーム画像の纖プロックに対し動き補償し、 逆 D C Tされた 象デー タに加算することで復号画像 1 0 9を^ Tる。
図 4は、本¾ ^態のフレーム指定にぉレ、て棚者が基準フレームおよび参照フレーム を指定する際の指 ^去を示した図である。 図 4に示すように、 基準フレームおよ 照 フレームを指定するための表示画面 2 0 1において、翻者は復号画像 2 0 2の表示を復 号画像表示フレーム切り替えつまみ 2 0 3を動かしながら確、し、 高角 ?{維化したい基準 フレームのフレーム番号を指定フレーム設定タブ 2 0 4の基準フレーム設定タブ 2 0 5 に、 高解艇化に ^ffiする参照フレームのフレーム番号を^ ϋフレーム設定タブ 2 0 6に 設定することで ¾ ^フレームおよ Ό渗照フレームを指定できる。
図 5は、本実施形態の位置合わせ処理 (S 1 0 6 ) を行うための画像変位量算出処理
(S I 04) の概要を示した図である。 図 5に示すように、使用者のフレーム指定に基づ いてフレーム (SI 03) で 尺された £2pフレームと使用する各参照フレーム 力 S持つ動きベクトル (図 5の MV1から MV9) を方向を考慮して累¾¾ロ算することで各 参照フレームと基準フレームとの間の画像変位量 (累勸ロ算された動きベクトル) を求 め、 その画像変位量で各参照フレームを変形することで基準フレームと各参照フレームの 位置合わせができる。 これらの画 ί«位量を求める画 ί»ί立量算出処理を、 フレーム画像 の各画素に対して行う。 なお、 これとは逆に、画像変位量算出纏で求めた画 ί錢位量の 方向を全て反転した値で挪フレームを変形することで各参照フレームに対して位置合わ せすることもできる。 このように、 各フレーム画像が持つ動きベクトルを用いて 1または 複数のフレーム画像間を画素ごとに追¾1~ることにより、 あるフレーム画像から他のフレ ーム画像への画像変位量を求めて、複数のフレーム画像を位置合わ ることができる。 図 6および図 7は、 図 2の画像変位量算出 (S 104) の内容を示すフローチヤ一 トである。 なお図 6における β (1) 乃至 (9) の処理内容は、 図 9に示されている。 また以下の説明において、 Iとは 「Iフレーム(Intra- coded Frame)/ I -P i c t u r e / I -VOP (Intra— coded Video Object Plane) 」 、 Pとは 「Pフレーム(Predicted Frame) /P-P i c t u r e/P-VOP (Predicted Video Object Plane) 」、 Bとは 「Bフレーム(Bidirectional predicted Frame) /B - P i c t u r e/B-VOP (Bidirectional predicted Video Object Plane) 」 を示すものとし、 フレーム画像のこ とを単にフレームと呼ぶものとする。 なお、 Iフレーム (I—VOP)、 Pフレーム (P -VOP) および Bフレーム (B— VOP) については後に説明する。 以下、 画像変位量 算出 « (S 104) について説明する。
画像変位量算出処理 (S 104) における画像変位量の算出では、 フレーム選択処理
(S I 03) で選択された基準フレームと参照フレームのうち、 ¾ ^フレーム以外のフレ ーム分 (参照フレーム分) のループ(S01、 S 25) と各参照フレーム内全画素分のル ープ (SO 2、 S 24) で麵される。
ノ]^プ内処理として、 ま - ¾^フレーム . ¾ (^画素設定 ^¾ (SO 3) で元 フレー ムと フレームを参照フレームに、 元 * ^画素と 画素を参照フレーム内の ^画素 に設定する。 なおここで驗フレームとは、 上記のように動きベクトルを用いて途中まで 追従した画素 (追 ¾tfjの最初の画素を含む) がその時点で属しているフレームのことであ り、 元 ¾ ^フレームとは、 それ以前に追従中の画素が属してレヽたフレームのことである。 また 画素とは、 途中まで追従したその時点の画素 (追 の最初の画素を含む) のこ とであり、 画素とは、 それ以前の追従中の画素のことである。
フレーム .対象画素設定処理 (SO 3) を行った後、 対象フレームと基準フレーム との前後 (時間の前後) 関係を判定 (SO 4) し、 麵 (1) (SO 5、 SI 2) で基準 フレームの符号化タイプと処理 (2) (SO 6、 SO 7、 SI 3、 S 14) で フレー ムの 化タイプを判別する。
その後、 各符号化タイプの組み合わせを考慮して処理 (3) 乃至 (9) (S08、 S0 9、 S10、 S l l、 SI 5、 SI 6、 S 17、 S 18) で判別 '選讓理を行う。 図 9 に示すように « (3) 乃至 (9) では動きベクトルを用いて ¾ ^フレームから基準フレ ムへ追従するために、 対象画素に対応する画素を探索し所定の範囲内で対象画素に対応 する画素の するフレームが見つかった^には、 追従先の画素としてその画素とその 画素力 S被するフレームを遨尺する。 なお、 麵 (3) 乃至 (9) において纖画素に対 応する画素が見つかった:^ (YES) には、 追従可倉 gな動きべクトノレが^ &することと なる。
処理 (3) 乃至 (9) (SO 8、 SO 9、 S 10、 S 11、 S 15、 S 16、 S 17、
SI 8) で、 通画素に対応する画素および対応するフレーム力 S選択されない (NO) 場 合には、 画像変位量なし (図 7の S 26) として保存 (S23) し、 参照フレーム内全画 素分ノ プエンド (S24) へ進む。
処理 (3) 乃至 (9) (S08、 S09、 S 10、 Sl l、 S 15、 S 16、 S17、 S I 8) で驗画素に対応する画素および対応するフレーム力 S選択される (YES) には、画 ί艘 ίϊΛΜΙΜ (S 19) で動きべクトルを方向を考慮して累働ロ算すること により画像変 ίί*を Hf Tる。
図 8は、 爾 β位量 Mff処理 (S19) において画像変位量を ffTる雄を示した図 である。 画像変位量を: Hffする方法には 2觀あり、 図 8における Hff;½feAは、邀尺さ れたフレーム内の 画素に対応する画素から ¾ フレームの 画素への動きべクトル を方向を考慮して累働 Π算するものである。 図 8の ff½feBは、 ¾ ^フレームの 画 素から選択されたフレーム内の ¾^画素に対応する画素への動きべクトルを方向を考慮し て累働ロ算するものである。 Hf她の選択は、 図 8に示すように舰フレーム、選択さ れたフレームの符号化タイプと纖フレーム、 挪フレームとの前後 (時間の繊) 関係 カゝら決定される。
その後、 選択されたフレームと基準フレームの比較処理 (S20) を行い、 一致してい れば参照フレームの 画素から フレームの 画素に対応する画素までの画像変位 量が求められたことになるのでその画像変位量を保存 (S23) し、 参照フレーム内全画 素分ループエンド (S24) へ進む。 一致していなければ、 対象フレーム.対象画素更新 処理 (S21) において対象フレームを処理 (3) 乃至 (9) で選択されたフレームに更 新し、 ¾ ^画素を処理 (3) 乃至 (9) で潘尺された画素に: Effして、 フレームと基
準フレームの前後関係判定処理 (SO 4) へ戻る。 これらのノ^"プ内鍵を各参照フレー ム内全画素分のノ プ (SO 2、 S 24) と参照フレーム分のノ プ (S01、 S 25) とで »Τることにより画 «位量算出 « (S 104) を終了する。
以上の画像変位量算出処理 (S 104) の詳細を、 いくつかのパターンを例に説明す る。 まずその説明の ft ^として、 MP EG 4によるフレームの符号化タイプと各符号化タ ィプ内のマク口プロック符号化タイプにつレヽて説明する。
MPEG4のフレームには、 上記のように I一 VOP、 P— VOP、 B— VOPの 3種 類がある。 I一 VOPはイントラ符号化と呼び、 I一 VOP自体の符号化時には、 フレー ム内で夺号化が 結するため他のフレームとの予測を必要としなレ、。 P— VO Pと B _ V OPは、 インター符号ィ匕と呼び、 P—VOP自体の符号化時には、 前方の I一 VOPまた は P— VOPから予測符号化をする。 B— VOP自体の符号化時には、 双方向 (前後方 向) の I— VOPまたは P—VOPから予測符号化をする。
図 10A、 10Bは、 動き補償時の予測方向と、 動き補償によって各フレームが持つ
(各フレーム内に符号化記録される) 動きベクトルの方向 (どのフレームに ¾~ る動きべ タトルか) を例示する図である。 なお図 10 Aは、動き補償時の予測方向を示しており、 図 10 Bは、 図 10 Aの例にぉレ、て各フレームが持つ動きべクトルの方向を示して 、る。 また図 10Bの矢印は、 的に図 1 OAの矢印と逆向きとなっている。
例えば、 図 10 Aの左から 4番目の I -VO Pは他のフレーム予測には麵されるが I -VO P自体の符号化に他のフレームからの予測は必要としなレ、。 つまり図 10 Bに示す ように、左から 4番目の I一 VOPからの動きベクトルは i¾しないので 11一 VOP自 体は動きべクトルを持たない。
また図 1 OAの左から 7番目の P— VOPは左から 4番目の I— VOPから予測され
る。 つまり図 1 OBに示すように、 左から 7番目の P— VOPからの動きべクトル ¾fcか ら 4番目の I一 VOPへの動きべクトルが するので P— VOP自体は動きべクトルを 持つ。
さらに図 1 OAの左から 5番目の B— VOPf^feから 4番目の I一 VOPと左から 7番 目の P— VOPから予測される。 つまり図 10Bに示すように左から 5番目の B— VOP からの動きべクトル ttfeから 4番目の I一 VOPと左から 7番目の P— VOPへの動きべ クトルが するので; B—VOP自体は動きべクトルを持つ。
しかし、 MP E G 4などの符号化はフレーム全体を一度に符号化するわけではなくフレ 一ム内を複数のマク口プロックに分けて符号ィ匕をする。 この際、 各マクロブロックの符号 化にはいくつカゝのモードが設けられているため、 必ずしも上記のような方向への動きべク トルを持つとは限らなレ、。
図 11は、 各フレーム符号化タイプの各マク口プロック符号化モードと各モ"ドにおレヽ てそのマクロプロック; ^持つ動きべクトルを示す図である。 図 11に示すように、 I一 V OPのマクロプロック符号化タイプは I NTRA (+Q) モードのみで 16X16ピクセ ルのフレーム内符号化を行うので動きべクトルは しなレヽ。
P— VOPのマクロブロック符号化タイプは I NTRA (+Q) 、 INTER (+ Q) 、 I NTER4V, NOT CODEDの 4種類のモードがある。 INTER (+ Q) は 16 X 16ピクセルのフレーム内符号化を行うので動きべクトルは;! しなレ、。 I NTER (+Q) は 16X 16ピクセルの前方向予測符号化を行うので前予測フレームへ の動きベクトルを 1つ持つ。 11^丁£1 4¥は16 16ピクセルを4分割した8 8ピ クセルごとに前方向予測符号化を行うので前予測フレームへの動きべクトルを 4つ持つ。 NOT CODEDは前予測フレームとの散が小さいため符号化せず、 前予測フレーム
の同 f立置におけるマク口プロックの画像データをそのまま使用するので、 実際には動き ベタトノレは持たないが、本^^態においては前予測フレームへの動きべクトル値 "0" を 1つ持つと考えることができる。
B— VO Pのマクロブロック符号化タイプは I NTE R P O LAT E、 F ORWAR D、 BACKWARD, D I RE CTの 4種類のモードがある。 I NTERP O LATE は 1 6 X 1 6ピクセルの双方向予測符号化を行うので前後予測フレームへの動きべクトル をそれぞれ 1つずつ持つ。 FORWARDは 1 6 X 1 6ピクセルの前方向予測符号化を行 うので前予測フレームへの動きべクトルを 1つ持つ。 BACKWARDは 1 6 X 1 6ピク セルの後方向予測符号化を行うので後予測フレームへの動きべクトルを 1つ持つ。 D I R E CTは 1 6 X 1 6ピクセルを 4分割した 8 X 8ピクセルごとに前後方向予測符号化を行 うので前後予測フレームへの動きべクトルをそれぞれ 4つずつ持つ。
以上の前提を元に画 ί象変位量算出処理 (S 1 0 4) の詳細を、 いくつかのパターンを例 に図 1 2乃至図 1 4 Cを用 ヽて説明する。
図 1 2は、 画像変位量算出麵 (S 1 0 4) における追従の例を示す図である。 図 1 2 の例において、 1フレーム目は I一 VO P、 2フレーム目と 3フレーム目は P— VOPで あり、 基準フレームを 1フレーム目、 参照フレームを 3フレーム目とする。 3フレーム目 の参照フレーム内の 画素を斜線の画素として、 まずその 画素力 S含まれるマク口プ ロックの持つ動きベクトルを探す。 この例の:^、 マクロブロック符号化タイプは I NT ERでこのマクロプロックが持つ動きべクトルは MV 1なので対象画素の {立置を MV 1を 使って移動する。 移動した画素の位置を 2フレーム目の P—VO Pのフレーム内の位置に 対応させ、 対応した 2フレーム目の¾ ^画素の位置に対して同様に舰画素力 S含まれるマ ク口プロックが持つ動きべクトルを探す。 この例の:^、 マクロブロック符号ィ匕タイプは
I NTER 4 Vでこのマクロプロック力 S持つ動きべクトルは 4っ する力 画素が 含まれている 8 X 8ピクセルのプロックが持つ動きべクトル ¾MV 4なので追従中の纖 画素の位置をさらに MV 4を使って移 »ΤΤる。 そして移動した画素の ί立置を 1フレーム目 の I一 VO Ρのフレーム内の位置に対応させる。 この例の ¾\ 1フレーム目が基準フレ ームなので、 参照フレームの 象画素は基準フレームまで追従できたことになり、 追従時 に使用した初期値 0と MV 1と MV 4を累働 tl算することで参照フレームの文豫画素から »フレームの 画素に対応する画素までの歸«位量を求めることができる。
図 1 3は、 画像変位量算出処理 (S 1 0 4) における追従の他の例を示す図である。 図 1 3の例において、 1フレーム目は I—VO P、 2フレーム目と 3フレーム目は P— VO Pとし、 ¾ ^フレームを 3フレーム目、 参照フレームを 1フレーム目とする。 1フレーム 目の参照フレーム内の * ^画素を斜線の画素として、 まず 1フレーム目への動きべクトル を持つ 2フレーム目の P— V O Pの全画素から 1フレーム目の^画素に対応する画素を 探す。 対応する画素が見つかったら、 その画素力 S含まれる 2フレーム目のマクロプロック が持つ動きベクトル (この例の^ " I NTER 4 Vで MV 3) の方向を反転した一 MV 3 で 画素の位置を移動し、移動した画素の位置を 2フレーム目の P—VO Pのフレーム 内の位置に対応させ、対応した 2フレーム目の ¾ ^画素の位置に対して同様に 3フレーム 目の Ρ— VO Ρの全画素から 2フレーム目の 画素に対応する画素を探す。 対応する画 素が見つかったらその画素力 S含まれる 3フレーム目のマクロブロックが持つ動きべクトル (この例の^ NTERで MV 5) の方向を反転した一 MV 5で の位置を移動 し、移動した画素の位置を 3フレーム目の Ρ— VO Ρのフレーム内の位置に対応させる。 この例の;^、 3フレーム目が基準フレームなので、 参照フレームの刘象画素は基準フレ ームまで追従できたことになり、 追従時に TOした初期値 0と一 MV 3と一MV 5を累積
加算することで参照フレームの 画素から フレームの 画素に対応する画素まで の画 ίβ位量を求めることができる。
図 1 4 Α— 1 4 Cは、 図 1 3の例におレヽて 画素に対応する画素およひ ¾きべクトル を探す方法を示す図である。 なお図 1 4 A— 1 4 Cでは、 図 1 3のような例において 1フ レーム目への動きべクトルを持つ 2フレーム目の P— VO Pの全画素から 1フレーム目の 画素に対応する画素を探す方¾^、 3フレーム目の P— V O Pの全画素から 2フレー ム目の ¾ ^画素に対応する画素を探す;^去にっ ヽて示している。 図 1 4 Aの例では、左か ら 4番目の参照フレーム (I—VO P) の¾ ^画素力 S左から 7番目の挪フレーム (P— VO P) のどの画素と対応する力 \ およびその画素力 s含まれるマクロブロックが持つ動き ベクトル (図 1 4の MV 1 ) を探す。
図 1 4 Bのように、 まず基準フレーム (P) の全てのマクロプロック (全画素) を各マ クロプロック (全画素) カ持つ動きベクトルで位置を移動する。 移動した結果が図 1 4 B の左図である。 この位靜動された画像領域内にぉレ、て、 参照フレームの通画素がどの 位置にあたるかをマークし、 その位置にある フレームを移動させた画素が対象画素に 対応する画素となる。 図 1 4 Bの例では、 マクロブ口ック 2の中のある一つの画素力 画素に対応する画素となるため、 元のマクロブロック 2内の対応する画素とマクロプロッ ク 2の動きべクトルが選択される。 このようにして^ If素と対応する画素を探すことが できる。
図 1 4 Cは、 ^画素をマークした位置に基準フレームを移動した画素力 S複数 &する であり、 どれを凝尺してもよレヽ。 例えば図 1 4 Cの例では、 纖画素をマークした位 置がマク口プロック 1と 6のある画素に対応しているが、 マクロプロック 1の方が中心に 近いのでマクロブ口ック 1内の対応する画素を藤尺するようにしてもよい。 また処理の都
合上、 ラスタスキャン順に処理を行いフラグを上書きしているような には、順番の遅 いマクロブロック 6を 尺するようにしてもよい。
図 15は、 図 2の重み係 処理 (S 105) の内容を説明するための図である。 図 15の例では 7つのフレーム画像があり、 一番左の I— VOPを基準フレーム、右から 3 番目の B— VOPを参照フレームとして、右から 3番目の参照フレーム内の 画素につ いて重み係数を生成する を示している。 図 15の例では、 繊画素が含まれる参照フ レームの符号化の,は B—VOPである。 また、 参照フレーム内の ^画素から,フ レームの刘象画素に対応する画素までの画像変位量を図 6および図 7に示す画像変位量算 出処理 (S104) によって算出した場合、 動きベクトルの累働ロ算回数が 3回であった とする。
本!^形態では、 ¾ ^画素力含まれる参照フレームの符号化の觀を麵して重み係数 cekを^^する。 このとき、 まず符号化された動画像データ全体が ififfiilか高 縮かを判 断する。 そして重み係数 akを、 #¾縮時は 「I—VOP>P—VOP>B—VOP」 の 大小関係になるように、高圧縮時は 「P—VOP>I— VOP≥B— VOP」 または 「P 一 VOP>B— VOP≥I_VOP」 の大小関係になるように決定する。 これは符号化さ れた動画像データ力 ©£縮のときは I一 VOPの画質力 S—番高く、 高 j¾のときは P— V OPの画質が一番高いためである。 ®£縮か高 j¾縮かを判 るには、 例えば、 符号化さ れた動画像データのビットレートが閾値より大きい は 閾値以下の は高圧 縮と判断してもよいし、符号化された動画像デ タの 縮率 (符号化された動画像データ の符¾ /動画像データが非謹時の符 の値が閾値より大きレヽ は 縮、 閾値 以下の齢は高 IB縮と判断してもよい。
また本難形態では、 画像変位量算出処理 (S 104) における動きべクトルの累働ロ
算回数を^ jiして重み係数 jを^ る。 このとき重み係数 jを、 画 ίβί立量算出処 理 (S 104) における動きべクトルの累働 Π算回数が少ないほど大きくなるように、 画 像変 算出処理 (S104) における動きベクトルの累徹ロ算回数が多いほど小さくな るように決定する。
なお、 重み係数 a kは参照フレームの符号化の によって決まるため参照フレームご とに決定され、 重み係数 j3; jは参照フレーム内の 画素によって決まるため参照フレー ムの各画素ごとに決定されることになる。 重み係 ½成処理 (S 105) で生成された重 み係数 および重み係数 uは、 以下の高角 K讓匕達 (S107) で^ fflされる。 図 16は、 ί立置合わせ処理き 16で、行われる立置合わせ処理 (S 106) と高角科纏匕 処理部 18で行われる高解 ft ヒ鍾 (S 107) のァルゴリズムを示すフ口一チヤ一ト である。 以下、 図 16に示すアルゴリズムの流れに添って位置合わせ処理 (S 106) お ょぴ麵 を用レヽた高解缠匕麵 (S107) の説明を行う。
まず、 基準フレームの画像データと参照フレームの画像データを読み込む (S 20 1) 。 なお参照フレームは、 フレーム指定おょぴフレーム選 iR« (SI 03) において 複縦夂を藤するようにし、 S 201にお ヽて複»:分の参照フレームの画象データを読 み込むのが望ましい。 次に、 講フレームを翻? ί簡匕処理のターゲット画像として、 こ のターゲット画像に対レィリニア捕間やバイキュービック補間等の補^ «を行って初 期画像 ζ0を作成する (S202) 。 なおこの補間処理は、 ^により省略することがで きる。 それから、 画像変位量算出処理 (S104) で算出された画像変錄を用いて、 タ 一ゲット画像と各参照フレームの位 g¾ "応を画素ごとに算出する (S203)。
次に、 光学伝達関数(OTF、 Op t i c a 1 Tr an s f e r Func t i o n)、 CCDアパーチャ (CCD開口) 等の撮像特性を考慮した点広がり関数(PS F、 P
o i n t S r e a d F u n c t i o n)を求める (S 204) 。 この P S Fは、 以 下の式 (1) における行列 Ak (i、 反映され、 例えば簡易的に Ga u s s関数を用 いることができる。 それから、 S 203で算出されたターゲット画像と各参照フレームの 位觀応と S 204で求められた P S Fを用いて、 以下の式 ( 1 ) で表される爾面関数 f (z) の最小化を行レ、 (S 205) 、 f (z) カ最小化されたかどうかを判定する (S 2 06) 。
式 (1) において、 kは参照フレームの ϋ@υ番号、 iと jは参照フレーム内における対 象画素の座標、 akは参照フレームの符号化の を用いて生成した重み係数、 は画 像変位量算出 β (S 104) における動きべクトルの累¾¾口算回数を用いて «した重 み係数、 yk (i、 j ) は参照フレーム (翻像度画像) の画像データを表す列べタト ル、 zはターゲット画像を高角? «化した高角 if ei像の画像データを表す列べクトル、
Ak (i、 j ) はターゲット画像と各参照フレームの位 応、 光学系の点像分布関数、 サンプリング開口によるぼけ、 カラーモザイクフィルタ (CFA) による各色コンポネン ト等 ¾ ^めた撮像システムの特 をあらわす画像変衡?列である。 また、 g (z) は画像 の滑らかさや画像の色の相関等を考慮した正則化項であり、 λは重み係数である。 式 (1) で表される諮面関数 f (z) の最小化には、 例えば聽降下法を用いることができ る。 ; 降下法を用いる齢には、 f (z) を zの各嫌で偏微分した値を計算して、 そ れらの値を要素とするベクトルを^^する。 そして以下の式 (2) に示すように、 偏微分 した値を要素とするベタトルを zに付加することにより、 高解 «画像 Zを させてい き (S 207) 、 f (z) 力 S最小となる zを求める。
· · · ( 2)
式 (2) において、 z nは n回目の更新を行った高解像度画像の画像データを表す列べ クトルであり、 αは更 f¾の歩み幅である。 なお、 最初の s 2 0 5の; wでは、 m . 画像 zとして S 2 0 2で求められた初期画像 z。を用いることができる。 S 2 0 6におレヽ て f ( z ) が最小化されたと判定された には処理を終了し、 そのときの z nを最終的 な高角? f M像としてメモリ 1 9等に言 する。 このようにして、 基準フレーム^ 照フ レームなどのフレーム画像よりも角科象の高 、高角? f«li像を得ることができる。
なお; Φ«形態では、画質改難理部 2 2の高角? (滅ィ 理部 1 8において高角? [嫉画 像を するようにしているが、 例えば 解艇化処理 (S 1 0 7 ) の代わりに、 上記の 重み係数を用いて加重平均による 骨化 «を行い、 ランダムノイズを {© することで基 準フレームを画質改善するようにしてもよい。
本 ¾开態では、 参照フレームの符号化の觀およひ 1K像変位量算出処理 (S 1 0 4) における動きベク トルの累働口算回数を用いて重み係数 a k、 ]3 を生成し、 この重み係 数 a k、 β および参照フレームと基準フレームとの間の画像変位量を用いて基準フレー ムを画質改善 mmi ) するため、 参照フレームの各画素に対して適切な重み付けを 行うことができ、 扉フレームに対して高精度な画質改難理を行うこと力 s可能となる。
図 1 7は、 本発明の実施形態 2において画像変位量算出 理 (S 1 0 4) で行われる画 像変位量の算出 去を示したフローチャートである。 なお、本 形態に係る画 置の構成およひ 法の内容は、 以下に示す点を除レ、て 形態 1に係る爾維理 ; ^去およひ 置と同様であり、 異なる部分にっレ、てのみ説明する。
本^ ½形態では、動きべクトルを累働 13算するのではなく基準フレームと参照フレーム
をピクセノ!^ツチングすることにより参照フレームと »フレームとの間の画 ί«ί立量を 算出する。
まず、 ,フレームを読み込み (S301) 、 フレームを複数の画 it¾位パラメ一 タで変形させ、 画像列を^^する (S 302) 。 それから、 フレーム選択処理 (S 10 3) で選択された参照フレームを読み込む (S303) 。 そして、領域ベースマッチング 手法等のピクセルマツチング を用いて基準フレームと参照フレームとの間で大まかな 画素 (立置の対応付けを行う (S304) 。
次に、 S302で基準フレームを麵さすることにより ^^された画像列と参照フレーム との間の類似度値を算出する (S 305) 。 この類似度は、 例えば SSD (Sum of Squared Difference) や SAD (Sum of Absolute Difference) 等の画像列と参照フレ ームとの として求めることができる。 そして S 302におレヽて画 it ^を生成した際の 画像変位パラメータと、 S305で算出した類 ί 値との関係を用 、て、 β的な類似度 マップを作成する (S306) 。 それから、 S306で作成した离撒的な類似度マップを 補完して赚的な類継曲線を求め、 この連続的な類搬曲線にぉ 、て類似度値の極値を 探索する (S 307) 。 匿的な類似度マップを補完して;^的な類難曲線を求める方 法としては、 例えばパラボラフィッティングゃスプライン補間法がある。 この 铳的な類 似度曲線にぉレ、て類 ί¾¾値が極値になるときの画像変位パラメータ力 御フレームと参 照フレームとの間の画 ί緩位量として算出される。
その後、 高角? (贿匕麵 (S 107) で用いられるすべての参照フレームについて画像 変位量の算出力 S行われたかどうかを判定し (S308) 、すべての参照フレームについて 画像変位量の算出が行われて 、なレ、 には、他の参照フレームを次の参照フレームとし て (S309) 、 S303力ら S308までの処理を繰り返す。 S 308において、 高解
ί 化処理 (S I 07) で用いられるすべての参照フレームについて画像変位量の算出が 行われたと判定された齢には麵を終了する。
図 18は、 画像変位量算出処理 (S 104) の S307において求められた類 曲線 の例を示す図である。 図 18において、 縦軸は瀕似度値を、横軸は図 17の S 302にお V、て画 i ^を «した際の画 ί象変 f立パラメ一タを示してレ、る。 図 18の例では、 画像列と 参照画像との間の鍵腿が S SDで算出されており、類似度曲線が謹的な類鍵マップ をパラボラフィッティングで補完することにより求められているため、類似度値が小さい ほど類似度が高くなる。 このように、离 1¾的な類似度マップを補完して 繞的な類似度曲 線を求め、 その極値 (図 18の例では ¾J、値) を探索することにより、 腳フレームと参 照フレームとの間の画 ¾位量をサブピクセノレレベルで求めることができる。
この後、 miと同様に重み係 »^処理 (s ι o 5)、 ί立置合わせ処理 (s ι。
6) およひ! ¾角 ff ¾化処理 (S 107) を行うが、 画像変位量算出処理 (S 104) にお いて動きべクトルの累働ロ算を行っていないため、 動きべクトルの累働 Π算回数を用いて まされる重み係数 )3 は求められない。 そこで本 »开態では、 図 16に示す高角 化麵の S205におレヽて以下の式 ( 3 ) で表される f面関数 f ( z ) を最小化すること により基準フレームを高解 ί鍵化する。 なお式 (3) では、 参照フレームの符号化の觀 を用 、て^^した重み係数 a kだけを■して重み付けしている。
z) = - A Z|f}+ (Z) · · · (3)
k
式 (3) において、 kは参照フレームの調 IJ番号、 o!kは参照フレームの符号化の觀 を用いて^^した重み係数、 ykは参照フレーム (iS^it 画像) の画像データを表す列 べクトル、 zはタ ゲット画像を高解 ti化した高解 MS像の画像データを表す列べク トル、 Akはターゲット画像と各参照フレームの位置対応、 光学系の点像分布関数、 サン
プリング開口によるぼけ、 カラーモザイクフィルタ (CFA) による各色コンポネント等 を含めた撮像システムの特性をあらわす画像変衡亍列である。 また、 g (z) は画像の滑 らかさや画像の色の相関等を考慮した正則化項であり、 は重み係数である。 効果につ!/、 ては ^態 1に係る W^法およひ 置とほぼ同様である。
m m?>)
本発明の実施形態 3では、 図 16に示す高解像度化処理の S 205におレ、て以下の式 (4) で表される諮面関数 ί (ζ) を最小化することにより基準フレームを高角? f 匕す る。 なお式 (4) では、画像変位量算出処理 (S 104) における動きべクトルの累働ロ 算回数を用レ、て算出した重み係数 β i jだけを棚して重み付けしてレ、る。 その他の点につ いては、 ¾ ^^態 1に係る画 去およひ ϋί««置と同様である。
/(ζ) =∑{∑∑{ (ζ·,力- Α ) 2||2}} + ) · · · (4)
し 1' ゾ J
式 (4) において、 kは参照フレームの調 IJ番号、 iと; jは参照フレーム内における対 象画素の座標、 J3 i〗は画像変位量算出処理 (S 104) における動きべクトルの累働ロ算 回数を用いて生成した重み係数、 yk (i j ) は参照フレーム (g*i ¾画像) の画像 データを表す歹 (Jベクトノレ、 zはターゲット画像を高解 i ^化した高解 像の画像デー タを表す列ベクトル、 Ak (i、 j ) はターゲット画像と各参照フレームの位置対応、 光 学系の点像分布関数、 サンプリング開口によるぼけ、 カラーモザイクフィルタ (CFA) による各色コンポネント等を含めた撮像システムの特性をあらわす画像変衡亍列である。 また、 g (z) は画像の滑らかさや画像の色の相関等を考慮した正則化項であり、 は重 み係数である。 効果にっレ、ては雄形態 1に係る画 ί繞 a ^法およひ面 置とほぼ 同様である。
なお、本発明は上記した^形態に限定されるものではなく、 その技術的思想の範囲内 でなしうるさまざまな変更、 改良力 S含まれることは言うまでもな!/、。 例えば上記の »形 態では、画質改 «部 2 2の位置合わせ鍾部 1 6と高角 糖匕麵部 1 8を別々に設 けているがこれらを一体としてもよく、 また画 置 1の構成は図 1に示すものに限 定されない。 さらに、 例えば »形態 1のように画像変位量算出鍵 (S 1 0 4) におい て動きベクトルを累働ロ算して画像変位量を求めた後、 態 2の式 ( 3) で表される 諮面関数 f (z) を用いて鮮フレームを高解 i S化するようにしてもよレ、。
また、 ¾ϋした 开態の説明では、画像^ «置が行う処理としてハードウェアによ る処理を としていたが、 このような構成に限定される必要はない。 例えば、別途ソフ トウェアにて処理する構成も可能である。
この ^、 画像処«置は、 C PU、 RAM等の主記' lt¾置、 上記処理の全て或いは一 部を^!させるためのプログラム力 S記憶されたコンピュータ読取り可能な記憶媒体を備え る。 ここでは、 このプログラムを画 i eプログラムと呼ぶ。 そして、 C PUが上記記'慮 媒体に記憶されている画 i Mプログラムを読み出して、 '隨の加工 ·演算処理を H f1~ ることにより、 上記画 ί集 置と同様の鍵を難させる。
ここで、 コンピュータ読み取り可能な言晦媒体とは、磁気ディスク、 雄気ディスク、 CD-ROM, DVD-ROM, ^体メモリ等をいう。 また、 この画像処理プログラム を通信回線によってコンピュータに配信し、 この配信を受けたコンピュータが当麵像処 理プログラムを^ f亍するようにしても良い。
ffiは 2007年 7月 19日に日本国特許疔に出願された特願 2007 - 188351に基づく概権 を主張し、 これらの出願の全ての內容は参照により本明細書に組み込まれる。
Claims
1. 動き 'lf¾を持つ符号化された動画像データを用いる画 ^去であって、
tiil¾ ^化された動画像データを復号化して得られるフレーム画像の中から基準フレー ムおよび参照フレームを謝尺するフレーム邀尺ステップと、
ΙΐίΙΕ参照フレームと ΙΐίΙ2¾準フレームとの間の画像変位量を算出する画 «位量算出ス テツプと、
filB参照フレームの符号化の およひ 夺号化された動画像データの動き '[f#のう ち少なくとも一方を用いて重み係数を^ る重み係 » ^ステップと、
鎌己画像変位量算出ステップで算出された画像変位量と、 ΙϋΙΒΜみ係 te¾ステップで 賊された重み係数を用いて ΙϋΙΒ»フレームを画質改善する画質改善ステップと、 を有する歸 t«m
2. ΙίίΙΒ画像変位量算出ステップにおいて、 歸 B夺号化された動画像データに識されて レ、るフレーム画像間の動きべクトルを方向を考慮して累働ロ算することにより、 IS 照 フレームと tfna¾準フレームとの間の画像変位量を算出する請求項 1に記載の画 i M^ 法。
3. tins重み係¾成ステップにおいて、 ttriB画像変位量算出ステップにおける tiiia動き べクトルの累積加算回数を用いて ffflB重み係数を生成する請求項 2に記載の画像処
4. itiBaみ係 成ステップにおいて、 t&ia 照フレームの符号化の觀ぉょひ mis画 像変 算出ステップにおける iilH動きべクトルの累¾¾ロ算回数の両方を用レ、て ΙΐίΙΞΜみ 係数を^ る請求項 2に記載の商 tern
5. ttit己重み係 成ステップにおいて、 |¾夺号化された動画像データのビットレート または i£¾率と、 Ιίί|Ε 照フレームの符号化の觀に応じて異なる重み係数を^する請 求項 1に記載の画 i M*?去。
6. 前記画質改善ステップにおいて、前 IS¾準フレームに対して高解像度化処理を行う請 求項 1に記載の画 i M¾¾o
7. 動き鎌を持つ 化された動画像データを用いる画» ^置であって、
謙 夺号化された動画像データを復号化して得られるフレーム画像の中から基準フレー ムおよび参照フレームを選キ尺するフレーム 尺部と、
fiifE 照フレームと廳5¾準フレームとの間の画像変位量を算出する歸緩位量算出部 と、
tfjfs 照フレームの符号化の およ υ¾ίίΐΒί夺号化された動画像データの動き' のう ち少なくとも一方を用 ヽて、 媚2 照フレームの各画素に対して重み係数を^ Τる重み 係 戈部と、
tiff己画像変ィ «算出部によって算出された画像変位量と、 tiiiasみ係 te¾部によって された重み係数を用いて ΙϋΐΒ»フレームを画質改善する画質改 «部と、 を備える蘭 «¾
8. 動き を持つ符号化された動画像データを用いる] 1ί»理をコンピュータに紫亍さ せるコンピュータプログラムを したコンピュ タ読み取り可能な記繊某体であって、 前記コンピュータプログラムは、
ttl 夺号化された動画像データを復号化して得られるフレーム画像の中から ¾ ^フレー ムおよび参照フレームを激尺するフレーム ステップと、
lfltE 照フレームと IES準フレームとの間の画像変位量を算出する画 it¾位量算出ス テツプと、
ffifB 照フレームの符号化の,およひ tiff己符号化された動画像データの動き',のう ち少なくとも一方を用いて重み係数を^^する重み係 ステップと、
ΙΐίΙ己画像変位量算出ステップで算出された画像変位量と、 lift己重み係¾«ステツプで «された重み係数を用レ、て ΙίΠΒ»フレームを画質改善する画質改善ステップと、 を ΙίίΙΒコンピュータに実行させるコンピュータ読み取り可能な記録媒体。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US12/689,395 US8964843B2 (en) | 2007-07-19 | 2010-01-19 | Image processing method, image processing apparatus and computer readable storage medium |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007188351A JP5098081B2 (ja) | 2007-07-19 | 2007-07-19 | 画像処理方法および画像処理装置 |
| JP2007-188351 | 2007-07-19 |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| US12/689,395 Continuation US8964843B2 (en) | 2007-07-19 | 2010-01-19 | Image processing method, image processing apparatus and computer readable storage medium |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2009011442A1 true WO2009011442A1 (ja) | 2009-01-22 |
Family
ID=40259766
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2008/063089 Ceased WO2009011442A1 (ja) | 2007-07-19 | 2008-07-15 | 画像処理方法、画像処理装置及びコンピュータ読取り可能な記録媒体 |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US8964843B2 (ja) |
| JP (1) | JP5098081B2 (ja) |
| WO (1) | WO2009011442A1 (ja) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2011101861A1 (en) | 2010-01-29 | 2011-08-25 | Msn Laboratories Limited | Process for preparation of dpp-iv inhibitors |
| US8224053B2 (en) * | 2009-03-31 | 2012-07-17 | General Electric Company | Methods and systems for displaying quantitative segmental data in 4D rendering |
| JP2012257120A (ja) * | 2011-06-09 | 2012-12-27 | Nippon Hoso Kyokai <Nhk> | 超解像補助情報生成装置、符号化装置、復号装置、及びこれらのプログラム |
| WO2017126036A1 (ja) * | 2016-01-19 | 2017-07-27 | オリンパス株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
Families Citing this family (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8385404B2 (en) * | 2008-09-11 | 2013-02-26 | Google Inc. | System and method for video encoding using constructed reference frame |
| JP5715533B2 (ja) * | 2011-09-13 | 2015-05-07 | Kddi株式会社 | 動画像画質復元装置、動画像画質復元方法、およびプログラム |
| US10390041B2 (en) * | 2012-03-30 | 2019-08-20 | Sun Patent Trust | Predictive image coding and decoding using two reference pictures |
| US20140333669A1 (en) * | 2013-05-08 | 2014-11-13 | Nvidia Corporation | System, method, and computer program product for implementing smooth user interface animation using motion blur |
| US9865103B2 (en) * | 2014-02-17 | 2018-01-09 | General Electric Company | Imaging system and method |
| JP2017163608A (ja) * | 2017-06-07 | 2017-09-14 | 株式会社ニコン | 画像処理プログラム、画像処理装置、および撮像装置 |
| WO2019008692A1 (ja) | 2017-07-05 | 2019-01-10 | オリンパス株式会社 | 画像処理装置、撮像装置、画像処理方法、画像処理プログラムおよび記憶媒体 |
| JP7159486B2 (ja) | 2019-12-04 | 2022-10-24 | オリンパス株式会社 | 撮像装置 |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006033062A (ja) * | 2004-07-12 | 2006-02-02 | Seiko Epson Corp | 画像処理装置、画像処理方法、および、画像処理プログラム |
| JP2006033141A (ja) * | 2004-07-13 | 2006-02-02 | Seiko Epson Corp | 画像処理装置、画像処理方法、プログラムおよび記録媒体 |
Family Cites Families (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5436665A (en) * | 1992-03-03 | 1995-07-25 | Kabushiki Kaisha Toshiba | Motion picture coding apparatus |
| US6404813B1 (en) * | 1997-03-27 | 2002-06-11 | At&T Corp. | Bidirectionally predicted pictures or video object planes for efficient and flexible video coding |
| JP2000165821A (ja) * | 1998-11-30 | 2000-06-16 | Fujitsu Ltd | 画像フォーマット変換装置及び画像フォーマット変換方法 |
| WO2001015459A1 (fr) * | 1999-08-24 | 2001-03-01 | Fujitsu Limited | Traitement d'image variant dans le temps, procede correspondant, et support enregistre |
| JP3659157B2 (ja) * | 2000-10-17 | 2005-06-15 | 日本電気株式会社 | 映像内容に重み付けをする画像圧縮方式 |
| US6558324B1 (en) * | 2000-11-22 | 2003-05-06 | Siemens Medical Solutions, Inc., Usa | System and method for strain image display |
| US6816552B2 (en) * | 2001-07-11 | 2004-11-09 | Dolby Laboratories Licensing Corporation | Interpolation of video compression frames |
| CA2476072A1 (en) * | 2002-02-13 | 2003-09-18 | Reify Corporation | Method and apparatus for acquisition, compression, and characterization of spatiotemporal signals |
| JP3743384B2 (ja) * | 2002-04-19 | 2006-02-08 | ソニー株式会社 | 画像符号化装置及び方法、並びに画像復号装置及び方法 |
| US7305032B2 (en) * | 2002-08-02 | 2007-12-04 | Kddi Corporation | Image matching device and method for motion pictures |
| US7729563B2 (en) * | 2002-08-28 | 2010-06-01 | Fujifilm Corporation | Method and device for video image processing, calculating the similarity between video frames, and acquiring a synthesized frame by synthesizing a plurality of contiguous sampled frames |
| KR101039987B1 (ko) * | 2002-10-01 | 2011-06-09 | 파나소닉 주식회사 | 화상 복호화 장치 및 그 방법 |
| US7515637B2 (en) * | 2004-05-21 | 2009-04-07 | Broadcom Advanced Compression Group, Llc | Video decoding for motion compensation with weighted prediction |
| KR100664929B1 (ko) * | 2004-10-21 | 2007-01-04 | 삼성전자주식회사 | 다 계층 기반의 비디오 코더에서 모션 벡터를 효율적으로압축하는 방법 및 장치 |
| JP4151793B2 (ja) | 2004-11-15 | 2008-09-17 | オリンパス株式会社 | 撮像装置および画像の高解像化方法 |
| JP5044922B2 (ja) * | 2005-11-08 | 2012-10-10 | カシオ計算機株式会社 | 撮像装置及びプログラム |
-
2007
- 2007-07-19 JP JP2007188351A patent/JP5098081B2/ja not_active Expired - Fee Related
-
2008
- 2008-07-15 WO PCT/JP2008/063089 patent/WO2009011442A1/ja not_active Ceased
-
2010
- 2010-01-19 US US12/689,395 patent/US8964843B2/en active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006033062A (ja) * | 2004-07-12 | 2006-02-02 | Seiko Epson Corp | 画像処理装置、画像処理方法、および、画像処理プログラム |
| JP2006033141A (ja) * | 2004-07-13 | 2006-02-02 | Seiko Epson Corp | 画像処理装置、画像処理方法、プログラムおよび記録媒体 |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8224053B2 (en) * | 2009-03-31 | 2012-07-17 | General Electric Company | Methods and systems for displaying quantitative segmental data in 4D rendering |
| WO2011101861A1 (en) | 2010-01-29 | 2011-08-25 | Msn Laboratories Limited | Process for preparation of dpp-iv inhibitors |
| JP2012257120A (ja) * | 2011-06-09 | 2012-12-27 | Nippon Hoso Kyokai <Nhk> | 超解像補助情報生成装置、符号化装置、復号装置、及びこれらのプログラム |
| WO2017126036A1 (ja) * | 2016-01-19 | 2017-07-27 | オリンパス株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
| JPWO2017126036A1 (ja) * | 2016-01-19 | 2018-11-08 | オリンパス株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| JP5098081B2 (ja) | 2012-12-12 |
| US8964843B2 (en) | 2015-02-24 |
| US20100183074A1 (en) | 2010-07-22 |
| JP2009027443A (ja) | 2009-02-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2009011442A1 (ja) | 画像処理方法、画像処理装置及びコンピュータ読取り可能な記録媒体 | |
| US12389030B2 (en) | Method and device for image motion compensation | |
| CN113709474B (zh) | 一种编解码方法、装置及其设备 | |
| JP4662636B2 (ja) | 動き推定とブロックマッチング・パターンの改良 | |
| CN102752593B (zh) | 估计运动矢量的方法和设备,编码器/解码器和解码方法 | |
| US6757330B1 (en) | Efficient implementation of half-pixel motion prediction | |
| KR100977255B1 (ko) | 영상 부호화 방법 및 복호 방법, 그들의 장치, 및 그들의프로그램 및 프로그램을 기록한 기억 매체 | |
| JP5216710B2 (ja) | 復号化処理方法 | |
| JP2007067731A (ja) | 符号化方法 | |
| KR20110122167A (ko) | 압축 동화상 부호화 장치, 압축 동화상 복호화 장치, 압축 동화상 부호화 방법 및 압축 동화상 복호화 방법 | |
| CN115442619A (zh) | 用于解码端运动矢量修正的基于误差面的子像素精确修正方法 | |
| WO2009011443A1 (ja) | 画像処理方法、画像処理装置及びコンピュータ読み取り可能な記録媒体 | |
| JP2914448B2 (ja) | 動きベクトル予測符号化方法および動きベクトル復号方法、予測符号化装置および復号装置、並びに、動きベクトルの予測符号化プログラムおよび復号プログラムを記録した記録媒体 | |
| JPH09182082A (ja) | 動画像の動き補償予測符号化方法とその装置 | |
| WO2008102904A1 (ja) | 動画像の動き情報を利用した画像処理装置及び画像処理方法 | |
| JP2002523987A (ja) | ディジタル画像の符号化方法および符号化装置ならびにディジタル画像の復号方法および復号装置 | |
| CN118402236A (zh) | 用于视频处理的方法、装置和介质 | |
| CN118339831A (zh) | 用于视频处理的方法、装置和介质 | |
| JPH09224252A (ja) | 動画像の動き補償予測符号化方法・復号方法および符号化装置・復号装置 | |
| WO2025065670A1 (zh) | 编解码方法、码流、编码器、解码器以及存储介质 | |
| JP4061505B2 (ja) | 画像符号化装置および方法 | |
| CN120982081A (zh) | 用于视频处理的方法、装置和介质 | |
| JP2008301085A (ja) | 動きベクトル探索装置及びその制御方法、コンピュータプログラム | |
| JP2002521944A (ja) | デジタル画像が被る動きを求める方法および装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 08791376 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 08791376 Country of ref document: EP Kind code of ref document: A1 |