[go: up one dir, main page]

KR20130011608A - Apparatus and method for sampled profile based motion estimation - Google Patents

Apparatus and method for sampled profile based motion estimation Download PDF

Info

Publication number
KR20130011608A
KR20130011608A KR1020110072890A KR20110072890A KR20130011608A KR 20130011608 A KR20130011608 A KR 20130011608A KR 1020110072890 A KR1020110072890 A KR 1020110072890A KR 20110072890 A KR20110072890 A KR 20110072890A KR 20130011608 A KR20130011608 A KR 20130011608A
Authority
KR
South Korea
Prior art keywords
image
vmaxline
hmaxline
edge
horizontal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020110072890A
Other languages
Korean (ko)
Other versions
KR101777776B1 (en
Inventor
배태면
Original Assignee
에스케이플래닛 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이플래닛 주식회사 filed Critical 에스케이플래닛 주식회사
Priority to KR1020110072890A priority Critical patent/KR101777776B1/en
Publication of KR20130011608A publication Critical patent/KR20130011608A/en
Application granted granted Critical
Publication of KR101777776B1 publication Critical patent/KR101777776B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 표본 프로파일 정보 기반 움직임 추정장치 및 방법에 관한 것으로서, 현재영상 내 객체의 윤곽선에 해당 되는 에지를 검출하여 현재영상의 에지영상을 생성하는 에지영상 생성부; 상기 에지영상을 입력 받아 움직임 추정대상 블록에서 에지정보를 가장 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 검출하는 영상 분석부; 및 상기 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)에 기초하여 현재영상과 기준영상 간의 블록 정합 오차를 계산하여 차이가 가장 작은 블록의 좌표차를 움직임 벡터로 예측하는 움직임 벡터 추정부를 포함 한다. The present invention relates to a motion estimation apparatus and method based on sample profile information, comprising: an edge image generation unit for generating an edge image of a current image by detecting an edge corresponding to an outline of an object in the current image; An image analyzer which receives the edge image and detects a horizontal max line (HmaxLine) and a vertical max line (VmaxLine) including the most edge information in the motion estimation target block; And a motion vector estimator for calculating a block matching error between the current image and the reference image based on the horizontal max line HmaxLine and the vertical max line VmaxLine, and predicting the coordinate difference of the block having the smallest difference as a motion vector. .

Description

표본 프로파일 정보 기반 움직임 추정장치 및 방법{Apparatus and method for sampled profile based motion estimation}Apparatus and method for sampled profile based motion estimation

본 발명은 표본 프로파일 정보 기반 움직임 추정장치 및 방법에 관한 것으로서, 보다 상세하게는, 블록 정합을 위한 움직임 벡터 추정 시 현재(current) 영상과 기준(reference) 영상의 에지(edge)를 검출하고 에지정보를 가장 많이 포함하는 수평 라인 및 수직 라인의 정합 오차를 비교하여 움직임 벡터를 예측하도록 함으로써, 움직임 예측을 위한 연산량을 감소시켜 고속 인코딩이 가능하도록 하는 표본 프로파일 정보 기반 움직임 추정장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for estimating motion based on sample profile information, and more particularly, to detect edges of a current image and a reference image when estimating a motion vector for block matching. By comparing the matching error of the horizontal line and the vertical line that includes the most to predict the motion vector, and to reduce the amount of computation for motion estimation, and relates to a sample profile information based motion estimation apparatus and method for enabling fast encoding.

멀티미디어를 지원해주는 핵심 요소로는 디지털화와 더불어 영상 압축 기술이 있다. 최근 들어 정보의 디지탈화가 급속도로 발전하고 있으며, 이에 따라 영상 압축 기술이 매우 중요하게 부각되고 있다.Key elements supporting multimedia include digital compression and image compression technology. Recently, digitalization of information is rapidly developing, and accordingly, image compression technology is very important.

일반적으로, PC나 HDTV, 혹은, 모바일 디바이스 등의 디지털 영상장치는 MPEG(Moving Picture Experts Group)-2, MPEG-4, H.264와 같은 영상 압축 방식으로 압축된 영상 신호를 MPEG기반 영상 코덱으로 인코딩하여 표시한다. In general, a digital video device such as a PC, HDTV, or mobile device converts a video signal compressed by video compression such as MPEG (Moving Picture Experts Group) -2, MPEG-4, H.264 into an MPEG-based video codec. Encode and display

이러한 영상 코덱은 블록 정합(Block matching) 방식을 기반으로 시간적인 중복성을 제거한다. 블록 정합 방식은 영상을 작은 블록으로 나누고, 현재 인코딩/디코딩되는 영상의 블록과 유사한 부분을 시간적으로 이전 프레임 또는 이 전에 인코딩/디코딩된 영상에서 찾아서 활용하고 그 차이값을 전송하는 방법으로 압축하게 된다. The image codec removes temporal redundancy based on a block matching scheme. The block matching method divides an image into small blocks and compresses a similar portion of the block of the currently encoded / decoded image by temporally searching for the previous frame or the previously encoded / decoded image and transmitting the difference value. .

이를 위해, 이전 프레임과 현재 프레임 사이에서 가장 비슷한 블록을 찾는 작업이 필요한데, 이를 움직임 추정(Motion Estimation, ME)이라 하며, 블록이 얼마만큼 움직였는가 하는 변위를 나타내는 것을 움직임 벡터(Motion Vector, MV)라고 한다.To this end, it is necessary to find the most similar block between the previous frame and the current frame. This is called Motion Estimation (ME), and the motion vector (MV) is used to represent the displacement of the block. It is called.

블록 정합 방식을 이용한 중간 영상 프레임 Fi 합성 개념은 도 1과 같다.The concept of intermediate image frame Fi synthesis using a block matching method is shown in FIG. 1.

도 1에 도시된 바와 같이, 이전 프레임 Fn-1과 현재 프레임 Fn 사이의 중간 영상 프레임 Fi를 합성하기 위해, 이전 프레임 Fn-1에 있는 블록과 현재 프레임에 있는 블록 Fn 간의 움직임 벡터(MV)의 움직임을 추정하여 중간 영상 프레임 Fi의 블록을 합성한다.As shown in Fig. 1, in order to synthesize an intermediate video frame Fi between the previous frame Fn-1 and the current frame Fn, the motion vector (MV) between the block in the previous frame Fn-1 and the block Fn in the current frame is shown. The motion is estimated to synthesize a block of the intermediate image frame Fi.

영상 신호 압축을 위한 움직임 추정(motion estimation) 시에는, 현재영상을 매크로블록으로 분할하고, 시간적으로 이전 영상과 SAD(Sum of Absolute Difference)또는 SSD(Sum of Square Difference)와 같은 오차값이 최소가 되는 영역과의 좌표 차를 움직임 벡터로 사용한다. In motion estimation for video signal compression, the current video is divided into macroblocks, and a minimum error value such as a sum of absolute difference (SAD) or a sum of square difference (SSD) and the previous video is minimized in time. Coordinate difference with the area to be used is used as a motion vector.

H.264의 경우, SAD 또는 SSD와 함께 움직임 벡터를 전송하는 데 요구되는 데이터량을 함께 고려한 값을 cost로 하여 cost가 가장 낮은 값을 보이는 움직임 벡터를 움직임 예측에 사용한다.In the case of H.264, the motion vector with the lowest cost is used for motion prediction by taking the cost considering the amount of data required to transmit the motion vector together with the SAD or SSD.

여기서, 움직임 벡터를 찾기 위해서는 SAD 또는 SSD를 움직임 탐색 영역의 모든 픽셀에 대해 모두 계산하고, 그 중 최소값을 가지는 위치를 찾아야 한다. 예컨대, 블록의 크기가 N x N 픽셀이고 움직임 탐색 영역이 32x32라면 1024*(2NxN-1)번의 덧셈/뺄셈 연산이 필요하며, 영상의 크기가 100Nx80N정도라면 8192000*(2NxN-1)*(NxN)의 연산이 필요하다. 이는 영상 인코딩 시 최대 50%까지의 연산을 차지할 정도로 많은 연산량으로, 시스템 부하를 유발하고 처리 속도를 지연시키는 문제점이 있다. In order to find the motion vector, the SAD or SSD must be calculated for all the pixels of the motion search region, and the position having the minimum value must be found. For example, if the block size is N x N pixels and the motion search area is 32x32, 1024 * (2NxN-1) addition / subtraction operations are required.If the size of the image is about 100Nx80N, 8192000 * (2NxN-1) * (NxN ) Is required. This is a large amount of calculation that takes up to 50% of operations when encoding an image, which causes a system load and delays processing speed.

한국공개특허 제2004-0049214호(2004.06.11), 발명의 명칭: 고속 모션벡터 추정장치 및 방법Korean Patent Laid-Open Publication No. 2004-0049214 (2004.06.11), title of the invention: High speed motion vector estimation apparatus and method

본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로서, 블록 정합을 위한 움직임 벡터 추정 시 현재(current) 영상과 기준(reference) 영상의 에지(edge)를 검출하고 에지정보를 가장 많이 포함하는 수평 라인 및 수직 라인의 정합 오차를 비교하여 움직임 벡터를 예측하도록 함으로써, 움직임 예측을 위한 연산량을 감소시켜 고속 영상 인코딩이 가능하도록 하는 표본 프로파일 정보 기반 움직임 추정장치 및 방법을 제공하는데 그 기술적 과제가 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problem, and includes a horizontal line that detects edges of a current image and a reference image and most includes edge information when estimating a motion vector for block matching. And by comparing the matching error of the vertical line to predict the motion vector, there is provided a sample profile information-based motion estimation apparatus and method for reducing the amount of computation for motion prediction to enable high-speed image encoding there is a technical problem.

상술한 목적을 달성하기 위한 본 발명의 표본 프로파일 정보 기반 움직임 추정장치는, 현재영상 내 객체의 윤곽선에 해당 되는 에지를 검출하여 현재영상의 에지영상을 생성하는 에지영상 생성부; 상기 에지영상을 입력 받아 움직임 추정대상 블록에서 에지정보를 가장 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 검출하는 영상 분석부; 상기 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)에 기초하여 현재영상과 기준영상 간의 블록 정합 오차를 계산하여 차이가 가장 작은 블록의 좌표차를 움직임 벡터로 예측하는 움직임 벡터 추정부를 포함한다.In accordance with one aspect of the present invention, there is provided a sample profile information-based motion estimation apparatus comprising: an edge image generation unit for detecting an edge corresponding to an outline of an object in a current image and generating an edge image of the current image; An image analyzer which receives the edge image and detects a horizontal max line (HmaxLine) and a vertical max line (VmaxLine) including the most edge information in the motion estimation target block; And a motion vector estimator for calculating a block matching error between the current image and the reference image based on the horizontal max line HmaxLine and the vertical max line VmaxLine, and predicting the coordinate difference of the block having the smallest difference as a motion vector.

여기서, 상기 영상 분석부는, 상기 에지영상을 특정값(T)과 비교하여 임계처리 함으로써, 0 과 1로 기록되는 특징정보영상을 생성하고, 상기 특징정보영상의 수평 프로파일과 수직 프로파일을 다음의 수학식에 적용하여 산출하여 상기 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 검출할 수 있다.Here, the image analysis unit compares the edge image with a specific value (T) and generates a feature information image recorded with 0 and 1, and generates a horizontal profile and a vertical profile of the feature information image as follows. The horizontal max line HmaxLine and the vertical max line VmaxLine may be detected by calculating the equation.

[수학식 1][Equation 1]

H(x) = ∑NI(x,y) H (x) = ∑ N I (x, y)

[수학식 2]&Quot; (2) "

V(y) = ∑MI(x,y) V (y) = ∑ M I (x, y)

[수학식 3]&Quot; (3) "

X = argx Max (∑NE(x,y) )X = arg x Max (∑ N E (x, y))

[수학식 4]&Quot; (4) "

Y = argx Max (∑ME(x,y) ) Y = arg x Max (∑ M E (x, y))

여기서 MxN은 블록의 크기이고, (x,y)는 픽셀의 좌표이고, I(x,y)는 (x,y)좌표에서의 픽셀의 휘도(intensity) 값을 나타낸다. 또한 H(x), V(y)는 각각 수평 프로파일과 수직 프로파일이다.Where MxN is the size of the block, (x, y) is the coordinate of the pixel, and I (x, y) is the intensity of the pixel at the (x, y) coordinate. H (x) and V (y) are horizontal profile and vertical profile, respectively.

또한, 상기 움직임 벡터 추정부는, 상기 현재영상의 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)에 대응되는 픽셀의 휘도값과 기준영상의 해당 픽셀의 휘도값에 기초하여 블록 정합 오차를 산출할 수 있다.The motion vector estimator may calculate a block matching error based on a luminance value of a pixel corresponding to a horizontal maxline line HmaxLine and a vertical maxline VmaxLine of the current image and a luminance value of the corresponding pixel of the reference image. Can be.

그리고, 상기 움직임 벡터 추정부는, 상기 현재영상과 기준영상 간의 차이를 다음의 수학식을 이용하여 SAD 및 SSD 중 적어도 어느 하나의 값으로 산출할 수 있다.The motion vector estimator may calculate a difference between the current image and the reference image as at least one of SAD and SSD using the following equation.

[수학식5][Equation 5]

SAD = {∑|Iref(HmaxLine+X,y+Y) - Icur(HmaxLine,y)| SAD = {∑ | Iref (HmaxLine + X, y + Y)-Icur (HmaxLine, y) |

+ ∑|Iref(x+X,VmaxLine+Y) - Vcur(x,VmaxLine)|}xα + ∑ | Iref (x + X, VmaxLine + Y)-Vcur (x, VmaxLine) |} xα

[수학식6][Equation 6]

SSD = {∑|ref(HmaxLine,y) - Hcur(HmaxLine,y)|2 SSD = {∑ | ref (HmaxLine, y)-Hcur (HmaxLine, y) | 2

+ ∑|Vref(x,VmaxLine) - Vcur(x,VmaxLine)|2}xα+ ∑ | Vref (x, VmaxLine)-Vcur (x, VmaxLine) | 2 } xα

(여기서, α는 스케일 상수로써 N/2(N=자연수))Where α is the scale constant N / 2 (N = natural number)

한편, 상술한 목적을 달성하기 위한 본 발명의 표본 프로파일 정보 기반 움직임 추정방법은, 현재영상을 입력 받아 현재영상 내 객체의 윤곽선에 해당 되는 에지를 검출하여 현재영상의 에지영상을 생성하는 단계; 상기 에지영상을 입력 받아 블록내 에지정보를 가장 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 검출하는 단계; 상기 현재영상의 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)에 기초하여 현재영상의 블록과 기준영상의 블록 간의 블록 정합 오차를 계산하는 단계; 및 상기 블록 정합 오차가 최소인 블록들의 좌표차를 움직임 벡터로 예측하는 단계를 포함한다.On the other hand, the sample profile information based motion estimation method of the present invention for achieving the above object comprises the steps of generating an edge image of the current image by receiving the current image to detect the edge corresponding to the contour of the object in the current image; Detecting a horizontal max line (HmaxLine) and a vertical max line (VmaxLine) including the edge information in the block with the input of the edge image; Calculating a block matching error between the block of the current image and the block of the reference image based on the horizontal max line HmaxLine and the vertical max line VmaxLine of the current image; And predicting a coordinate difference between blocks having the minimum block matching error as a motion vector.

여기서, 상기 에지영상을 입력 받아 에지정보를 가장 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 검출하는 단계는, 상기 에지영상을 특정값(T)과 비교하여 임계처리 함으로써, 0 과 1로 기록되는 특징정보영상을 생성하는 단계; 상기 특징정보영상의 수평 프로파일과 수직 프로파일을 다음의 수학식1 및 2에 적용하여 산출하는 단계; Here, the step of detecting the horizontal max line (HmaxLine) and the vertical max line (VmaxLine) containing the most edge information by receiving the edge image, by comparing the edge image with a specific value (T) by threshold processing Generating a feature information image recorded with 0 and 1; Calculating a horizontal profile and a vertical profile of the feature information image by using Equations 1 and 2 below;

[수학식 1][Equation 1]

H(x) = ∑NI(x,y) H (x) = ∑ N I (x, y)

[수학식 2]&Quot; (2) "

V(y) = ∑MI(x,y) V (y) = ∑ M I (x, y)

상기 수평 프로파일과 수직 프로파일 중 상기 에지정보를 가장 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 다음의 수학식3 및 4를 적용하여 검출하는 단계를 포함할 수 있다.The method may include detecting a horizontal max line HmaxLine and a vertical max line VmaxLine including the edge information among the horizontal profile and the vertical profile by applying the following equations (3) and (4).

[수학식 3]&Quot; (3) "

X = argx Max (∑NE(x,y) )X = arg x Max (∑ N E (x, y))

[수학식 4]&Quot; (4) "

Y = argx Max (∑ME(x,y) ) Y = arg x Max (∑ M E (x, y))

그리고, 상기 현재영상의 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)에 기초하여 현재영상과 기준영상 간의 블록 정합 오차를 계산하는 단계는, 상기 현재영상과 기준영상 간의 차이를 다음의 수학식을 이용하여 SAD 및 SSD 중 적어도 어느 하나의 값으로 산출하는 단계를 포함할 수 있다.The calculating of a block matching error between the current image and the reference image based on the horizontal max line HmaxLine and the vertical max line VmaxLine of the current image may include calculating a difference between the current image and the reference image by the following equation. The calculation may include calculating at least one of SAD and SSD.

[수학식5][Equation 5]

SAD = {∑|Iref(HmaxLine+X,y+Y) - Icur(HmaxLine,y)| SAD = {∑ | Iref (HmaxLine + X, y + Y)-Icur (HmaxLine, y) |

+ ∑|Iref(x+X,VmaxLine+Y) - Vcur(x,VmaxLine)|}xα + ∑ | Iref (x + X, VmaxLine + Y)-Vcur (x, VmaxLine) |} xα

[수학식6][Equation 6]

SSD = {∑|ref(HmaxLine,y) - Hcur(HmaxLine,y)|2 SSD = {∑ | ref (HmaxLine, y)-Hcur (HmaxLine, y) | 2

+ ∑|Vref(x,VmaxLine) - Vcur(x,VmaxLine)|2}xα+ ∑ | Vref (x, VmaxLine)-Vcur (x, VmaxLine) | 2 } xα

(여기서, α는 스케일 상수로써 N/2(N=자연수))Where α is the scale constant N / 2 (N = natural number)

상술한 바와 같이 본 발명의 표본 프로파일 정보 기반 움직임 추정장치 및 방법은, 블록 정합을 위한 움직임 벡터 추정 시 현재(current) 영상과 기준(reference) 영상의 에지(edge)를 검출하고 에지정보를 가장 많이 포함하는 수평 라인 및 수직 라인의 정합 오차를 비교하여 움직임 벡터를 예측하도록 함으로써, 움직임 예측을 위한 연산량을 감소시켜 고속 영상 인코딩이 가능케 한다. As described above, the apparatus and method for motion estimation based on the sample profile information of the present invention detects edges of the current image and the reference image and estimates the most edge information when the motion vector is estimated for block matching. By comparing the matching error of the included horizontal and vertical lines to predict the motion vector, it is possible to reduce the amount of computation for motion prediction to enable high-speed image encoding.

도 1은 블록 정합 방식을 이용한 움직임 벡터 예측 상태도,
도 2는 본 발명에 따른 표본 프로파일 정보 기반 움직임 추정장치의 제어 블록도,
도 3은 본 발명에 따른 표본 프로파일 정보 기반 움직임 추정방법의 흐름도이다.
1 is a motion vector prediction state diagram using a block matching method;
2 is a control block diagram of a sample profile information based motion estimation apparatus according to the present invention;
3 is a flowchart of a method for estimating motion based on sample profile information according to the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 보다 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명에 따른 표본 프로파일 정보 기반 움직임 추정장치의 제어 블록도이다. 움직임 벡터 추정을 위해서는 현재영상과 기준영상이 필요하다. 여기서, 기준영상은 현재영상보다 시간적으로 이전의 영상, 혹은, 인코딩/디코딩 순서에서 이 전에 처리된 영상을 뜻한다.2 is a control block diagram of a sample profile information based motion estimation apparatus according to the present invention. The current image and the reference image are required for motion vector estimation. Here, the reference video refers to a video that is temporally earlier than the current video or an image that has been processed before in the encoding / decoding sequence.

도 2에 도시된 바와 같이, 본 발명의 움직임 추정장치는, 에지영상 생성부(110), 영상 분석부(120), 움직임 벡터 추정부(130), 움직임 벡터 저장부(140)를 포함한다. As shown in FIG. 2, the motion estimation apparatus of the present invention includes an edge image generator 110, an image analyzer 120, a motion vector estimator 130, and a motion vector storage 140.

에지영상 생성부(110)는 입력되는 영상의 에지를 검출(edge detection)하여 에지영상을 생성한다. 영상의 에지는 영상 밝기의 불연속점으로 영상의 밝기가 낮은 값에서 높은 값으로, 또는, 이와 반대로 변화하는 부분을 뜻한다. 즉, 에지는 영상 내 객체의 윤곽선에 해당 되므로 에지를 검출하면 표시된 객체의 윤곽선의 픽셀 좌표를 추출할 수 있다. 에지영상을 생성하는 방법으로는 밝기의 변화율 즉, 기울기를 검출하여 기울기가 소정 기준값 이상일 경우 에지로 취하는 등의 다양한 기술이 사용되고 있다. 이에, 에지영상 생성부(110)는 종래에 소개된 에지 검출 방법을 이용하여 에지영상을 생성한다.The edge image generator 110 detects an edge of an input image and generates an edge image. The edge of the image is a discontinuity point of the image brightness and means a portion in which the brightness of the image changes from a low value to a high value or vice versa. That is, since the edge corresponds to the outline of the object in the image, if the edge is detected, pixel coordinates of the outline of the displayed object can be extracted. As a method for generating an edge image, various techniques, such as detecting a change rate of brightness, that is, a slope and taking it as an edge when the slope is more than a predetermined reference value, are used. Thus, the edge image generator 110 generates an edge image using the edge detection method introduced in the related art.

영상 분석부(120)는 에지영상을 입력 받아 에지정보를 가장 많이 포함하고 있는 수평라인 및 수직라인을 검출한다. The image analyzer 120 receives an edge image and detects a horizontal line and a vertical line including the most edge information.

영상 분석부(120)는 먼저 에지영상을 특정값 T로 임계처리(thresholding)하여 에지값이 T보다 크면 1로 기록하고 작으면 0으로 기록하여 특징정보영상을 생성한다. 에지값은 영상 밝기의 변화율이므로 임계처리가 완료된 특징정보영상에는 객체의 윤곽선일 가능성이 높은 픽셀만이 1로 기록된다.The image analyzing unit 120 first generates a feature information image by thresholding the edge image to a specific value T and recording the edge image as 1 when the edge value is greater than T and recording it as 0 when the edge value is smaller than T. Since the edge value is the rate of change of image brightness, only a pixel having a high possibility of being an outline of an object is recorded as 1 in the feature information image in which the critical processing is completed.

영상 분석부(120)는 특징정보영상에서 각 블록 별로 수평 프로파일(horizontal profile)과 수직 프로파일(vertical profile)을 생성한다. 수평 프로파일과 수직 프로파일을 산출하는 식은 다음의 수학식 1 및 수학식 2와 같다.The image analyzer 120 generates a horizontal profile and a vertical profile for each block in the feature information image. Equations for calculating the horizontal profile and the vertical profile are shown in Equations 1 and 2 below.

[수학식 1][Equation 1]

H(x) = ∑NI(x,y) H (x) = ∑ N I (x, y)

[수학식 2]&Quot; (2) "

V(y) = ∑MI(x,y) V (y) = ∑ M I (x, y)

[수학식 3]&Quot; (3) "

X = argx Max (∑NE(x,y) )X = arg x Max (∑ N E (x, y))

[수학식 4]&Quot; (4) "

Y = argx Max (∑ME(x,y) ) Y = arg x Max (∑ M E (x, y))

여기서 MxN은 블록의 크기이고, (x,y)는 픽셀의 좌표이고, I(x,y)는 (x,y)좌표에서의 픽셀의 휘도(intensity) 값을 나타낸다. 또한 H(X)는 수평 프로파일이고 V(Y)는 수직 프로파일이며, X, Y는 수학식 3,4로 선택된 블록의 수평 라인과 수직 라인을 나타낸다.Where MxN is the size of the block, (x, y) is the coordinate of the pixel, and I (x, y) is the intensity of the pixel at the (x, y) coordinate. In addition, H (X) is a horizontal profile, V (Y) is a vertical profile, and X and Y represent horizontal and vertical lines of a block selected by Equations 3 and 4.

수학식 1과 수학식 2를 통해 이해할 수 있듯이, 프로파일이란 2차원 영상에서 동일한 수직라인 또는 수평라인의 화소값을 합산한 값이다. As can be understood through Equation 1 and Equation 2, the profile is the sum of the pixel values of the same vertical or horizontal lines in the 2D image.

영상 분석부(120)는 각 블록의 수평 프로파일과 수직 프로파일을 생성한 후, 이들 중 에지정보를 가장 많이 포함하고 있는 수평 라인과 수직 라인을 각각 하나씩 추출한다. 각 블록에서 에지정보를 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 검출하는 수식은 다음은 수학식 3 및 수학식 4와 같다.The image analyzer 120 generates a horizontal profile and a vertical profile of each block, and then extracts one horizontal line and one vertical line including the most edge information among them. Equations for detecting the horizontal max line (HmaxLine) and the vertical max line (VmaxLine) including a lot of edge information in each block are as shown in equations (3) and (4).

[수학식 3]&Quot; (3) "

X = argx Max (∑NE(x,y) )X = arg x Max (∑ N E (x, y))

[수학식 4]&Quot; (4) "

Y = argx Max (∑ME(x,y) ) Y = arg x Max (∑ M E (x, y))

움직임 벡터 추정부(130)는 기준영상 내의 블록과 현재영상 내 블록의 정합 오차를 에지정보를 가장 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 이용하여 산출한다. 움직임 벡터 추정부(130)에서 SAD(Sum of Absolute Difference) 또는 SSD(Sum of Square Difference)에 대응되는 정합 오차를 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)를 이용하여 산출하는 방법은 다음의 수학식 5 및 수학식 6과 같다.The motion vector estimator 130 calculates a matching error between the block in the reference image and the block in the current image by using the horizontal max line HmaxLine and the vertical max line VmaxLine including the most edge information. The motion vector estimator 130 calculates a matching error corresponding to a sum of absolute difference (SAD) or a sum of square difference (SSD) using a horizontal max line (HmaxLine) and a vertical max line (VmaxLine). Equation 5 and Equation 6 are as follows.

[수학식 5][Equation 5]

SAD = {∑|Iref(HmaxLine+X,y+Y) - Icur(HmaxLine,y)| SAD = {∑ | Iref (HmaxLine + X, y + Y)-Icur (HmaxLine, y) |

+ ∑|Iref(x+X,VmaxLine+Y) - Vcur(x,VmaxLine)|}xα + ∑ | Iref (x + X, VmaxLine + Y)-Vcur (x, VmaxLine) |} xα

[수학식 6]&Quot; (6) "

SSD = {∑|ref(HmaxLine,y) - Hcur(HmaxLine,y)|2 SSD = {∑ | ref (HmaxLine, y)-Hcur (HmaxLine, y) | 2

+ ∑|Vref(x,VmaxLine) - Vcur(x,VmaxLine)|2}xα+ ∑ | Vref (x, VmaxLine)-Vcur (x, VmaxLine) | 2 } xα

여기서 Iref(x,y), Icur(x,y)는 각각 기준영상과 현재영상의 (x,y)좌표에서의 휘도(intensity)값을 나타내고, (X,Y)는 후보 움직임 벡터를 나타낸다. 또한 α는 스케일 상수로써 N/2(N=자연수)이다.Where Iref (x, y) and Icur (x, y) represent intensity values at (x, y) coordinates of the reference image and the current image, respectively, and (X, Y) represents candidate motion vectors. Α is a scale constant of N / 2 (N = natural number).

움직임 벡터 추정부(130)는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 이용하여 SAD(Sum of Absolute Difference) 또는, SSD(Sum of Square Difference)와 같은 오차값을 산출하고, 이전 영상과의 오차값이 최소가 되는 영역과의 좌표차를 움직임 벡터로 결정한다.The motion vector estimator 130 calculates an error value such as Sum of Absolute Difference (SAD) or Sum of Square Difference (SSD) using a horizontal max line (HmaxLine) and a vertical max line (VmaxLine), and the previous image. The coordinate difference with the area where the error value of and becomes the minimum is determined as a motion vector.

움직임 벡터 저장부(140)에는 추정된 움직임 벡터들이 저장된다.The motion vector storage 140 stores the estimated motion vectors.

이상 설명한 바와 같이, 본 발명에서는 현재영상의 각 블록에 대해 에지정보를 가장 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 찾으면 모든 후보 움직임 벡터에 대해 동일하게 사용할 수 있으므로 NxN 크기의 블록 비교 시 (2NxN-1)번의 연산이 4N으로 감소하여 연산시간을 감소시킬 수 있다.As described above, in the present invention, if the horizontal max line (HmaxLine) and the vertical max line (VmaxLine) containing the most edge information are found for each block of the current image, the candidate motion vectors can be used in the same manner. When comparing blocks of size, the operation of (2NxN-1) is reduced to 4N, which reduces the computation time.

예컨대, N이 8인 경우 종래기술에 따르면 127번의 연산이 필요하지만, 본 발명의 경우 32번으로 감소하므로 제안한 방법은 약 4배의 속도 향상을 가져온다. For example, when N is 8, according to the prior art, 127 operations are required, but in the case of the present invention, since it is reduced to 32, the proposed method brings about a 4 times speed improvement.

도 3은 본 발명에 따른 표본 프로파일 정보 기반 움직임 추정방법의 흐름도이다.3 is a flowchart of a method for estimating motion based on sample profile information according to the present invention.

먼저, 에지영상 생성부(110)에서는 현재영상에 대해 에지영상을 생성한다(S110). 영상의 에지는 영상 밝기의 불연속점으로 영상의 밝기가 낮은 값에서 높은 값으로, 또는, 이와 반대로 변화하는 부분을 뜻한다. 즉, 에지는 영상 내 객체의 윤곽선에 해당 되므로 에지를 검출하면 표시된 객체의 윤곽선의 픽셀 좌표를 추출할 수 있다.First, the edge image generation unit 110 generates an edge image with respect to the current image (S110). The edge of the image is a discontinuity point of the image brightness and means a portion in which the brightness of the image changes from a low value to a high value or vice versa. That is, since the edge corresponds to the outline of the object in the image, if the edge is detected, pixel coordinates of the outline of the displayed object can be extracted.

영상 분석부(120)는 에지영상 값을 특정값(T)과 비교하여 임계처리 함으로써, 0 과 1로 기록되는 특징정보영상을 생성한다(S112). 에지값은 영상 밝기의 변화율이므로 임계처리가 완료된 특징정보영상에는 객체의 윤곽선일 가능성이 높은 픽셀만이 1로 기록된다.The image analyzer 120 compares the edge image value with a specific value T and performs threshold processing, thereby generating a feature information image recorded as 0 and 1 (S112). Since the edge value is the rate of change of image brightness, only a pixel having a high possibility of being an outline of an object is recorded as 1 in the feature information image in which the critical processing is completed.

영상 분석부(120)는 특징정보영상 내의 각 블록에 대해 수평 프로파일 및 수직 프로파일 산출한다(S114). 영상 분석부(120)는 특징정보영상의 수평 프로파일 영상을 생성하는 데에는 전술한 수학식 1을 적용하고, 수직 프로파일 영상을 생성하는 데에는 수학식 2를 적용할 수 있다. 여기서, 프로파일이란 2차원 영상에서 동일한 수직라인 또는 수평라인의 화소값을 합산한 값으로 정의될 수 있다. The image analyzer 120 calculates a horizontal profile and a vertical profile for each block in the feature information image (S114). The image analyzer 120 may apply Equation 1 above to generate a horizontal profile image of the feature information image, and apply Equation 2 to generate a vertical profile image. Here, the profile may be defined as a sum of pixel values of the same vertical line or horizontal line in the 2D image.

영상 분석부(120)는 수평 프로파일 및 수직 프로파일 값에 기초하여 에지정보를 가장 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 검출한다(S116). 영상 분석부(120)는 수학식 3 및 수학식 4를 적용하여 에지정보를 가장 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 검출할 수 있다.The image analyzer 120 detects a horizontal max line HmaxLine and a vertical max line VmaxLine including the most edge information based on the horizontal profile and the vertical profile values (S116). The image analyzer 120 may detect the horizontal max line HmaxLine and the vertical max line VmaxLine including the most edge information by applying Equations 3 and 4 below.

이 후, 기준영상의 블록과 현재영상의 블록의 차이를 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)를 이용하여 산출한다(S118). 움직임 벡터 추정부(130)는 오차값을 계산하는 데에는 수학식 5을 이용하여 SAD를 산출하거나, 수학식 6을 이용하여 SSD를 산출할 수 있다. Thereafter, the difference between the block of the reference image and the block of the current image is calculated using the horizontal max line HmaxLine and the vertical max line VmaxLine (S118). The motion vector estimator 130 may calculate SAD using Equation 5 or calculate SSD using Equation 6 to calculate an error value.

움직임 벡터 추정부(130)는 움직임 벡터 추정부(130)는 정합 오차값을 계산하여 오차값이 최소가 되는 기준 블록과 현재 블록의 좌표차를 움직임 벡터로 추정한다(S120). The motion vector estimator 130 calculates a matching error value and estimates the coordinate difference between the reference block and the current block, which has the minimum error value, as a motion vector (S120).

이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Thus, those skilled in the art will appreciate that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the embodiments described above are to be considered in all respects only as illustrative and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

본 발명은 블록 정합을 위한 움직임 벡터 추정 시 현재(current) 영상과 기준(reference) 영상의 에지(edge)를 검출하고 에지정보를 가장 많이 포함하는 수평 라인 및 수직 라인의 정합 오차를 비교하여 움직임 벡터를 예측하도록 함으로써, 움직임 예측을 위한 연산량을 감소시켜 고속 인코딩이 가능하도록 하는 표본 프로파일 정보 기반 움직임 추정장치 및 방법에 이용할 수 있다.The present invention detects the edges of the current image and the reference image when estimating the motion vector for block matching, and compares the motion vector by comparing the matching error of the horizontal and vertical lines including the most edge information. By estimating, it can be used in a sample profile information-based motion estimation apparatus and method for reducing the amount of computation for motion prediction to enable fast encoding.

110 : 에지영상 생성부
120 : 영상 분석부
130 : 움직임 벡터 추정부
140 : 움직임 벡터 저장부
110: edge image generation unit
120: image analysis unit
130: motion vector estimation unit
140: motion vector storage

Claims (7)

현재영상 내 객체의 윤곽선에 해당 되는 에지를 검출하여 현재영상의 에지영상을 생성하는 에지영상 생성부;
상기 에지영상을 입력 받아 움직임 추정대상 블록에서 에지정보를 가장 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 검출하는 영상 분석부; 및
상기 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)에 기초하여 현재영상과 기준영상 간의 블록 정합 오차를 계산하여 차이가 가장 작은 블록의 좌표차를 움직임 벡터로 예측하는 움직임 벡터 추정부를 포함하는 표본 프로파일 정보 기반 움직임 추정장치.
An edge image generator for detecting an edge corresponding to the contour of the object in the current image and generating an edge image of the current image;
An image analyzer which receives the edge image and detects a horizontal max line (HmaxLine) and a vertical max line (VmaxLine) including the most edge information in the motion estimation target block; And
A sample including a motion vector estimator for calculating a block matching error between the current image and the reference image based on the horizontal max line HmaxLine and the vertical max line VmaxLine to predict a coordinate difference of the block having the smallest difference as a motion vector. Profile information based motion estimation device.
제1항에 있어서,
상기 영상 분석부는,
상기 에지영상을 특정값(T)과 비교하여 임계처리 함으로써, 0 과 1로 기록되는 특징정보영상을 생성하고, 상기 특징정보영상의 수평 프로파일과 수직 프로파일을 다음의 수학식에 적용하여 산출하여 상기 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 검출하는 것을 특징으로 하는 표본 프로파일 정보 기반 움직임 추정장치.
[수학식 1]
H(x) = ∑NI(x,y)
[수학식 2]
V(y) = ∑MI(x,y)
[수학식 3]
X = argx Max (∑NE(x,y) )
[수학식 4]
Y = argx Max (∑ME(x,y) )
여기서 (x,y)는 픽셀의 좌표이고, I(x,y)는 (x,y)좌표에서의 픽셀의 휘도(intensity) 값을 나타낸다. 또한 H(X), V(Y)는 각각 수평 프로파일과 수직 프로파일이며, 에지영상 E에서의 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 나타낸다.
The method of claim 1,
The image analyzer,
By comparing the edge image with a specific value T and performing threshold processing, a feature information image recorded with 0 and 1 is generated, and the horizontal and vertical profiles of the feature information image are applied to the following equation to calculate the A motion estimation device based on sample profile information characterized by detecting a horizontal max line (HmaxLine) and a vertical max line (VmaxLine).
[Equation 1]
H (x) = ∑ N I (x, y)
&Quot; (2) "
V (y) = ∑ M I (x, y)
&Quot; (3) "
X = arg x Max (∑ N E (x, y))
&Quot; (4) "
Y = arg x Max (∑ M E (x, y))
Where (x, y) is the coordinate of the pixel and I (x, y) represents the intensity of the pixel at the (x, y) coordinate. In addition, H (X) and V (Y) are a horizontal profile and a vertical profile, respectively, and represent a horizontal max line (HmaxLine) and a vertical max line (VmaxLine) in edge image E, respectively.
제1항에 있어서,
상기 움직임 벡터 추정부는,
상기 현재영상의 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)에 대응되는 픽셀의 휘도값과 기준영상의 해당 픽셀의 휘도값에 기초하여 블록 정합 오차를 산출하는 것을 특징으로 하는 표본 프로파일 정보 기반 움직임 추정장치..
The method of claim 1,
The motion vector estimating unit,
Based on sample profile information, the block matching error is calculated based on a luminance value of a pixel corresponding to a horizontal maxline line (HmaxLine) and a vertical maxline (VmaxLine) of the current image and a luminance value of a corresponding pixel of a reference image. Motion estimator ..
제1항에 있어서,
상기 움직임 벡터 추정부는,
상기 현재영상과 기준영상 간의 차이를 다음의 수학식을 이용하여 SAD 및 SSD 중 적어도 어느 하나의 값으로 산출하는 것을 특징으로 하는 표본 프로파일 정보 기반 움직임 추정장치.
[수학식5]
SAD = {∑|Iref(HmaxLine+X,y+Y) - Icur(HmaxLine,y)|
+ ∑|Iref(x+X,VmaxLine+Y) - Vcur(x,VmaxLine)|}xα
[수학식6]
SSD = {∑|ref(HmaxLine,y) - Hcur(HmaxLine,y)|2
+ ∑|Vref(x,VmaxLine) - Vcur(x,VmaxLine)|2}xα
(여기서, α는 스케일 상수로써 N/2(N=자연수))
The method of claim 1,
The motion vector estimating unit,
And a difference between the current image and the reference image is calculated using at least one of SAD and SSD using the following equation.
[Equation 5]
SAD = {∑ | Iref (HmaxLine + X, y + Y)-Icur (HmaxLine, y) |
+ ∑ | Iref (x + X, VmaxLine + Y)-Vcur (x, VmaxLine) |} xα
[Equation 6]
SSD = {∑ | ref (HmaxLine, y)-Hcur (HmaxLine, y) | 2
+ ∑ | Vref (x, VmaxLine)-Vcur (x, VmaxLine) | 2 } xα
Where α is the scale constant N / 2 (N = natural number)
현재영상을 입력 받아 현재영상 내 객체의 윤곽선에 해당 되는 에지를 검출하여 현재영상의 에지영상을 생성하는 단계;
상기 에지영상을 입력 받아 에지정보를 가장 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 검출하는 단계;
상기 현재영상의 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)에 기초하여 현재영상과 기준영상 간의 블록 정합 오차를 계산하는 단계; 및
상기 블록 정합 오차가 최소인 블록들의 좌표차를 움직임 벡터로 예측하는 단계를 포함하는 표본 프로파일 정보 기반 움직임 추정방법.
Generating an edge image of the current image by detecting an edge corresponding to the contour of the object in the current image by receiving the current image;
Receiving the edge image and detecting a horizontal max line HmaxLine and a vertical max line VmaxLine including the most edge information;
Calculating a block matching error between the current image and the reference image based on the horizontal max line HmaxLine and the vertical max line VmaxLine of the current image; And
And predicting coordinate differences of blocks having the minimum block matching error as a motion vector.
제5항에 있어서,
상기 에지영상을 입력 받아 에지정보를 가장 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 검출하는 단계는,
상기 에지영상을 특정값(T)과 비교하여 임계처리 함으로써, 0 과 1로 기록되는 특징정보영상을 생성하는 단계;
상기 특징정보영상의 수평 프로파일과 수직 프로파일을 다음의 수학식1 및 2에 적용하여 산출하는 단계;
[수학식 1]
H(x) = ∑NI(x,y)
[수학식 2]
V(y) = ∑MI(x,y)
상기 수평 프로파일과 수직 프로파일 중 상기 에지정보를 가장 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 다음의 수학식3 및 4를 적용하여 검출하는 단계를 포함하는 것을 특징으로 하는 표본 프로파일 정보 기반 움직임 추정방법.
[수학식 3]
X = argx Max (∑NE(x,y) )
[수학식 4]
Y = argx Max (∑ME(x,y) )
The method of claim 5,
The step of detecting the horizontal max line (HmaxLine) and the vertical max line (VmaxLine) containing the most edge information by receiving the edge image,
Generating a feature information image recorded with 0 and 1 by performing threshold processing on the edge image by comparing with a specific value T;
Calculating a horizontal profile and a vertical profile of the feature information image by using Equations 1 and 2 below;
[Equation 1]
H (x) = ∑ N I (x, y)
&Quot; (2) "
V (y) = ∑ M I (x, y)
Detecting the horizontal max line (HmaxLine) and the vertical max line (VmaxLine) including the edge information among the horizontal profile and the vertical profile by applying the following equations (3) and (4). Motion estimation method based on sample profile information.
&Quot; (3) "
X = arg x Max (∑ N E (x, y))
&Quot; (4) "
Y = arg x Max (∑ M E (x, y))
제5항에 있어서,
상기 현재영상의 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)에 기초하여 현재영상과 기준영상 간의 블록 정합 오차를 계산하는 단계는,
상기 현재영상과 기준영상 간의 차이를 다음의 수학식을 이용하여 SAD 및 SSD 중 적어도 어느 하나의 값으로 산출하는 단계를 포함하는 것을 특징으로 하는 표본 프로파일 정보 기반 움직임 추정방법.
[수학식5]
SAD = {∑|Iref(HmaxLine+X,y+Y) - Icur(HmaxLine,y)|
+ ∑|Iref(x+X,VmaxLine+Y) - Vcur(x,VmaxLine)|}xα
[수학식6]
SSD = {∑|ref(HmaxLine,y) - Hcur(HmaxLine,y)|2
+ ∑|Vref(x,VmaxLine) - Vcur(x,VmaxLine)|2}xα
(여기서, α는 스케일 상수로써 N/2(N=자연수))
The method of claim 5,
Computing a block matching error between the current image and the reference image based on the horizontal max line (HmaxLine) and the vertical max line (VmaxLine) of the current image,
And calculating a difference between the current image and the reference image as at least one of SAD and SSD using the following equation.
[Equation 5]
SAD = {∑ | Iref (HmaxLine + X, y + Y)-Icur (HmaxLine, y) |
+ ∑ | Iref (x + X, VmaxLine + Y)-Vcur (x, VmaxLine) |} xα
[Equation 6]
SSD = {∑ | ref (HmaxLine, y)-Hcur (HmaxLine, y) | 2
+ ∑ | Vref (x, VmaxLine)-Vcur (x, VmaxLine) | 2 } xα
Where α is the scale constant N / 2 (N = natural number)
KR1020110072890A 2011-07-22 2011-07-22 Apparatus and method for sampled profile based motion estimation Active KR101777776B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110072890A KR101777776B1 (en) 2011-07-22 2011-07-22 Apparatus and method for sampled profile based motion estimation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110072890A KR101777776B1 (en) 2011-07-22 2011-07-22 Apparatus and method for sampled profile based motion estimation

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020160142459A Division KR101781560B1 (en) 2016-10-28 2016-10-28 Apparatus and method for sampled profile based motion estimation

Publications (2)

Publication Number Publication Date
KR20130011608A true KR20130011608A (en) 2013-01-30
KR101777776B1 KR101777776B1 (en) 2017-09-12

Family

ID=47840537

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110072890A Active KR101777776B1 (en) 2011-07-22 2011-07-22 Apparatus and method for sampled profile based motion estimation

Country Status (1)

Country Link
KR (1) KR101777776B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160015136A (en) * 2014-07-30 2016-02-12 엔트릭스 주식회사 System for cloud streaming service, method of cloud streaming service using still image compression technique and apparatus for the same
WO2016047890A1 (en) * 2014-09-26 2016-03-31 숭실대학교산학협력단 Walking assistance method and system, and recording medium for performing same
KR20180116135A (en) * 2017-04-14 2018-10-24 한화테크윈 주식회사 Method for controlling panning and tilting of surveillance camera utilizing edge value

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160015136A (en) * 2014-07-30 2016-02-12 엔트릭스 주식회사 System for cloud streaming service, method of cloud streaming service using still image compression technique and apparatus for the same
WO2016047890A1 (en) * 2014-09-26 2016-03-31 숭실대학교산학협력단 Walking assistance method and system, and recording medium for performing same
KR20180116135A (en) * 2017-04-14 2018-10-24 한화테크윈 주식회사 Method for controlling panning and tilting of surveillance camera utilizing edge value

Also Published As

Publication number Publication date
KR101777776B1 (en) 2017-09-12

Similar Documents

Publication Publication Date Title
TWI565306B (en) Video decoding apparatus, video coding apparatus, video decoding method, video coding method, and storage medium
KR100803611B1 (en) Image encoding and decoding method and apparatus
KR101440610B1 (en) Apparatus and method for image incoding/decoding
US8204124B2 (en) Image processing apparatus, method thereof, and program
US20160080767A1 (en) Encoding system using motion estimation and encoding method using motion estimation
KR101777776B1 (en) Apparatus and method for sampled profile based motion estimation
JP5199196B2 (en) Moving picture decoding method, moving picture decoding apparatus, and moving picture decoding program
KR101810118B1 (en) Apparatus and method for profile based motion estimation
US8837595B2 (en) Motion estimation method
CN1965583A (en) Method of searching for a global motion vector
KR101787004B1 (en) Apparatus and method for sampled pixel based motion estimation
KR101781560B1 (en) Apparatus and method for sampled profile based motion estimation
KR100969420B1 (en) Frame rate conversion method
KR101798191B1 (en) Apparatus and method for sampled pixel based motion estimation
KR101895822B1 (en) Apparatus and method for profile based motion estimation
Fan et al. Spatiotemporal segmentation based on two-dimensional spatiotemporal entropic thresholding
CN101001380A (en) Motion Estimation Method for Video Coding
JP2008301270A (en) Moving picture coding apparatus and moving picture coding method
CN107426577B (en) Method and system for detecting repetitive structure in motion estimation motion compensation algorithm
KR100810391B1 (en) Frame Rate Conversion Method Using Motion Interpolation
JP4250598B2 (en) Motion compensation IP conversion processing apparatus and motion compensation IP conversion processing method
KR20130012421A (en) Apparatus and method for profile based motion estimation
Hussain et al. Block matching algorithms for motion estimation–A comparison study
US20090324115A1 (en) Converting the frame rate of video streams
KR20140109537A (en) A digital video recoder and a method for tracking object using it

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20110722

N231 Notification of change of applicant
PN2301 Change of applicant

Patent event date: 20111102

Comment text: Notification of Change of Applicant

Patent event code: PN23011R01D

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20160706

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20110722

Comment text: Patent Application

PA0107 Divisional application

Comment text: Divisional Application of Patent

Patent event date: 20161028

Patent event code: PA01071R01D

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20161212

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20170620

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20170906

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20170907

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20200904

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20210830

Start annual number: 5

End annual number: 5

PR1001 Payment of annual fee

Payment date: 20220624

Start annual number: 6

End annual number: 6