[go: up one dir, main page]

KR20080007069A - Video signal decoding method and apparatus - Google Patents

Video signal decoding method and apparatus Download PDF

Info

Publication number
KR20080007069A
KR20080007069A KR1020060110336A KR20060110336A KR20080007069A KR 20080007069 A KR20080007069 A KR 20080007069A KR 1020060110336 A KR1020060110336 A KR 1020060110336A KR 20060110336 A KR20060110336 A KR 20060110336A KR 20080007069 A KR20080007069 A KR 20080007069A
Authority
KR
South Korea
Prior art keywords
macroblock
prediction
view
picture
current macroblock
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
KR1020060110336A
Other languages
Korean (ko)
Inventor
박승욱
전병문
구한서
박지호
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20080007069A publication Critical patent/KR20080007069A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 비디오 신호 디코딩 방법 및 장치에 관한 것이다. 이 방법은 시점 간 예측(inter-view prediction)을 이용한 비디오 신호 디코딩 방법에 있어서, 현재 매크로블록의 매크로블록 타입을 독출하는 단계 및 상기 독출된 매크로블록 타입에 따라 이웃하는 픽쳐의 매크로블록 정보를 이용하여 상기 현재 매크로블록을 디코딩하는 단계를 포함하는 것을 특징으로 한다. 따라서, 본 발명에 의한 비디오 신호 디코딩 방법 및 장치는 다시점 비디오 코딩에 있어서 시점들 사이의 중복된 정보를 제거할 수 있는 다양한 예측 방식이 가능하며, 시점들 사이의 중복된 정보를 제거하기 위해 디스패러티 맵을 이용함으로써 코딩 효율이 증가하는 효과를 갖는다.The present invention relates to a video signal decoding method and apparatus. In the video signal decoding method using inter-view prediction, the method comprises: reading a macroblock type of a current macroblock and extracting macroblock information of a neighboring picture according to the read macroblock type; And decoding the current macroblock by using. Accordingly, the method and apparatus for decoding a video signal according to the present invention are capable of various prediction methods capable of removing redundant information between viewpoints in multi-view video coding, and can be used to remove duplicate information between viewpoints. By using the parity map, the coding efficiency is increased.

Description

비디오 신호 디코딩 방법 및 장치{Method and Apparatus for decoding a video signal}Method and apparatus for decoding video signal {Method and Apparatus for decoding a video signal}

도 1은 본 발명을 적용한 다시점 영상 부호화 및 복호화 시스템을 나타내는 도면이다.1 is a diagram illustrating a multiview image encoding and decoding system according to the present invention.

도 2는 본 발명을 적용한 다시점 비디오 코딩에 있어서, 픽쳐들 간의 예측 구조를 나타내는 도면이다.2 is a diagram illustrating a prediction structure between pictures in multi-view video coding according to the present invention.

도 3(a) 및 도 3(b)는 본 발명에 의한 비디오 신호 디코딩 방법의 일 실시예를 나타내는 흐름도이다.3 (a) and 3 (b) are flowcharts illustrating an embodiment of a video signal decoding method according to the present invention.

도 4 내지 도 9는 도 3(a) 및 도 3(b)의 비디오 신호 디코딩 방법의 일 실시예를 나타내는 도면이다.4 to 9 are diagrams illustrating an embodiment of a video signal decoding method of FIGS. 3A and 3B.

도 10은 본 발명에 의한 비디오 신호 디코딩 방법의 다른 실시예를 나타내는 흐름도이다.10 is a flowchart illustrating another embodiment of a video signal decoding method according to the present invention.

도 11은 본 발명에 의한 비디오 신호 디코딩 장치의 일 실시예를 나타내는 구성도이다.11 is a block diagram showing an embodiment of a video signal decoding apparatus according to the present invention.

도 12(a) 및 도 12(b)는 본 발명에 의한 비디오 신호 디코딩 방법의 또 다른 실시예를 나타내는 흐름도이다.12 (a) and 12 (b) are flowcharts illustrating still another embodiment of a video signal decoding method according to the present invention.

도 13은 도 12의 비디오 신호 디코딩 방법의 일 실시예를 나타내는 도면이 다.FIG. 13 is a diagram illustrating an embodiment of a video signal decoding method of FIG. 12.

본 발명은 비디오 신호 디코딩 방법 및 장치에 관한 것으로서, 특히 시점 간 예측(inter-view prediction)에 의한 비디오 신호 디코딩 방법 및 장치에 관한 것이다.The present invention relates to a video signal decoding method and apparatus, and more particularly, to a video signal decoding method and apparatus by inter-view prediction.

현재 주류를 이루고 있는 비디오 방송 영상물은 한 대의 카메라로 획득한 단일시점 영상이다. 반면, 다시점 비디오(Multi-view video)란 한 대 이상의 카메라를 통해 촬영된 영상들을 기하학적으로 교정하고 공간적인 합성 등을 통하여 여러 방향의 다양한 시점을 사용자에게 제공하는 3차원(3D) 영상처리의 한 분야이다. 다시점 비디오는 사용자에게 시점의 자유를 증가시킬 수 있으며, 한대의 카메라를 이용하여 획득할 수 있는 영상 영역에 비해 큰 영역을 포함하는 특징을 지닌다. The mainstream video broadcasting image is a single view image acquired with one camera. Multi-view video, on the other hand, is a three-dimensional (3D) image processing method that geometrically corrects images taken by more than one camera and provides users with various viewpoints in various directions through spatial synthesis. It is a field. Multi-view video can increase the freedom of view for the user, and has a feature that includes a larger area than the image area that can be acquired using a single camera.

이러한 다시점 비디오 영상은 시점들 사이에 높은 상관 관계를 가지고 있기 때문에 시점들 사이의 공간적 예측을 통해서 중복된 정보를 제거할 수 있다. 따라서, 시점들 사이의 예측을 위한 다양한 예측 방식이 필요하다.Since such multi-view video images have a high correlation between viewpoints, redundant information can be removed through spatial prediction between viewpoints. Therefore, various prediction methods for prediction between viewpoints are needed.

본 발명이 이루고자 하는 기술적 과제는, 시점들 사이의 중복된 정보를 제거할 수 있기 위한 다양한 예측 방식을 제공하는 비디오 신호 디코딩 방법 및 장치를 제공하는 데 있다.An object of the present invention is to provide a video signal decoding method and apparatus for providing various prediction methods for removing redundant information between viewpoints.

본 발명이 이루고자 하는 다른 기술적 과제는, 시점들 사이의 중복된 정보를 제거하기 위해 디스패러티 맵을 이용한 비디오 신호 디코딩 방법을 제공하는 데 있다.Another object of the present invention is to provide a video signal decoding method using a disparity map to remove redundant information between viewpoints.

상기 과제를 이루기 위해, 본 발명에 의한 비디오 신호 디코딩 방법은 시점 간 예측(inter-view prediction)을 이용한 비디오 신호 디코딩 방법에 관한 것으로, 현재 매크로블록의 매크로블록 타입을 독출하는 단계 및 상기 독출된 매크로블록 타입에 따라 이웃하는 픽쳐의 매크로블록 정보를 이용하여 상기 현재 매크로블록을 디코딩하는 단계로 이루어진다.In order to achieve the above object, the video signal decoding method according to the present invention relates to a video signal decoding method using inter-view prediction, the method comprising the steps of: reading a macroblock type of a current macroblock; Decoding the current macroblock using macroblock information of a neighboring picture according to a macroblock type.

또한, 상기 과제를 이루기 위해, 본 발명에 의한 비디오 신호 디코딩 방법은 시점 간 예측(inter-view prediction)을 이용한 비디오 신호 디코딩 방법에 관한 것으로, 현재 매크로블록이 시점 내 예측 또는 시점 간 예측에 의한 매크로블록인지를 나타내는 예측 모드를 독출하는 단계 및 상기 독출된 예측 모드에 따라 이웃하는 픽쳐의 매크로블록 정보를 이용하여 상기 현재 매크로블록을 디코딩하는 단계로 이루어진다.In addition, in order to achieve the above object, the video signal decoding method according to the present invention relates to a video signal decoding method using inter-view prediction, the current macroblock is a macro by intra-view prediction or inter-view prediction Reading a prediction mode indicating whether the block is a block; and decoding the current macroblock using macroblock information of a neighboring picture according to the read prediction mode.

또한, 상기 과제를 이루기 위해, 본 발명에 의한 비디오 신호 디코당 장치는 시점 간 예측(inter-view prediction)을 이용한 비디오 신호 디코딩 장치에 관한 것으로, 현재 매크로블록의 매크로블록 타입을 독출하는 매크로블록 타입 독출부와, 상기 현재 매크로블록의 예측 방식 정보를 독출하는 예측 방식 정보 독출부 및 상기 매크로블록 타입 및 예측 방식 정보를 이용하여 상기 현재 매크로블록을 디코 딩하는 복호화부로 구성된다.In addition, to achieve the above object, the video signal decoding device according to the present invention relates to a video signal decoding apparatus using inter-view prediction, the macroblock for reading the macroblock type of the current macroblock And a type reading unit, a prediction method information reading unit for reading the prediction method information of the current macroblock, and a decoding unit decoding the current macroblock using the macroblock type and the prediction method information.

상기 다른 과제를 이루기 위해, 본 발명에 의한 비디오 신호 디코딩 방법은 시점 간 예측(inter-view prediction)을 이용한 비디오 신호 디코딩 방법에 관한 것으로, 화소 단위 디스패러티 벡터를 구하는 단계와, 상기 구한 화소 단위 디스패러티 벡터로부터 블록 단위 디스패러티 벡터를 유도하는 단계 및 상기 유도된 블록 단위 디스패러티 벡터 중 같은 디스패리티 벡터를 가지는 블록을 그룹핑하여 합친 디스패러티 벡터를 이용하여 현재 매크로블록을 디코딩하는 단계로 이루어진다.In order to achieve the above object, the video signal decoding method according to the present invention relates to a video signal decoding method using inter-view prediction, the method comprising: obtaining a pixel-by-pixel disparity vector; Deriving a block-by-block disparity vector from the parity vector and decoding the current macroblock using a disparity vector, which is a combination of the blocks having the same disparity vector among the derived block-based disparity vectors.

이하, 본 발명에 의한 비디오 신호 디코딩 장치의 실시예의 구성 및 동작과 그 장치에서 수행되는 방법의 실시예를 첨부한 도면들을 참조하여 다음과 같이 설명한다. 이때 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 상기한 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.Hereinafter, a configuration and an operation of an embodiment of a video signal decoding apparatus according to the present invention and an embodiment of a method performed in the apparatus will be described with reference to the accompanying drawings. At this time, the configuration and operation of the present invention shown in the drawings and described by it will be described as at least one embodiment, by which the technical spirit of the present invention and its core configuration and operation is not limited.

도 1은 본 발명을 적용한 다시점 영상(multi-view sequence) 부호화 및 복호화 시스템을 나타내는 도면이다. 1 is a diagram illustrating a multi-view sequence encoding and decoding system according to the present invention.

도 1에 도시된 바와 같이, 본 발명을 적용한 다시점 영상 부호화 시스템은, 다시점 영상 발생부(10), 전처리부(20, preprocessing) 및 인코딩부(30, encoding)를 포함하여 구성된다. 또한, 복호화 시스템은 익스트랙터(40, extractor), 디코딩부(50, decoding), 후처리부(60, post processing) 및 디스플레이부(70, display)를 포함하여 구성된다.As shown in FIG. 1, the multi-view image encoding system to which the present invention is applied includes a multi-view image generator 10, a preprocessing unit 20, and an encoding unit 30. In addition, the decoding system includes an extractor 40, an extractor 50, a decoding unit, a post-processing unit 60, and a display unit 70.

상기 다시점 영상 발생부(10)는 다시점 개수 만큼의 영상 획득장치(예를 들 어, 카메라 #1 ~ #N)를 구비하여, 각 시점별로 독립적인 영상을 획득하게 된다. 전처리부(20)는 다시점 영상 데이터가 입력되면, 노이즈 제거, 임발란싱(imbalancing) 문제를 해결하면서 전처리 과정을 통해 다시점 영상 데이터들 간의 상관도를 높여주는 기능을 수행한다. 인코딩부(30)는 움직임(motion) 추정부, 움직임 보상부 및 시점 간의 변이(disparity) 추정부, 변이 보상부, 조명(illumination) 보상부, 비트율 제어 및 차분(residual) 영상 부호화부 등을 포함한다. 또한, 인코딩부(30)는 일반적으로 알려진 방식을 적용할 수 있다.The multi-view image generator 10 is provided with an image obtaining apparatus (for example, cameras # 1 to #N) corresponding to the number of multi-views to acquire independent images for each viewpoint. When the multiview image data is input, the preprocessing unit 20 performs a function of increasing the correlation between the multiview image data through a preprocessing process while solving noise removal and imbalancing problems. The encoder 30 includes a motion estimator, a motion compensator, and a disparity estimator, a disparity compensator, an illumination compensator, a bit rate control, and a residual image encoder. do. In addition, the encoding unit 30 may apply a generally known method.

익스트랙터(40)는 전송된 MVC 비트스트림으로부터 원하는 시점(view)에 해당하는 비트스트림만 추출할 수 있는 기능을 한다. 상기 익스트랙터는 헤더를 보고 선택적으로 원하는 시점만 디코딩할 수 있다. 또한, 픽쳐의 시점을 구별하는 시점 식별자(view identifier)를 이용하여 원하는 시점에 해당하는 비트스트림만을 추출함으로써 시점 확장성(view scalability)을 구현할 수 있다. MVC는 H.264/AVC와 완벽하게 호환이 가능해야 하기 때문에 H.264/AVC와 호환 가능한 특정 시점(view)만 디코딩해야 할 필요가 있다. 이러한 경우, 호환 가능한 시점만 디코딩하기 위해 픽쳐의 시점을 구별하는 시점 식별자가 이용될 수 있다. 익스트랙터(40)를 통해 추출된 비트스트림은 디코딩부(50)로 전송된다. 디코딩부(50)는 움직임 보상부, 조명 보상부, 가중치 예측부, 디블록킹 필터부 등을 포함한다. 디코딩부(50)는 전술한 방식에 의해 부호화된 비트스트림을 수신한 후, 이를 역으로 복호화한다. 이에 대해서는 도 11에서 상세히 설명하기로 한다. 또한, 후처리부(60)는 디코딩된 데이터의 신뢰도 및 해상도를 높여주는 기능을 수행하게 된다. 마지막으로 디스플레이 부(70)는 디스플레이의 기능, 특히 다시점 영상을 처리하는 능력에 따라 다양한 방식으로 사용자에게 디코딩된 데이터를 제공하게 된다. 예를들어, 평면 2차원 영상만을 제공하는 2D 디스플레이(71)이거나, 2개의 시점을 입체 영상으로 제공하는 스테레오(stereo) 타입의 디스플레이(73)이거나 또는 M개의 시점(2<M)을 입체 영상으로 제공하는 디스플레이(75)일 수 있다.The extractor 40 functions to extract only a bitstream corresponding to a desired view from the transmitted MVC bitstream. The extractor can view the header and optionally decode only the desired time point. In addition, view scalability may be implemented by extracting only a bitstream corresponding to a desired view using a view identifier that distinguishes a view of a picture. Since MVC must be fully compatible with H.264 / AVC, it is necessary to decode only certain views that are compatible with H.264 / AVC. In this case, a view identifier that distinguishes a view of the picture may be used to decode only compatible views. The bitstream extracted through the extractor 40 is transmitted to the decoding unit 50. The decoder 50 includes a motion compensator, an illumination compensator, a weight predictor, a deblocking filter, and the like. The decoding unit 50 receives the bitstream encoded by the above-described method, and decodes it in reverse. This will be described in detail with reference to FIG. 11. In addition, the post-processing unit 60 performs a function of increasing the reliability and resolution of the decoded data. Finally, the display unit 70 provides the decoded data to the user in various ways according to the function of the display, in particular, the ability to process a multi-view image. For example, it is a 2D display 71 that provides only a planar two-dimensional image, or a stereo type display 73 that provides two views as a stereoscopic image, or a stereoscopic image of M views (2 <M). The display 75 may be provided.

도 2는 본 발명을 적용한 다시점 비디오 코딩에 있어서, 픽쳐들 간의 예측 구조를 나타내는 도면이다.2 is a diagram illustrating a prediction structure between pictures in multi-view video coding according to the present invention.

도 2에 도시된 바와 같이 가로축의 T0 ~ T100 은 각각 시간에 따른 프레임을 나타낸 것이고, 세로축의 S0 ~ S100은 각각 시점에 따른 프레임을 나타낸 것이다. 예를 들어, T0에 있는 픽쳐들은 같은 시간대(T0)에 서로 다른 카메라에서 찍은 영상들을 의미하며, S0 에 있는 픽쳐들은 한 대의 카메라에서 찍은 다른 시간대의 영상들을 의미한다. 또한, 도면 상의 화살표들은 각 픽쳐들의 예측 방향과 순서를 나타낸 것으로서, 예를 들어, T0 시간대의 S2 시점에 있는 P0 픽쳐는 I0로부터 예측된 픽쳐이며, 상기 P0 픽쳐는 TO 시간대의 S4 시점에 있는 또 다른 P0 픽쳐의 참조 픽쳐가 된다. 또한, S2 시점의 T4, T2 시간대에 있는 B1, B2 픽쳐의 참조 픽쳐가 된다.As illustrated in FIG. 2, T0 to T100 on the horizontal axis represent frames according to time, and S0 to S100 on the vertical axis represent frames according to viewpoints, respectively. For example, pictures in T0 refer to images taken by different cameras in the same time zone (T0), and pictures in S0 refer to images in different time zones taken by one camera. In addition, the arrows in the drawing indicate the prediction direction and the order of each picture. For example, a P0 picture at S2 time point in the T0 time zone is a picture predicted from I0, and the P0 picture is also at S4 time point in the TO time zone. It becomes a reference picture of another P0 picture. It is also a reference picture of the B1 and B2 pictures in the T4 and T2 time zones at the time S2.

이와 같이 현재 픽쳐와 같은 시간대에 있으나, 다른 시점에 있는 픽쳐들을 이용하여 예측 부호화를 하게 될 경우, 상기 픽쳐들 사이의 시점을 구별해주는 식별자가 필요하다. 따라서, 임의 픽쳐의 시점을 나타내는 식별자를 시점 식별자(view_num)라 정의한다. 예를 들어, 상기 TO 시간대의 S4 시점에 있는 P0 픽쳐는 같은 시간대의 S2 시점에 있는 P0 픽쳐를 참조하여 예측 부호화를 수행한다. 이 경우, 상기 S2 시점의 P0 픽쳐를 참조할 때, 상기 S2 시점의 P0 픽쳐의 시점 식별자를 이용하면 좀 더 효율적인 예측 부호화를 수행할 수 있게 된다.As such, when prediction encoding is performed using pictures that are in the same time zone as the current picture but at different views, an identifier for distinguishing the viewpoints between the pictures is required. Therefore, an identifier indicating a viewpoint of an arbitrary picture is defined as a viewpoint identifier (view_num). For example, the P0 picture at S4 in the TO time zone is predictively encoded by referring to the P0 picture at S2 in the same time zone. In this case, when referring to the P0 picture of the S2 view, more efficient predictive encoding can be performed by using the view identifier of the P0 picture of the S2 view.

도 3(a),(b)는 본 발명에 의한 비디오 신호 디코딩 방법의 일 실시예를 나타내는 흐름도이다.3 (a) and 3 (b) are flowcharts illustrating an embodiment of a video signal decoding method according to the present invention.

도 3(a)에 도시된 바와 같이, 먼저, 현재 매크로블록의 매크로블록 타입을 독출한다(S32). 여기서, 본 발명에 의할 경우, 매크로블록 타입은 현재 매크로블록 타입이 시점 내 예측(intra-view prediction)에 의한 매크로블록인지 또는 시점 간 예측(inter-view prediction)에 의한 매크로블록인지를 나타낸다.As shown in FIG. 3 (a), first, the macroblock type of the current macroblock is read (S32). Here, according to the present invention, the macroblock type indicates whether the current macroblock type is a macroblock by intra-view prediction or a macroblock by inter-view prediction.

다음으로, 현재 매크로블록의 예측 방식 정보를 독출한다(S34). 여기서, 본 발명에 의한 예측 방식 정보에는 모션 예측에 관한 정보 3가지와 텍스쳐 예측에 관한 정보 2가지로 나눌 수 있다. 모션 예측에 관한 정보에 대해서는 도 4에서, 텍스쳐 예측에 관한 정보에 대해서는 도 7에서 상세히 설명하기로 한다.Next, the prediction method information of the current macroblock is read (S34). Here, the prediction method information according to the present invention may be divided into three pieces of information on motion prediction and two pieces of information on texture prediction. Information about motion prediction is described in detail with reference to FIG. 4 and information about texture prediction is described with reference to FIG. 7.

마지막으로, 독출된 매크로블록 타입과 예측 방식 정보에 따라 현재 매크로블록을 디코딩한다(S36). 여기서, 본 발명에 의한 비디오 신호 디코딩 방법은 독출된 매크로블록 타입이 시점 내 예측 매크로블록인지 또는 시점 간 예측 매크로블록인지에 따라 현재 매크로블록의 시간 방향 또는 시점 방향으로 이웃하는 픽쳐의 매크로블록 정보를 이용하여 현재 매크로블록을 디코딩한다. 여기서, 이웃하는 픽쳐의 매크로블록 정보에는 모션(motion) 정보와 텍스쳐(texture) 정보로 나눌 수 있으며, 이에 대해서는 이하에서 상세히 설명하기로 한다. 또한, 독출된 예측 방식 정보에 따라 시간 방향 또는 시점 방향으로 이웃하는 픽쳐의 매크로블록은 시간 방향 또는 시점 방향으로 전(forward)에 있는 픽쳐의 매크로블록이거나 또는 시간 방향 또는 시점 방향으로 후(backward)에 있는 픽쳐의 매크로블록이 된다. 다시 말해, 매크로블록 타입에 의해서는 현재 매크로블록과 이웃하는 픽쳐가 시간 방향으로 이웃하는 픽쳐인지 또는 시점 방향으로 이웃하는 픽쳐인지를 알 수 있으며, 예측 방식 정보에 의해서는 시간 방향 또는 시점 방향으로 전(forward)에 있는 픽쳐인지 또는 후(backward)에 있는 픽쳐인지를 알 수 있다.Finally, the current macroblock is decoded according to the read macroblock type and prediction method information (S36). In the video signal decoding method according to the present invention, macroblock information of a picture neighboring in a time direction or a view direction of a current macroblock is determined according to whether the read macroblock type is an intra-view prediction macroblock or an inter-view prediction macroblock. To decode the current macroblock. Here, the macroblock information of the neighboring picture may be divided into motion information and texture information, which will be described in detail below. Also, according to the read prediction information, macroblocks of pictures neighboring in the time direction or the view direction are macroblocks of pictures forward in the time direction or the view direction, or backward in the time direction or the view direction. This is the macroblock of the picture in. In other words, the macroblock type determines whether a picture neighboring the current macroblock is a picture neighboring in the time direction or a picture neighboring in the view direction. It can be seen whether the picture is in the forward or the picture in the backward.

또한, 도 3(b)에서는, 먼저, 현재 매크로블록의 매크로블록 타입을 독출한다(S31). 여기서, 본 발명에 의할 경우, 매크로블록 타입은 현재 매크로블록 타입이 시점 내 예측(intra-view prediction)에 의한 매크로블록인지 또는 시점 간 예측(inter-view prediction)에 의한 매크로블록인지를 나타낸다.3B, first, the macroblock type of the current macroblock is read out (S31). Here, according to the present invention, the macroblock type indicates whether the current macroblock type is a macroblock by intra-view prediction or a macroblock by inter-view prediction.

다음으로, 예측 방식을 적용할지 여부를 나타내는 예측 플래그 정보를 독출한다(S33). 여기서, 본 발명에 의한 예측 플래그 정보에는 모션 예측에 관한 정보 3가지와 텍스쳐 예측에 관한 정보 2가지로 나눌 수 있다. 모션 예측에 관한 정보에 대해서는 도 5 및 도 6에서, 텍스쳐 예측에 관한 정보에 대해서는 도 8 및 도 9에서 상세히 설명하기로 한다.Next, prediction flag information indicating whether to apply the prediction method is read (S33). Here, the prediction flag information according to the present invention can be divided into three pieces of information on motion prediction and two pieces of information on texture prediction. Information about motion prediction will be described in detail with reference to FIGS. 5 and 6, and information about texture prediction will be described in detail with reference to FIGS. 8 and 9.

마지막으로, 독출된 매크로블록 타입과 예측 플래그 정보에 따라 현재 매크로블록을 디코딩한다(S35). 여기서, 본 발명에 의한 비디오 신호 디코딩 방법은 독출된 매크로블록 타입이 시점 내 예측 매크로블록인지 또는 시점 간 예측 매크로블록인지에 따라 현재 매크로블록의 시간 방향 또는 시점 방향으로 이웃하는 픽쳐의 매크로블록 정보를 이용하여 현재 매크로블록을 디코딩한다. 여기서, 이웃하는 픽쳐의 매크로블록 정보에는 모션(motion) 정보와 텍스쳐(texture) 정보로 나눌 수 있으며, 이에 대해서는 이하에서 상세히 설명하기로 한다. 또한, 독출된 예측 플래그 정보에 따라, 시간 방향 또는 시점 방향으로 이웃하는 픽쳐의 매크로블록은 예측 방식이 포워드(forward) 예측 방식인 경우에는 시간 방향 또는 시점 방향으로 전(forward)에 있는 픽쳐의 매크로블록이며, 예측 방식이 백워드(backward) 예측 방식인 경우에는 시간 방향 또는 시점 방향으로 후(backward)에 있는 픽쳐의 매크로블록이 된다. Finally, the current macroblock is decoded according to the read macroblock type and the prediction flag information (S35). In the video signal decoding method according to the present invention, macroblock information of a picture neighboring in a time direction or a view direction of a current macroblock is determined according to whether the read macroblock type is an intra-view prediction macroblock or an inter-view prediction macroblock. To decode the current macroblock. Here, the macroblock information of the neighboring picture may be divided into motion information and texture information, which will be described in detail below. Further, according to the read prediction flag information, macroblocks of pictures neighboring in the time direction or the view direction are macros of pictures forward in the time direction or the view direction when the prediction method is the forward prediction method. If the prediction method is a backward prediction method, the block is a macroblock of a picture backward in the time direction or the view direction.

도 4 내지 도 9는 도 3(a) 및 도 3(b)의 비디오 신호 디코딩 방법의 일 실시예를 나타내는 도면이다.4 to 9 are diagrams illustrating an embodiment of a video signal decoding method of FIGS. 3A and 3B.

도 4(a), 5(a), 6(a), 7(a), 8(a), 9(a)는 본 발명에 의한 비디오 신호 디코딩 방법 중 이웃하는 픽쳐의 매크로블록이 현재 매크로블록과 대응되는 위치의 매크로블록인 경우를 나타낸다. 또한, 현재 매크로블록의 좌표는 (x,y)이며 대응하는 위치의 매크로블록의 좌표는 (x+h,y+v)로 가정한다. 여기서, 현재 매크로블록과 대응하는 위치의 매크로블록(MB_a, MB_b, MB_c, MB_d)은 현재 매크로블록의 모션 벡터(motion vector)(mv_l0, mv_l1) 또는 디스패러티 벡터(disparity vector)(dis_l0, dis_l1)를 이용하여 찾을 수 있다.4 (a), 5 (a), 6 (a), 7 (a), 8 (a), and 9 (a), the macroblocks of neighboring pictures in the video signal decoding method according to the present invention are selected from the current macroblocks. This is the case of a macroblock of a position corresponding to. In addition, it is assumed that the coordinate of the current macroblock is (x, y) and the coordinate of the macroblock at the corresponding position is (x + h, y + v). Here, the macroblocks MB_a, MB_b, MB_c, and MB_d at positions corresponding to the current macroblocks may be motion vectors (mv_l0, mv_l1) or disparity vectors (dis_l0, dis_l1) of the current macroblocks. Can be found using

또한, 도 4(b), 5(b), 6(b), 7(b), 8(b), 9(b)는 본 발명에 의한 비디오 신호 디코딩 방법 중 이웃하는 픽쳐의 매크로블록이 현재 매크로블록과 같은 위치의 매크로블록인 경우를 나타낸다. 4 (b), 5 (b), 6 (b), 7 (b), 8 (b) and 9 (b) show that macroblocks of neighboring pictures among video signal decoding methods according to the present invention are presently present. The case of the macroblock at the same position as the macroblock is shown.

도 4는 도 3(a)의 비디오 신호 디코딩 방법에 대해 상세히 설명을 하기 위한 도면으로서, 도 3(a)에서의 예측 방식 정보 중 모션 예측(motion prediction)에 관한 것이다.FIG. 4 is a diagram for describing the video signal decoding method of FIG. 3 (a) in detail and relates to motion prediction among prediction scheme information in FIG. 3 (a).

먼저, 예측 방식 정보 중에서 모션 스킵 모드에 대해 살펴보기로 한다. 본 발명에서 모션 스킵 모드란 이웃하는 픽쳐에 있는 매크로블록의 모션 또는 디스패러티 벡터와 레퍼런스 인덱스를 현재 매크로블록의 모션 또는 디스패러티 벡터와 레퍼런스 인덱스로하여 현재 매크로블록을 디코딩하는 것을 말한다. 이를 위해, 본 발명에서는 'motion_skip_mode'라는 신택스(syntax)를 새로 정의한다.First, the motion skip mode among the prediction method information will be described. In the present invention, the motion skip mode refers to decoding the current macroblock by using the motion or disparity vector and the reference index of the macroblock in the neighboring picture as the motion or disparity vector and the reference index of the current macroblock. To this end, the present invention newly defines a syntax called 'motion_skip_mode'.

예를 들어, 'motion_skip_mode'의 값이 '0'인 경우에는 현재 매크로블록의 매크로블록 타입을 사용하지 않는다. 즉, 본 발명에 의한 모션 스킵 모드를 사용하지 않는 것이다. 다시 말해, 일반적인 비디오 코딩 방법에 의해 디코딩을 하는 것이다. 'motion_skip_mode'의 값이 '1'인 경우에는 포워드 예측(forward prediction)을 의미하며, 현재 매크로블록이 속해 있는 픽쳐의 시간 방향 또는 시점 방향으로 전(forward)에 있는 픽쳐의 매크로블록(MB_a, MB_c)의 모션 또는 디스패러티 벡터와 레퍼런스 인덱스를 현재 매크로블록의 모션 정보로 사용한다. 'motion_skip_mode'의 값이 '2'인 경우에는 백워드 예측(backward prediction)을 의미하며, 현재 매크로블록이 속해 있는 픽쳐의 시간 방향 또는 시점 방향으로 후(backward)에 있는 픽쳐의 매크로블록(MB_b, MB_d)의 모션 또는 디스패러티 벡터와 레퍼런스 인덱스를 현재 매크로블록의 모션 정보로 사용한다.For example, when the value of 'motion_skip_mode' is '0', the macroblock type of the current macroblock is not used. That is, the motion skip mode according to the present invention is not used. In other words, decoding is performed by a general video coding method. When the value of 'motion_skip_mode' is '1', it means forward prediction, and the macroblocks MB_a and MB_c of the picture forward in the time direction or the view direction of the picture to which the current macroblock belongs. Motion or disparity vector and reference index are used as the motion information of the current macroblock. When the value of 'motion_skip_mode' is '2', it means backward prediction, and the macroblock (MB_b) of a picture that is backward in the time direction or the view direction of the picture to which the current macroblock belongs The motion or disparity vector of MB_d) and the reference index are used as motion information of the current macroblock.

이에 대해 도 4(a),(b)를 참고하여 설명하면, 먼저 현재 매크로블록의 매크 로블록 타입이 시점 내 예측 매크로블록이며, 'motion_skip_mode'의 값이 '1'인 경우라고 가정하자. This will be described with reference to FIGS. 4 (a) and 4 (b). First, it is assumed that the macroblock type of the current macroblock is an intra prediction macroblock, and the value of 'motion_skip_mode' is '1'.

따라서, 매크로블록 타입에 의해 이웃하는 픽쳐의 매크로블록은 시점 방향으로 이웃하는 픽쳐의 매크로블록(MB_a, MB_b)이 되며, 'motion_skip_mode'의 값에 의해 시점 방향으로 전에 있는 픽쳐의 매크로블록(MB_a)의 모션 벡터와 레퍼런스 인덱스를 현재 매크로블록의 모션 벡터와 레퍼런스 인덱스로 사용한다.Accordingly, the macroblocks of neighboring pictures become macroblocks MB_a and MB_b of neighboring pictures in the view direction by the macroblock type, and the macroblocks of the pictures previously in the view direction by the value of 'motion_skip_mode'. The motion vector and the reference index of are used as the motion vector and the reference index of the current macroblock.

다시 말해, 도 4(a)에서는 'mv_l0(x,y) = mv_a_l0(x+h,y+v)' 및 'mv_l1(x,y) = mv_a_l1(x+h,y+v)' 가 되며, MB_a의 레퍼런스 인덱스는 현재 매크로블록(current MB)의 레퍼런스 인덱스가 된다. 도 4(b)에서는 'mv_t_0 = mv_ta_0' 및 'mv_t_1 = mv_ta_1'가 되며, MB_a의 레퍼런스 인덱스는 현재 매크로블록의 레퍼런스 인덱스가 된다.In other words, in Fig. 4 (a), 'mv_l0 (x, y) = mv_a_l0 (x + h, y + v)' and 'mv_l1 (x, y) = mv_a_l1 (x + h, y + v)' The reference index of MB_a becomes the reference index of the current macroblock. In FIG. 4 (b), 'mv_t_0 = mv_ta_0' and 'mv_t_1 = mv_ta_1', and the reference index of MB_a becomes the reference index of the current macroblock.

다음으로, 모션 리파인먼트 모드에 대해 살펴보기로 한다. 본 발명에서 모션 리파인먼트 모드란 이웃하는 픽쳐에 있는 매크로블록의 모션 또는 디스패러티 벡터와 현재 매크로블록의 1/4화소 리파인먼트(quarter-sample refinements)의 합을 현재 매크로블록의 모션 또는 디스패러티 벡터로 하며, 이웃하는 픽쳐에 있는 매크로블록의 레퍼런스 인덱스를 현재 매크로블록의 레퍼런스 인덱스로하여 현재 매크로블록을 디코딩하는 것을 말한다. 즉, 현재 매크로블록을 위한 모션 또는 디스패러티 벡터의 프리딕터(predictor)로서 이웃하는 픽쳐의 모션 또는 디스패러티 벡터를 사용하는 것이다. 이를 위해, 본 발명에서는 'mv_refinement_mode'라는 신택스(syntax)를 새로 정의한다.Next, the motion refinement mode will be described. In the present invention, the motion refinement mode refers to the sum of the motion or disparity vector of a macroblock in a neighboring picture and the quarter-sample refinements of the current macroblock. In this case, the current macroblock is decoded using the reference index of the macroblock in the neighboring picture as the reference index of the current macroblock. That is, to use the motion or disparity vector of the neighboring picture as a predictor of the motion or disparity vector for the current macroblock. To this end, in the present invention, a syntax 'mv_refinement_mode' is newly defined.

예를 들어, 'mv_refinement_mode'의 값이 '0'인 경우에는 현재 매크로블록의 매크로블록 타입을 사용하지 않는다. 즉, 본 발명에 의한 모션 리파인먼트 모드를 사용하지 않는 것이다. 'mv_refinement_mode'의 값이 '1'인 경우에는 포워드 예측(forward prediction)을 의미하며, 현재 매크로블록이 속해 있는 픽쳐의 시간 방향 또는 시점 방향으로 전(forward)에 있는 픽쳐의 매크로블록(MB_a, MB_c)의 모션 또는 디스패러티 벡터와 현재 매크로블록의 1/4화소 리파인펀트(quarter-sample refinements)의 합을 현재 매크로블록의 모션 또는 디스패러티 벡터로 사용한다. 여기서, 본 발명에서는 현재 매크로블록의 1/4화소 리파인먼트(quarter-sample refinements)를 위해 'mvd_refinement_l0' 와 'mvd_refinement_l1'라는 신택스를 새로 정의한다. 레퍼런스 인덱스에 관한 것은 모션 스킵 모드와 동일하다. 'motion_skip_mode'의 값이 '2'인 경우에는 백워드 예측(backward prediction)을 의미하며, 현재 매크로블록이 속해 있는 픽쳐의 시간 방향 또는 시점 방향으로 후(backward)에 있는 픽쳐의 매크로블록(MB_b, MB_d)의 모션 또는 디스패러티 벡터와 현재 매크로블록(MB_a, MB_c)의 모션 또는 디스패러티 벡터와 현재 매크로블록의 1/4화소 리파인펀트(quarter-sample refinements)의 합을 현재 매크로블록의 모션 또는 디스패러티 벡터로 사용한다. 레퍼런스 인덱스에 관한 것은 모션 스킵 모드와 동일하다.For example, when the value of 'mv_refinement_mode' is '0', the macroblock type of the current macroblock is not used. In other words, the motion refinement mode according to the present invention is not used. When the value of 'mv_refinement_mode' is '1', it means forward prediction, and the macroblocks MB_a and MB_c of the picture forward in the time direction or the view direction of the picture to which the current macroblock belongs. The sum of the motion or disparity vector of) and the quarter-sample refinements of the current macroblock is used as the motion or disparity vector of the current macroblock. Herein, the present invention newly defines syntaxes 'mvd_refinement_l0' and 'mvd_refinement_l1' for quarter-sample refinement of the current macroblock. The reference index is the same as the motion skip mode. When the value of 'motion_skip_mode' is '2', it means backward prediction, and the macroblock (MB_b) of a picture that is backward in the time direction or the view direction of the picture to which the current macroblock belongs The sum of the motion or disparity vector of MB_d, the motion or disparity vector of the current macroblocks MB_a, MB_c, and the quarter-sample refinements of the current macroblock, is added to the motion or disparity of the current macroblock. Used as a parity vector. The reference index is the same as the motion skip mode.

이에 대해 도 4(a),(b)를 참고하여 설명하면, 먼저 현재 매크로블록의 매크로블록 타입이 시점 내 예측 매크로블록이며, 'mv_refinement_mode'의 값이 '2'인 경우라고 가정하자.This will be described with reference to FIGS. 4A and 4B. First, it is assumed that a macroblock type of a current macroblock is a prediction macroblock in view, and a value of 'mv_refinement_mode' is '2'.

따라서, 매크로블록 타입에 의해 이웃하는 픽쳐의 매크로블록은 시점 방향으로 이웃하는 픽쳐의 매크로블록(MB_a, MB_b)이 되며, 'mv_refinement_mode'의 값에 의해 시점 방향으로 후에 있는 픽쳐의 매크로블록(MB_b)의 모션 벡터와 현재 매크로블록의 1/4화소 리파인먼트의 합을 현재 매크로블록의 모션 벡터로 사용한다. 레퍼런스 인덱스에 관한 것은 모션 스킵 모드와 동일하다.Accordingly, the macroblocks of neighboring pictures become macroblocks MB_a and MB_b of neighboring pictures in the view direction by the macroblock type, and the macroblocks of pictures later in the view direction by the value of 'mv_refinement_mode'. The sum of the motion vector of and the 1/4 pixel refinement of the current macroblock is used as the motion vector of the current macroblock. The reference index is the same as the motion skip mode.

다시 말해, 도 4(a)에서는 'mv_l0(x,y) = mv_b_l0(x+h,y+v) + mvd_refinement_l0(x,y)' 및 'mv_l1(x,y) = mv_b_l1(x+h,y+v) + mvd_refinement_l1(x,y)' 가 되며, MB_b의 레퍼런스 인덱스는 현재 매크로블록(current MB)의 레퍼런스 인덱스가 된다. 도 4(b)에서는 'mv_t_0 = mv_tb_0 + mvd_refinement_l0' 및 'mv_t_1 = mv_tb_1 + mvd_refinement_l1'가 되며, MB_b의 레퍼런스 인덱스는 현재 매크로블록의 레퍼런스 인덱스가 된다.In other words, in FIG. 4A, 'mv_l0 (x, y) = mv_b_l0 (x + h, y + v) + mvd_refinement_l0 (x, y)' and 'mv_l1 (x, y) = mv_b_l1 (x + h, y + v) + mvd_refinement_l1 (x, y) ', and the reference index of MB_b becomes the reference index of the current macroblock (current MB). In FIG. 4 (b), 'mv_t_0 = mv_tb_0 + mvd_refinement_l0' and 'mv_t_1 = mv_tb_1 + mvd_refinement_l1', and the reference index of MB_b becomes the reference index of the current macroblock.

마지막으로, 모션 벡터 프리딕터(Motion Vector Predictor; 이하 MVP라 함) 프리딕션 모드에 대해 살펴보기로 한다. 본 발명에서 MVP 프리딕션 모드란 이웃하는 픽쳐에 있는 매크로블록의 모션 또는 디스패러티 벡터와 현재 매크로블록의 모션 벡터 디퍼런스(motion vector difference)의 합을 현재 매크로블록의 모션 또는 디스패러티 벡터로 하며, 이웃하는 픽쳐에 있는 매크로블록의 레퍼런스 인덱스를 현재 매크로블록의 레퍼런스 인덱스로하여 현재 매크로블록을 디코딩하는 것을 말한다. 즉, 현재 매크로블록을 위한 모션 또는 디스패러티 벡터의 프리딕터(predictor)로서 이웃하는 픽쳐의 모션 또는 디스패러티 벡터를 사용하는 것이다. 이를 위해, 본 발명에서는 'mvp_prediction_model0' 및 'mvp_prediction_model1'을 새로 정의한다.Finally, the motion vector predictor (hereinafter, referred to as MVP) prediction mode will be described. In the present invention, MVP prediction mode is a sum of the motion or disparity vector of the macroblock in the neighboring picture and the motion vector difference of the current macroblock as the motion or disparity vector of the current macroblock. Decoding a current macroblock by using a reference index of a macroblock in a neighboring picture as a reference index of the current macroblock. That is, to use the motion or disparity vector of the neighboring picture as a predictor of the motion or disparity vector for the current macroblock. To this end, in the present invention, 'mvp_prediction_model0' and 'mvp_prediction_model1' are newly defined.

예를 들어, 'mvp_prediction_model0(l1)'의 값이 '0'인 경우에는 현재 매크로블록의 매크로블록 타입을 사용하지 않는다. 즉, 본 발명에 의한 MVP 프리딕션 모드를 사용하지 않는 것이다. 'mvp_prediction_model0(l1)'의 값이 '1'인 경우에는 포워드 예측(forward prediction)을 의미하며, 현재 매크로블록이 속해 있는 픽쳐의 시간 방향 또는 시점 방향으로 전(forward)에 있는 픽쳐의 매크로블록(MB_a, MB_c)의 모션 또는 디스패러티 벡터와 현재 매크로블록의 모션 벡터 디퍼런스의 합을 현재 매크로블록의 모션 또는 디스패러티 벡터로 사용한다. 여기서, 본 발명에서는 현재 매크로블록의 모션 벡터 디퍼런스에 대해서 H.264/AVC에서의 'mvd_l0' 및 'mvd_l1' 신택스를 이용한다. 레퍼런스 인덱스에 관한 것은 모션 스킵 모드와 동일하다. 'mvp_prediction_model0(l1)'의 값이 '2'인 경우에는 백워드 예측(backward prediction)을 의미하며, 현재 매크로블록이 속해 있는 픽쳐의 시간 방향 또는 시점 방향으로 후(backward)에 있는 픽쳐의 매크로블록(MB_b, MB_d)의 모션 또는 디스패러티 벡터와 현재 매크로블록(MB_a, MB_c)의 모션 또는 디스패러티 벡터와 현재 매크로블록의 모션 벡터 디퍼런스의 합을 현재 매크로블록의 모션 또는 디스패러티 벡터로 사용한다. 레퍼런스 인덱스에 관한 것은 모션 스킵 모드와 동일하다.For example, when the value of 'mvp_prediction_model0 (l1)' is '0', the macroblock type of the current macroblock is not used. That is, the MVP prediction mode according to the present invention is not used. When the value of 'mvp_prediction_model0 (l1)' is '1', it means forward prediction, and the macroblock of the picture that is forward in the time direction or the view direction of the picture to which the current macroblock belongs is The sum of the motion or disparity vector of MB_a, MB_c) and the motion vector difference of the current macroblock is used as the motion or disparity vector of the current macroblock. Here, in the present invention, 'mvd_l0' and 'mvd_l1' syntax in H.264 / AVC are used for the motion vector reference of the current macroblock. The reference index is the same as the motion skip mode. If the value of 'mvp_prediction_model0 (l1)' is '2', it means backward prediction, and the macroblock of the picture backward in the time direction or the view direction of the picture to which the current macroblock belongs. The sum of the motion or disparity vector of (MB_b, MB_d) and the motion or disparity vector of the current macroblock (MB_a, MB_c) and the motion vector difference of the current macroblock is used as the motion or disparity vector of the current macroblock. . The reference index is the same as the motion skip mode.

이에 대해 도 4(a),(b)를 참고하여 설명하면, 먼저 현재 매크로블록의 매크로블록 타입이 시점 간 예측 매크로블록이며, 'mvp_prediction_model0' 및 'mvp_prediction_model1'의 값이 '2'인 경우라고 가정하자.This will be described with reference to FIGS. 4 (a) and 4 (b). First, it is assumed that the macroblock type of the current macroblock is an inter-view prediction macroblock, and that the values of 'mvp_prediction_model0' and 'mvp_prediction_model1' are '2'. lets do it.

따라서, 매크로블록 타입에 의해 이웃하는 픽쳐의 매크로블록은 시간 방향으로 이웃하는 픽쳐의 매크로블록(MB_c, MB_d)이 되며, 'mvp_prediction_model0' 및 'mvp_prediction_model1'의 값에 의해 시간 방향으로 후에 있는 픽쳐의 매크로블록(MB_d)의 디스패러티 벡터와 현재 매크로블록의 모션 벡터 디퍼런스의 합을 현재 매크로블록의 디스패러티 벡터로 사용한다. 레퍼런스 인덱스에 관한 것은 모션 스킵 모드와 동일하다.Therefore, the macroblocks of neighboring pictures become macroblocks MB_c and MB_d of neighboring pictures in the time direction by the macroblock type, and the macros of pictures later in the time direction by the values of 'mvp_prediction_model0' and 'mvp_prediction_model1'. The sum of the disparity vector of the block MB_d and the motion vector difference of the current macroblock is used as the disparity vector of the current macroblock. The reference index is the same as the motion skip mode.

다시 말해, 도 4(a)에서는 'dis_l0(x,y) = dis_b_l0(x+h,y+v) + mvd_l0(x,y)' 및 'dis_l1(x,y) = dis_b_l1(x+h,y+v) + mvd_l1(x,y)' 가 되며, MB_d의 레퍼런스 인덱스는 현재 매크로블록(current MB)의 레퍼런스 인덱스가 된다. 도 4(b)에서는 'dis_v_0 = dis_vb_0 + mvd_l0' 및 'dis_v_1 = dis_vb_1 + mvd_l1'이 되며, MB_d의 레퍼런스 인덱스는 현재 매크로블록의 레퍼런스 인덱스가 된다In other words, in FIG. 4A, 'dis_l0 (x, y) = dis_b_l0 (x + h, y + v) + mvd_l0 (x, y)' and 'dis_l1 (x, y) = dis_b_l1 (x + h, y + v) + mvd_l1 (x, y) ', and the reference index of MB_d becomes the reference index of the current macroblock (current MB). In FIG. 4 (b), 'dis_v_0 = dis_vb_0 + mvd_l0' and 'dis_v_1 = dis_vb_1 + mvd_l1', and the reference index of MB_d becomes the reference index of the current macroblock.

도 5 및 도 6은 도 3(b)의 비디오 신호 디코딩 방법에 대해 상세히 설명을 하기 위한 도면으로서, 도 3(b)에서의 예측 플래그 정보 중 모션 예측(motion prediction)에 관한 것이다. 도 5는 예측 방식이 포워드(forward) 예측 방식인 경우를 나타내며, 도 6은 예측 방식이 백워드(backward) 예측 방식인 경우를 나타낸다.5 and 6 are diagrams for describing the video signal decoding method of FIG. 3 (b) in detail and relate to motion prediction of the prediction flag information in FIG. 3 (b). 5 illustrates a case where the prediction method is a forward prediction method, and FIG. 6 illustrates a case where the prediction method is a backward prediction method.

먼저, 예측 플래그 정보 중에서 모션 스킵 플래그에 대해 살펴보기로 한다. 본 발명에서 모션 스킵 플래그란 위에서 설명한 모션 스킵 모드와 비슷하나, 포워드 예측 방식만이 사용되는 경우에는 시간 방향 또는 시점 방향으로 전에 있는 픽쳐의 매크로블록의 모션 정보를 이용하며, 백워드 예측 방식만이 사용되는 경우에 는 시간 방향 또는 시점 방향으로 후에 있는 픽쳐의 매크로블록의 모션 정보를 이용하여 현재 매크로블록을 디코딩하는 것을 말한다. 이를 위해, 본 발명에서는 'motion_skip_flag'라는 신택스를 새로 정의한다.First, the motion skip flag among the prediction flag information will be described. In the present invention, the motion skip flag is similar to the motion skip mode described above, but when only the forward prediction method is used, the motion skip flag uses the motion information of the macroblock of the picture in the time direction or the view direction, and only the backward prediction method is used. When used, it refers to decoding the current macroblock using motion information of a macroblock of a picture later in a time direction or a view direction. To this end, in the present invention, a syntax 'motion_skip_flag' is newly defined.

예를 들어, 'motion_skip_flag'의 값이 '0'인 경우에는 현재 매크로블록의 매크로블록 타입을 사용하지 않는다. 즉, 본 발명에 의한 모션 스킵 플래그를 사용하지 않는 것이다. 본 발명에서 포워드 예측 방식만이 사용되는 경우에 'motion_ skip_flag'의 값이 '1'인 것은 포워드 예측(forward prediction)을 의미하며, 현재 매크로블록이 속해 있는 픽쳐의 시간 방향 또는 시점 방향으로 전(forward)에 있는 픽쳐의 매크로블록(MB_a, MB_c)의 모션 또는 디스패러티 벡터와 레퍼런스 인덱스를 현재 매크로블록의 모션 정보로 사용한다. 본 발명에서 백워드 예측 방식만이 사용되는 경우에 'motion_skip_flag'의 값이 '1'인 것은 백워드 예측(backward prediction)을 의미하며, 현재 매크로블록이 속해 있는 픽쳐의 시간 방향 또는 시점 방향으로 후(backward)에 있는 픽쳐의 매크로블록(MB_b, MB_d)의 모션 또는 디스패러티 벡터와 레퍼런스 인덱스를 현재 매크로블록의 모션 정보로 사용한다.For example, when the value of 'motion_skip_flag' is '0', the macroblock type of the current macroblock is not used. That is, the motion skip flag according to the present invention is not used. In the present invention, when only the forward prediction method is used, the value of 'motion_ skip_flag' is '1' means forward prediction, and the forward motion is forwarded in the time direction or the view direction of the picture to which the current macroblock belongs. The motion or disparity vector of the macroblocks MB_a and MB_c of the picture in the forward) and the reference index are used as motion information of the current macroblock. In the present invention, when only the backward prediction method is used, the value of 'motion_skip_flag' is '1', which means backward prediction, and is backward in the time direction or view direction of the picture to which the current macroblock belongs. The motion or disparity vector of the macroblocks MB_b and MB_d of the picture in the backward direction and the reference index are used as motion information of the current macroblock.

이에 대해 도 5(a),(b)를 참고하여 설명하면, 먼저 현재 매크로블록의 매크로블록 타입이 시점 내 예측 매크로블록이며, 'motion_skip_flag'의 값이 '1'인 경우라고 가정하자.This will be described with reference to FIGS. 5 (a) and 5 (b). First, it is assumed that the macroblock type of the current macroblock is a prediction macroblock in view, and the value of 'motion_skip_flag' is '1'.

따라서, 매크로블록 타입에 의해 이웃하는 픽쳐의 매크로블록은 시점 방향으로 이웃하는 픽쳐의 매크로블록(MB_a, MB_b)이 되며, 'motion_skip_flag'의 값에 의해 시점 방향으로 전에 있는 픽쳐의 매크로블록(MB_a)의 모션 벡터와 레퍼런스 인덱스를 현재 매크로블록의 모션 벡터와 레퍼런스 인덱스로 사용한다.Accordingly, the macroblocks of neighboring pictures become macroblocks MB_a and MB_b of neighboring pictures in the view direction by the macroblock type, and the macroblocks of the pictures previously in the view direction by the value of 'motion_skip_flag'. The motion vector and the reference index of are used as the motion vector and the reference index of the current macroblock.

다시 말해, 도 5(a)에서는 'mv_l0(x,y) = mv_a_l0(x+h,y+v)' 및 'mv_l1(x,y) = mv_a_l1(x+h,y+v)' 가 되며, MB_a의 레퍼런스 인덱스는 현재 매크로블록(current MB)의 레퍼런스 인덱스가 된다. 도 5(b)에서는 'mv_t_0 = mv_ta_0' 및 'mv_t_1 = mv_ta_1'가 되며, MB_a의 레퍼런스 인덱스는 현재 매크로블록의 레퍼런스 인덱스가 된다.In other words, in FIG. 5 (a), 'mv_l0 (x, y) = mv_a_l0 (x + h, y + v)' and 'mv_l1 (x, y) = mv_a_l1 (x + h, y + v)' The reference index of MB_a becomes the reference index of the current macroblock. In FIG. 5 (b), 'mv_t_0 = mv_ta_0' and 'mv_t_1 = mv_ta_1', and the reference index of MB_a becomes the reference index of the current macroblock.

또한, 도 6(a),(b)를 참고하여 설명하면, 먼저 현재 매크로블록의 매크로블록 타입이 시점 간 예측 매크로블록이며, 'motion_skip_flag'의 값이 '1'인 경우라고 가정하자.6 (a) and 6 (b), it is assumed that a macroblock type of a current macroblock is an inter-view prediction macroblock, and a value of 'motion_skip_flag' is '1'.

따라서, 매크로블록 타입에 의해 이웃하는 픽쳐의 매크로블록은 시간 방향으로 이웃하는 픽쳐의 매크로블록(MB_c, MB_d)이 되며, 'motion_skip_flag'의 값에 의해 시간 방향으로 후에 있는 픽쳐의 매크로블록(MB_d)의 모션 벡터와 레퍼런스 인덱스를 현재 매크로블록의 모션 벡터와 레퍼런스 인덱스로 사용한다.Therefore, the macroblocks of neighboring pictures become macroblocks MB_c and MB_d of neighboring pictures in the time direction by the macroblock type, and the macroblocks of the pictures later in the time direction by the value of 'motion_skip_flag'. The motion vector and the reference index of are used as the motion vector and the reference index of the current macroblock.

다시 말해, 도 6(a)에서는 'dis_l0(x,y) = dis_b_l0(x+h,y+v)' 및 'dis_l1(x,y) = dis_b_l1(x+h,y+v)' 가 되며, MB_d의 레퍼런스 인덱스는 현재 매크로블록(current MB)의 레퍼런스 인덱스가 된다. 도 6(b)에서는 'dis_v_0 = dis_vb_0' 및 'dis_v_1 = dis_vb_1'가 되며, MB_d의 레퍼런스 인덱스는 현재 매크로블록의 레퍼런스 인덱스가 된다.In other words, in FIG. 6 (a), 'dis_l0 (x, y) = dis_b_l0 (x + h, y + v)' and 'dis_l1 (x, y) = dis_b_l1 (x + h, y + v)' The reference index of MB_d becomes the reference index of the current macroblock (current MB). In FIG. 6 (b), 'dis_v_0 = dis_vb_0' and 'dis_v_1 = dis_vb_1', and the reference index of MB_d becomes the reference index of the current macroblock.

다음으로, 모션 리파인먼트 플래그는 모션 리파인먼트 모드에 대응되며 위에서 설명한 모션 스킵 플래그와 같이 본 발명에서 포워드 예측 방식만이 사용되는 경우와 백워드 예측 방식만이 사용되는 경우로 분류되어 사용될 수 있다.Next, the motion refinement flag corresponds to the motion refinement mode and may be classified and used as the case where only the forward prediction method and the backward prediction method are used in the present invention, as described above.

마지막으로, MVP 프리딕션 플래그는 모션 리파인먼트 플래그와 마찬가지로 MVP 프리딕션 모드에 대응되며 위에서 설명한 모션 스킵 플래그와 같이 본 발명에서 포워드 예측 방식만이 사용되는 경우와 백워드 예측 방식만이 사용되는 경우로 분류되어 사용될 수 있다.Lastly, like the motion refinement flag, the MVP predicate flag corresponds to the MVP prediction mode, and only the forward prediction method and the backward prediction method are used in the present invention as the motion skip flag described above. Can be classified and used.

도 7은 도 3(a)의 비디오 신호 디코딩 방법에 대해 상세히 설명을 하기 위한 도면으로서, 도 3(a)에서의 예측 방식 정보 중 텍스쳐 예측(texture prediction)에 관한 것이다. FIG. 7 is a diagram for describing the video signal decoding method of FIG. 3 (a) in detail and relates to texture prediction among prediction method information in FIG. 3 (a).

먼저, 예측 방식 정보 중에서 레지듀얼 프리딕션 모드에 대해 살펴보기로 한다. 본 발명에서 레지듀얼 프리딕션 모드란 이웃하는 픽쳐에 있는 매크로블록의 레지듀얼 신호를 현재 매크로블록의 레지듀얼 예측 신호로하여 현재 매크로블록을 디코딩하는 것을 말한다. 이를 위해, 본 발명에서는 'res_pred_mode'라는 신택스를 새로 정의한다.First, the residual prediction mode among the prediction method information will be described. In the present invention, the residual prediction mode refers to decoding a current macroblock by using a residual signal of a macroblock in a neighboring picture as a residual prediction signal of the current macroblock. To this end, the present invention newly defines a syntax called 'res_pred_mode'.

예를 들어, 'res_pred_mode'의 값이 '0'인 경우에는 레지듀얼 신호를 이용하여 현재 매크로블록을 디코딩하지 않는다. 즉, 본 발명에 의한 레지듀얼 프리딕션 모드를 사용하지 않는 것이다. 'res_pred_mode'의 값이 '1'인 경우에는 포워드 예측(forward prediction)을 의미하며, 현재 매크로블록이 속해 있는 픽쳐의 시간 방향 또는 시점 방향으로 전(forward)에 있는 픽쳐의 매크로블록(MB_a, MB_c)의 레지듀얼 신호를 현재 매크로블록의 레지듀얼 예측 신호로 사용한다. 'res_pred_mode'의 값이 '2'인 경우에는 백워드 예측(backward prediction)을 의미하며, 현재 매크 로블록이 속해 있는 픽쳐의 시간 방향 또는 시점 방향으로 후(backward)에 있는 픽쳐의 매크로블록(MB_b, MB_d)의 레지듀얼 신호를 현재 매크로블록의 레지듀얼 예측 신호로 사용한다.For example, when the value of 'res_pred_mode' is '0', the current macroblock is not decoded using the residual signal. That is, the residual prediction mode according to the present invention is not used. When the value of 'res_pred_mode' is '1', it means forward prediction, and the macroblocks MB_a and MB_c of the picture forward in the time direction or the view direction of the picture to which the current macroblock belongs. ) Is used as the residual prediction signal of the current macroblock. When the value of 'res_pred_mode' is '2', it means backward prediction, and the macroblock MB_b of the picture backward in the time direction or the view direction of the picture to which the current macroblock belongs , And the residual signal of MB_d) is used as the residual prediction signal of the current macroblock.

이에 대해 도 7(a),(b)를 참고하여 설명하면, 먼저 현재 매크로블록의 매크로블록 타입이 시점 내 예측 매크로블록이며, 'res_pred_mode'의 값이 '1'인 경우라고 가정하자.This will be described with reference to FIGS. 7A and 7B. First, suppose that the macroblock type of the current macroblock is an intra prediction macroblock, and the value of 'res_pred_mode' is '1'.

따라서, 매크로블록 타입에 의해 이웃하는 픽쳐의 매크로블록은 시간 방향으로 이웃하는 픽쳐의 매크로블록(MB_c, MB_d)이 되며, 'res_pred_mode'의 값에 의해 시간 방향으로 전에 있는 픽쳐의 매크로블록(MB_c)의 레지듀얼 신호를 현재 매크로블록의 레지듀얼 예측 신호로 사용한다.Accordingly, the macroblocks of neighboring pictures become macroblocks MB_c and MB_d of neighboring pictures in the temporal direction by the macroblock type, and the macroblocks of the pictures previously in the temporal direction by the value of 'res_pred_mode'. The residual signal of is used as the residual prediction signal of the current macroblock.

다시 말해, 도 7(a)에서는 'res(x,y) = res′(x,y) + res_pred(x,y) = res′(x,y) + res(x+h,y+v)' 가 된다. 여기서, res(x,y) 는 현재 매크로블록의 레지듀얼 신호를 의미하며, res_pred(x,y)는 현재 매크로블록의 레지듀얼 예측 신호를 의미한다. 따라서, 현재 매크로블록의 레지듀얼 예측 신호(res_pred(x,y))는 시간 방향으로 전에 있는 픽쳐의 매크로블록(MB_c)의 레지듀얼 신호인 'res(x+h,y+v)'가 된다. 또한, res′(x,y)는 현재 매크로블록의 레지듀얼 신호와 현재 매크로블록의 레지듀얼 예측 신호와의 차이로서 인코더로부터 얻어진다.In other words, in FIG. 7 (a), 'res (x, y) = res' (x, y) + res_pred (x, y) = res' (x, y) + res (x + h, y + v) Becomes. Here, res (x, y) means the residual signal of the current macroblock, and res_pred (x, y) means the residual prediction signal of the current macroblock. Therefore, the residual prediction signal res_pred (x, y) of the current macroblock becomes 'res (x + h, y + v)', which is the residual signal of the macroblock MB_c of the picture preceding in the time direction. . Also, res' (x, y) is obtained from the encoder as the difference between the residual signal of the current macroblock and the residual prediction signal of the current macroblock.

도 7(b)에서는 'res = res_pred = res_MB_c' 가 된다. 여기서, res는 현재 매크로블록의 레지듀얼 신호를 의미하며, res_pred는 현재 매크로블록의 레지듀얼 예측 신호를 의미한다. 또한, res_MB_c는 MB_c의 레지듀얼 신호를 의미한다. 즉, 도 7(b)에서는 현재 매크로블록의 레지듀얼 신호는 이웃하는 매크로블록의 레지듀얼 신호로부터 얻어진다.In FIG. 7B, 'res = res_pred = res_MB_c'. Here, res means a residual signal of the current macroblock, and res_pred means a residual prediction signal of the current macroblock. In addition, res_MB_c means a residual signal of MB_c. That is, in FIG. 7B, the residual signal of the current macroblock is obtained from the residual signal of the neighboring macroblock.

다음으로, 인트라 프리딕션 모드에 대해 살펴보기로 한다. 본 발명에서 인트라 프리딕션 모드란 이웃하는 픽쳐에 있는 매크로블록의 인트라 신호를 현재 매크로블록의 인트라 신호로하여 현재 매크로블록을 디코딩하는 것을 말한다. 이를 위해, 본 발명에서는 'intra_pred_mode'라는 신택스를 새로 정의한다.Next, the intra prediction mode will be described. In the present invention, the intra prediction mode refers to decoding a current macroblock by using an intra signal of a macroblock in a neighboring picture as an intra signal of a current macroblock. To this end, the present invention newly defines a syntax of 'intra_pred_mode'.

예를 들어, 'intra_pred_mode'의 값이 '0'인 경우에는 인트라 신호를 이용하여 현재 매크로블록을 디코딩하지 않는다. 즉, 본 발명에 의한 인트라 프리딕션 모드를 사용하지 않는 것이다. 'intra_pred_mode'의 값이 '1'인 경우에는 포워드 예측(forward prediction)을 의미하며, 현재 매크로블록이 속해 있는 픽쳐의 시간 방향 또는 시점 방향으로 전(forward)에 있는 픽쳐의 매크로블록(MB_a, MB_c)의 인트라 신호를 현재 매크로블록의 인트라 신호로 사용한다. 'intra_pred_mode'의 값이 '2'인 경우에는 백워드 예측(backward prediction)을 의미하며, 현재 매크로블록이 속해 있는 픽쳐의 시간 방향 또는 시점 방향으로 후(backward)에 있는 픽쳐의 매크로블록(MB_b, MB_d)의 인트라 신호를 현재 매크로블록의 인트라 신호로 사용한다.For example, when the value of 'intra_pred_mode' is '0', the current macroblock is not decoded using the intra signal. That is, the intra prediction mode according to the present invention is not used. When the value of 'intra_pred_mode' is '1', it means forward prediction, and the macroblocks MB_a and MB_c of the picture forward in the time direction or the view direction of the picture to which the current macroblock belongs. ) Is used as the intra signal of the current macroblock. When the value of 'intra_pred_mode' is '2', it means backward prediction, and the macroblock of the picture that is backward in the time direction or the view direction of the picture to which the current macroblock belongs is MB_b, The intra signal of MB_d) is used as the intra signal of the current macroblock.

이에 대해 도 7(a),(b)를 참고하여 설명하면, 먼저 현재 매크로블록의 매크로블록 타입이 시점 내 예측 매크로블록이며, 'intra_pred_mode'의 값이 '1'인 경우라고 가정하자.This will be described with reference to FIGS. 7A and 7B. First, it is assumed that a macroblock type of a current macroblock is an intra prediction macroblock and a value of 'intra_pred_mode' is '1'.

이 경우, 매크로블록 타입에 의해 이웃하는 픽쳐의 매크로블록은 시간 방향으로 이웃하는 픽쳐의 매크로블록(MB_c, MB_d)이 되며, 'intra_pred_mode'의 값에 의해 시간 방향으로 전에 있는 픽쳐의 매크로블록(MB_c)의 인트라 신호를 현재 매크로블록의 인트라 신호로 사용한다.In this case, the macroblocks of neighboring pictures become macroblocks MB_c and MB_d of neighboring pictures in the time direction by the macroblock type, and the macroblocks (MB_c) of pictures that exist before in the time direction by the value of 'intra_pred_mode'. ) Is used as the intra signal of the current macroblock.

또한, 현재 매크로블록의 매크로브록 타입이 시점 간 예측 매크로블록이며, 'intra_pred_mode'의 값이 '2'인 경우라고 가정하자.Also, assume that the macroblock type of the current macroblock is an inter-view prediction macroblock, and the value of 'intra_pred_mode' is '2'.

이 경우, 매크로블록 타입에 의해 이웃하는 픽쳐의 매크로블록은 시점 방향으로 이웃하는 픽쳐의 매크로블록(MB_a, MB_b)이 되며, 'intra_pred_mode'의 값에 의해 시점 방향으로 후에 있는 픽쳐의 매크로블록(MB_b)의 인트라 신호를 현재 매크로블록의 인트라 신호로 사용한다.In this case, the macroblocks of neighboring pictures by the macroblock type become the macroblocks MB_a and MB_b of neighboring pictures in the view direction, and the macroblocks of the pictures later in the view direction by the value of 'intra_pred_mode'. ) Is used as the intra signal of the current macroblock.

도 8 및 도 9는 도 3(b)의 비디오 신호 디코딩 방법에 대해 상세히 설명을 하기 위한 도면으로서, 도 3(b)에서의 예측 플래그 정보 중 텍스쳐 예측(motion prediction)에 관한 것이다. 도 8은 예측 방식이 포워드(forward) 예측 방식인 경우를 나타내며, 도 9는 예측 방식이 백워드(backward) 예측 방식인 경우를 나타낸다.8 and 9 are diagrams for describing the video signal decoding method of FIG. 3B in detail, and refer to texture prediction of the prediction flag information in FIG. 3B. 8 illustrates a case where the prediction method is a forward prediction method, and FIG. 9 illustrates a case where the prediction method is a backward prediction method.

먼저, 예측 플래그 정보 중에서 레지듀얼 프리딕션 플래그에 대해 살펴보기로 한다. 본 발명에서 레지듀얼 프리딕션 플래그란 위에서 설명한 레지듀얼 프리딕션 모드와 비슷하나, 포워드 예측 방식만이 사용되는 경우에는 시간 방향 또는 시점 방향으로 전에 있는 픽쳐의 매크로블록의 레지듀얼 신호를 이용하며, 백워드 예측 방식만이 사용되는 경우에는 시간 방향 또는 시점 방향으로 후에 있는 픽쳐의 매크로블록의 레지듀얼 신호를 이용하여 현재 매크로블록을 디코딩하는 것을 말한다. 이를 위해, 본 발명에서는 'res_pred_flag'라는 신택스를 새로 정의한다.First, the residual prediction flag among the prediction flag information will be described. In the present invention, the residual prediction flag is similar to the residual prediction mode described above, but when only the forward prediction method is used, the residual signal of the macroblock of the picture in the time direction or the view direction is used. When only the word prediction method is used, it means decoding the current macroblock by using the residual signal of the macroblock of the picture later in the time direction or the view direction. To this end, the present invention newly defines a syntax called 'res_pred_flag'.

예를 들어, 'res_pred_flag'의 값이 '0'인 경우에는 레지듀얼 신호를 이용하여 현재 매크로블록을 디코딩하지 않는다. 즉, 본 발명에 의한 레지듀얼 프리딕션 플래그를 사용하지 않는 것이다. 본 발명에서 포워드 예측 방식만이 사용되는 경우에 'res_pred_flag'의 값이 '1'인 것은 포워드 예측(forward prediction)을 의미하며, 현재 매크로블록이 속해 있는 픽쳐의 시간 방향 또는 시점 방향으로 전(forward)에 있는 픽쳐의 매크로블록(MB_a, MB_c)의 레지듀얼 신호를 현재 매크로블록의 레지듀얼 예측 신호로 사용한다. 본 발명에서 백워드 예측 방식만이 사용되는 경우에 'res_pred_flag'의 값이 '1'인 것은 백워드 예측(backward prediction)을 의미하며, 현재 매크로블록이 속해 있는 픽쳐의 시간 방향 또는 시점 방향으로 후(backward)에 있는 픽쳐의 매크로블록(MB_b, MB_d)의 레지듀얼 신호를 현재 매크로블록의 레지듀얼 예측 신호로 사용한다.For example, when the value of 'res_pred_flag' is '0', the current macroblock is not decoded using the residual signal. That is, the residual prediction flag according to the present invention is not used. In the present invention, when only the forward prediction method is used, the value of 'res_pred_flag' means '1', which means forward prediction, and forward in the time direction or the view direction of the picture to which the current macroblock belongs. The residual signals of the macroblocks MB_a and MB_c of the picture in &quot;) are used as the residual prediction signals of the current macroblock. In the present invention, when only the backward prediction method is used, the value of 'res_pred_flag' means '1', which means backward prediction, and is later in the time direction or the view direction of the picture to which the current macroblock belongs. The residual signal of the macroblocks MB_b and MB_d of the picture in (backward) is used as the residual prediction signal of the current macroblock.

이에 대해 도 8(a),(b)를 참고하여 설명하면, 먼저 현재 매크로블록의 매크로블록 타입이 시점 내 예측 매크로블록이며, 'res_pred_flag'의 값이 '1'인 경우라고 가정하자.This will be described with reference to FIGS. 8 (a) and 8 (b). First, it is assumed that a macroblock type of a current macroblock is a prediction macroblock in view and a value of 'res_pred_flag' is '1'.

따라서, 매크로블록 타입에 의해 이웃하는 픽쳐의 매크로블록은 시간 방향으로 이웃하는 픽쳐의 매크로블록(MB_c, MB_d)이 되며, 'res_pred_flag'의 값에 의해 시간 방향으로 전에 있는 픽쳐의 매크로블록(MB_c)의 레지듀얼 신호를 현재 매크로블록의 레지듀얼 예측 신호로 사용한다.Therefore, the macroblocks of neighboring pictures become macroblocks MB_c and MB_d of neighboring pictures in the time direction according to the macroblock type, and the macroblocks of the pictures preceding in the time direction by the value of 'res_pred_flag'. The residual signal of is used as the residual prediction signal of the current macroblock.

다시 말해, 도 8(a)에서는 'res(x,y) = res′(x,y) + res_pred(x,y) = res′(x,y) + res(x+h,y+v)' 가 된다. 여기서, res(x,y) 는 현재 매크로블록의 레지듀 얼 신호를 의미하며, res_pred(x,y)는 현재 매크로블록의 레지듀얼 예측 신호를 의미한다. 따라서, 현재 매크로블록의 레지듀얼 예측 신호(res_pred(x,y))는 시간 방향으로 전에 있는 픽쳐의 매크로블록(MB_c)의 레지듀얼 신호인 'res(x+h,y+v)'가 된다. 또한, res′(x,y)는 현재 매크로블록의 레지듀얼 신호와 현재 매크로블록의 레지듀얼 예측 신호와의 차이로서 인코더로부터 얻어진다.In other words, in FIG. 8 (a), 'res (x, y) = res' (x, y) + res_pred (x, y) = res' (x, y) + res (x + h, y + v) Becomes. Here, res (x, y) means the residual signal of the current macroblock, and res_pred (x, y) means the residual prediction signal of the current macroblock. Therefore, the residual prediction signal res_pred (x, y) of the current macroblock becomes 'res (x + h, y + v)', which is the residual signal of the macroblock MB_c of the picture preceding in the time direction. . Also, res' (x, y) is obtained from the encoder as the difference between the residual signal of the current macroblock and the residual prediction signal of the current macroblock.

도 8(b)에서는 'res = res_pred = res_MB_c' 가 된다. 여기서, res는 현재 매크로블록의 레지듀얼 신호를 의미하며, res_pred는 현재 매크로블록의 레지듀얼 예측 신호를 의미한다. 또한, res_MB_c는 MB_c의 레지듀얼 신호를 의미한다. 즉, 도 8(b)에서는 현재 매크로블록의 레지듀얼 신호는 이웃하는 매크로블록의 레지듀얼 신호로부터 얻어진다.In FIG. 8 (b), 'res = res_pred = res_MB_c'. Here, res means a residual signal of the current macroblock, and res_pred means a residual prediction signal of the current macroblock. In addition, res_MB_c means a residual signal of MB_c. That is, in FIG. 8B, the residual signal of the current macroblock is obtained from the residual signal of the neighboring macroblock.

또한, 도 9(a),(b)를 참고하여 설명하면, 먼저 현재 매크로블록의 매크로블록 타입이 시점 간 예측 매크로블록이며, 'res_pred_flag'의 값이 '1'인 경우라고 가정하자.9 (a) and 9 (b), it is assumed that a macroblock type of a current macroblock is an inter-view prediction macroblock, and a value of 'res_pred_flag' is '1'.

따라서, 매크로블록 타입에 의해 이웃하는 픽쳐의 매크로블록은 시점 방향으로 이웃하는 픽쳐의 매크로블록(MB_a, MB_b)이 되며, 'res_pred_flag'의 값에 의해 시점 방향으로 후에 있는 픽쳐의 매크로블록(MB_b)의 레지듀얼 신호를 현재 매크로블록의 레지듀얼 예측 신호로 사용한다.Therefore, the macroblocks of neighboring pictures become macroblocks MB_a and MB_b of neighboring pictures in the view direction by the macroblock type, and the macroblocks of the pictures later in the view direction by the value of 'res_pred_flag'. The residual signal of is used as the residual prediction signal of the current macroblock.

다시 말해, 도 9(a)에서는 'res(x,y) = res′(x,y) + res_pred(x,y) = res′(x,y) + res(x+h,y+v)' 가 된다. 여기서, res(x,y) 는 현재 매크로블록의 레지듀얼 신호를 의미하며, res_pred(x,y)는 현재 매크로블록의 레지듀얼 예측 신호를 의 미한다. 따라서, 현재 매크로블록의 레지듀얼 예측 신호(res_pred(x,y))는 시점 방향으로 후에 있는 픽쳐의 매크로블록(MB_b)의 레지듀얼 신호인 'res(x+h,y+v)'가 된다. 또한, res′(x,y)는 현재 매크로블록의 레지듀얼 신호와 현재 매크로블록의 레지듀얼 예측 신호와의 차이로서 인코더로부터 얻어진다.In other words, in FIG. 9 (a), 'res (x, y) = res' (x, y) + res_pred (x, y) = res' (x, y) + res (x + h, y + v) Becomes. Here, res (x, y) means the residual signal of the current macroblock, and res_pred (x, y) means the residual prediction signal of the current macroblock. Therefore, the residual prediction signal res_pred (x, y) of the current macroblock becomes 'res (x + h, y + v)' which is the residual signal of the macroblock MB_b of the picture later in the view direction. . Also, res' (x, y) is obtained from the encoder as the difference between the residual signal of the current macroblock and the residual prediction signal of the current macroblock.

도 9(b)에서는 'res = res_pred = res_MB_d' 가 된다. 여기서, res는 현재 매크로블록의 레지듀얼 신호를 의미하며, res_pred는 현재 매크로블록의 레지듀얼 예측 신호를 의미한다. 또한, res_MB_d는 MB_d의 레지듀얼 신호를 의미한다. 즉, 도 8(b)에서는 현재 매크로블록의 레지듀얼 신호는 이웃하는 매크로블록(MB_d)의 레지듀얼 신호로부터 얻어진다.In FIG. 9 (b), 'res = res_pred = res_MB_d'. Here, res means a residual signal of the current macroblock, and res_pred means a residual prediction signal of the current macroblock. In addition, res_MB_d means a residual signal of MB_d. That is, in FIG. 8B, the residual signal of the current macroblock is obtained from the residual signal of the neighboring macroblock MB_d.

다음으로, 인트라 프리딕션 플래그는 인트라 프리딕션 모드에 대응되며 위에서 설명한 레지듀얼 프리딕션 플래그와 같이 본 발명에서 포워드 예측 방식만이 사용되는 경우와 백워드 예측 방식만이 사용되는 경우로 분류되어 사용될 수 있다.Next, the intra prediction flag corresponds to the intra prediction mode, and may be classified and used as the case where only the forward prediction method and the backward prediction method are used in the present invention, such as the residual prediction flag described above. have.

도 10은 본 발명에 의한 비디오 신호 디코딩 방법의 다른 실시예를 나타내는 흐름도이다.10 is a flowchart illustrating another embodiment of a video signal decoding method according to the present invention.

도 10에 도시된 바와 같이, 먼저, 예측 모드를 독출한다(S101). 여기서, 본 발명에 의할 경우, 예측 모드는 현재 매크로블록이 본 발명에 의한 비디오 신호 디코딩 방법을 사용하지 않은 일반적인 매크로블록인지 또는 본 발명에 의한 비디오 신호 디코딩 방법을 사용한 시점 내 예측에 의한 매크로블록인지 또는 시점 간 예측에 의한 매크로블록인지를 나타낸다.As shown in FIG. 10, first, the prediction mode is read (S101). Here, in the present invention, the prediction mode is whether the current macroblock is a general macroblock without using the video signal decoding method according to the present invention or a macroblock by intra-view prediction using the video signal decoding method according to the present invention. Indicates whether it is a macroblock by recognition or inter-view prediction.

다음으로, 현재 매크로블록의 예측 방식 정보를 독출한다(S103). 여기서, 본 발명에 의한 예측 방식 정보에는 모션 예측에 관한 정보 3가지와 텍스쳐 예측에 관한 정보 2가지로 나눌 수 있다.Next, the prediction method information of the current macroblock is read (S103). Here, the prediction method information according to the present invention may be divided into three pieces of information on motion prediction and two pieces of information on texture prediction.

마지막으로, 독출된 예측 모드와 예측 방식 정보에 따라 현재 매크로블록을 디코딩한다(S105). 여기서, 본 발명에 의한 비디오 신호 디코딩 방법은 독출된 예측 모드에 의해 현재 매크로블록이 시점 내 예측 및 시점 간 예측에 의하지 않은 매크로블록인 경우에는 현재 매크로블록 타입을 독출하여 상기 현재 매크로블록을 디코딩하거나, 현재 매크로블록이 시점 내 예측 또는 시점 간 예측에 의한 매크로블록인 경우에는 시간 방향 또는 시점 방향으로 이웃하는 픽쳐의 매크로블록 정보를 이용하여 현재 매크로블록을 디코딩한다. 여기서, 이웃하는 픽쳐의 매크로블록 정보에는 모션 정보와 텍스쳐 정보로 나눌 수 있다. 또한, 독출된 예측 방식 정보에 따라 시간 방향 또는 시점 방향으로 이웃하는 픽쳐의 매크로블록은 시간 방향 또는 시점 방향으로 전(forward)에 있는 픽쳐의 매크로블록이거나 또는 시간 방향 또는 시점 방향으로 후(backward)에 있는 픽쳐의 매크로블록이 된다. 다시 말해, 예측 모드에 의해서는 현재 매크로블록과 이웃하는 픽쳐가 시간 방향으로 이웃하는 픽쳐인지 또는 시점 방향으로 이웃하는 픽쳐인지를 알 수 있으며, 예측 방식 정보에 의해서는 시간 방향 또는 시점 방향으로 전(forward)에 있는 픽쳐인지 또는 후(backward)에 있는 픽쳐인지를 알 수 있다.Finally, the current macroblock is decoded according to the read prediction mode and the prediction scheme information (S105). In the video signal decoding method according to the present invention, when the current macroblock is a macroblock that is not based on intra-view prediction and inter-view prediction by the read prediction mode, the current macroblock type is read and the current macroblock is decoded. When the current macroblock is a macroblock by intra-view prediction or inter-view prediction, the current macroblock is decoded using macroblock information of a picture neighboring in the time direction or the view direction. Here, macroblock information of a neighboring picture may be divided into motion information and texture information. Also, according to the read prediction information, macroblocks of pictures neighboring in the time direction or the view direction are macroblocks of pictures forward in the time direction or the view direction, or backward in the time direction or the view direction. This is the macroblock of the picture in. In other words, the prediction mode may determine whether the current macroblock and the neighboring picture are the neighboring pictures in the time direction or the neighboring pictures in the view direction, and the prediction method information may be used in all directions in the time direction or the view direction. It can be seen whether the picture is in the forward or backward.

도 11은 본 발명에 의한 비디오 신호 디코딩 장치의 일 실시예를 나타내는 구성도이다. 본 발명에 의한 비디오 신호 디코딩 장치는 도 2에서의 디코딩부(50)에 해당하며, 매크로브록 타입 독출부(111), 예측 방식 정보 독출부(113), 복호화 부(115)로 구성된다.11 is a block diagram showing an embodiment of a video signal decoding apparatus according to the present invention. The video signal decoding apparatus according to the present invention corresponds to the decoding unit 50 in FIG. 2 and includes a macroblock type reading unit 111, a prediction method information reading unit 113, and a decoding unit 115.

매크로블록 타입 독출부(111)는 수신된 비트스트림으로부터 현재 매크로블록의 매크로블록 타입을 독출한다. 본 발명에서 매크로블록 타입은 현재 매크로블록이 시점 내 예측에 의한 매크로블록인지 또는 시점 간 예측에 의한 매크로블록인지를 나타낸다.The macroblock type reader 111 reads the macroblock type of the current macroblock from the received bitstream. In the present invention, the macroblock type indicates whether the current macroblock is a macroblock by intra-view prediction or a macroblock by inter-view prediction.

예측 방식 정보 독출부(113)는 현재 매크로블록의 예측 방식 정보를 독출한다. 본 발명에서 예측 방식 정보는 모션 예측과 텍스쳐 예측에 관한 정보로 나눌 수 있다. 위에서 설명한 바와 같이 모션 예측에 관한 정보는 모션 스킵 모드, 모션 리파인먼트 모드, MVP 프리딕션 모드가 있으며, 텍스쳐 예측에 관한 정보는 레지듀얼 프리딕션 모드, 인트라 프리딕션 모드가 있다.The prediction method information reading unit 113 reads prediction method information of the current macroblock. In the present invention, the prediction method information may be divided into information about motion prediction and texture prediction. As described above, information about motion prediction includes a motion skip mode, a motion refinement mode, and an MVP prediction mode, and information about texture prediction includes a residual prediction mode and an intra prediction mode.

복호화부(115)는 매크로블록 타입과 예측 방식 정보를 이용하여 현재 매크로블록을 디코딩한다. 본 발명에서 복호화부(115)는 매크로블록 타입이 시점 내 예측 매크로블록인지 또는 시점 간 예측 매크로블록인지에 따라 시간 방향 또는 시점 방향으로 이웃하는 픽쳐의 매크로블록 정보를 이용하여 현재 매크로블록을 디코딩한다. 여기서, 이웃하는 픽쳐의 매크로블록 정보란, 모션 예측의 경우에는 이웃하는 픽쳐의 매크로블록의 레퍼런스 인덱스, 모션 또는 디스패러티 벡터가 되며, 텍스쳐 예측의 경우에는 이웃하는 픽쳐의 매크로블록의 레지듀얼 신호, 인트라 신호가 될 수 있다. 또한, 시간 방향 또는 시점 방향으로 이웃하는 픽쳐의 매크로블록은 예측 방식 정보에 따라 시간 방향 또는 시점 방향으로 전 또는 후에 있는 픽쳐의 매크로블록이 될 수 있다.The decoder 115 decodes the current macroblock using the macroblock type and the prediction method information. In the present invention, the decoder 115 decodes the current macroblock using macroblock information of neighboring pictures in the time direction or the view direction according to whether the macroblock type is an intra-view prediction macroblock or an inter-view prediction macroblock. . Here, the macroblock information of a neighboring picture is a reference index, a motion or a disparity vector of a macroblock of a neighboring picture in case of motion prediction, and a residual signal of a macroblock of a neighboring picture in the case of texture prediction, It can be an intra signal. In addition, the macroblocks of pictures neighboring in the time direction or the view direction may be macroblocks of pictures that are before or after the time direction or the view direction according to prediction method information.

도 12(a) 및 도 12(b)는 본 발명에 의한 비디오 신호 디코딩 방법의 또 다른 실시예를 나타내는 흐름도이다.12 (a) and 12 (b) are flowcharts illustrating still another embodiment of a video signal decoding method according to the present invention.

도 12(a)에 도시된 바와 같이, 먼저, 디스패러티 맵으로부터 화소 단위 디스패러티 벡터를 구한다(S121). 본 발명에서의 디스패러티 맵(disparity map)이란 뎁스 맵(depth map)으로도 불리우며, 본 발명의 다시점 비디오 코딩에 있어서 양 시점 간 화소의 위치 차이를 나타내는 맵을 의미한다. 한편, 다시점 비디오 코딩의 시점 내 예측에 있어서, 디스패러티 벡터는 현재 매크로블록의 디스패러티 보상(disparity compensation)을 위해 디코더로 전송되야 하나, 본 발명에서는 디스패러티 맵이 디코더로 전송되는 경우, 디스패러티 맵을 이용하여 디스패러티 벡터를 구하는 것이다.As shown in FIG. 12 (a), first, a pixel-based disparity vector is obtained from a disparity map (S121). The disparity map in the present invention is also called a depth map, and means a map indicating the positional difference of pixels between two viewpoints in the multi-view video coding of the present invention. On the other hand, in the in-view prediction of multi-view video coding, the disparity vector should be transmitted to the decoder for disparity compensation of the current macroblock, but in the present invention, when the disparity map is transmitted to the decoder, The disparity vector is obtained using the parity map.

다음으로, 화소 단위 디스패러티 벡터로부터 블록 단위 디스패러티 벡터를 유도한다(S122). 이 경우, 화소 단위 디스패러티 벡터는 평균값(average) 또는 중앙값(median) 등의 방법에 의해 4×4 블록 단위 디스패러티 벡터로 유도될 수 있다.Next, a block unit disparity vector is derived from a pixel unit disparity vector (S122). In this case, the pixel-based disparity vector may be derived as a 4 × 4 block-based disparity vector by a method such as an average value or a median.

마지막으로, 유도된 블록 단위 디스패러티 벡터 중 같은 디스패러티 벡터를 가지는 블록을 그룹핑하여 합친 디스패러티 벡터를 이용하여 현재 매크로블록을 디코딩한다(S124). 여기서, 단계 122에서 유도된 4×4 블록 단위 디스패러티 벡터는 같은 디스패러티 벡터를 가지는 블록을 그룹핑하여 8×8 블록 단위 디스패러티 벡터로 합쳐진다. 이후, 8×8 블록 단위 디스패러티 벡터는 같은 디스패러티 벡터를 가지는 8×8 블록 단위 디스패러티 벡터를 그룹핑하여 16×16 또는 16×8 또는 8× 16 블록 단위 디스패러티 벡터로 합쳐진다. 결국, 합쳐진 블록 단위 디스패러티 벡터에 의한 디스패러티 보상(disparity compensation)을 이용하여 현재 매크로블록을 디코딩하는 것이다.Finally, the current macroblock is decoded using the disparity vector that is grouped by combining blocks having the same disparity vector among the derived block unit disparity vectors (S124). Herein, the 4 × 4 block unit disparity vector derived in step 122 is combined into 8 × 8 block unit disparity vectors by grouping blocks having the same disparity vector. Subsequently, the 8 × 8 block unit disparity vector is combined into a 16 × 16 or 16 × 8 or 8 × 16 block unit disparity vector by grouping an 8 × 8 block unit disparity vector having the same disparity vector. As a result, the current macroblock is decoded using disparity compensation by the combined block-by-block disparity vector.

또한, 도 12(b)는 단계 120의 화소 단위 디스패러티 벡터를 구하는 방법의 실시예의 흐름도로서, 먼저, 레지듀얼 디스패러티 맵으로부터 레지듀얼 디스패러티 벡터를 구한다(S121). 여기서, 레지듀얼 디스패러티 맵은 인코딩단으로부터 얻어지며, 이에 대해서는 도 13에서 상세히 설명하기로 한다.12 (b) is a flowchart of an embodiment of a method of obtaining the pixel-based disparity vector of step 120. First, a residual disparity vector is obtained from the residual disparity map (S121). Here, the residual disparity map is obtained from the encoding stage, which will be described in detail with reference to FIG. 13.

다음으로, 레지듀얼 디스패러티 벡터와 블록 단위 디스패러티 벡터를 합하여 화소 단위 디스패러티 벡터를 구한다. 여기서, 블록 단위 디스패러티 벡터는 블록 정합 움직임 추정(block matching motion estimation)에 의해 구해진다.Next, the pixel-based disparity vector is obtained by adding the residual disparity vector and the block-based disparity vector. Here, the block-by-block disparity vector is obtained by block matching motion estimation.

도 13은 도 12의 비디오 신호 디코딩 방법의 일 실시예를 나타내는 도면이다.FIG. 13 is a diagram illustrating an embodiment of a video signal decoding method of FIG. 12.

도 13(a)는 디스패러티 벡터와 디스패러티 맵의 관계를 나타내는 도면으로서, 디스패러티 벡터는 디스패러티 맵으로 구할 수 있는 것을 알 수 있다. 도시된 바와 같이, dis_l0는 디스패러티 맵 A(disparity map A)로부터 구할 수 있으며, dis_l1은 디스패러티 맵 B(disparity map B)로부터 구할 수 있다.FIG. 13A illustrates a relationship between the disparity vector and the disparity map, and it can be seen that the disparity vector can be obtained as the disparity map. As shown, dis_l0 can be obtained from the disparity map A and dis_l1 can be obtained from the disparity map B.

도 13(b)는 도 12(a)의 비디오 신호 디코딩 방법의 실시예를 보여주는 도면이다. 도시된 바와 같이, STEP 1에서는 디스패러티 맵으로부터 화소 단위 디스패러티 벡터(pel disparity vectors)를 구한다. FIG. 13B is a diagram illustrating an embodiment of the video signal decoding method of FIG. 12A. As shown, STEP 1 obtains pel disparity vectors from the disparity map.

STEP 2에서는 화소 단위 디스패러티 벡터로부터 블록 단위 디스패러티 벡 터(block disparity vectors)를 유도한다. 여기서, 블록 단위 디스패러티 벡터는 4×4 블록 단위 디스패러티 벡터가 된다. In STEP 2, block disparity vectors are derived from the pixel-by-pixel disparity vector. Here, the block unit disparity vector becomes a 4 × 4 block unit disparity vector.

STEP 3에서는 STEP 2에서 유도된 4×4 블록 단위 디스패러티 벡터는 같은 디스패러티 벡터를 가지는 블록을 그룹핑하여 8×8 블록 단위 디스패러티 벡터로 합쳐진다. 여기서, 같은 디스패러티 벡터를 가지는 블록을 그룹핑하는 이유는 시점간 화소의 위치 차이를 나타내는 벡터, 즉, 디스패러티 벡터는 인접한 블록들일 경우 같거나 유사한 디스패러티 벡터를 가지기 때문에 이를 그룹핑하여 사용함으로써 코딩 효율이 증가하게 되는 것이다.In STEP 3, the 4 × 4 block disparity vector derived in STEP 2 is combined into 8 × 8 block unit disparity vectors by grouping blocks having the same disparity vector. Here, the reason for grouping blocks having the same disparity vector is a vector representing a positional difference of pixels between viewpoints, that is, a disparity vector has the same or similar disparity vector in the case of adjacent blocks. This will increase.

이후, 8×8 블록 단위 디스패러티 벡터는 같은 디스패러티 벡터를 가지는 8×8 블록 단위 디스패러티 벡터를 그룹핑하여 16×16 또는 16×8 또는 8×16 블록 단위 디스패러티 벡터로 합쳐진다. 결국, 합쳐진 블록 단위 디스패러티 벡터에 의한 디스패러티 보상(disparity compensation)을 이용하여 현재 매크로블록을 디코딩하는 것이다.Subsequently, the 8 × 8 block unit disparity vector is combined into a 16 × 16 or 16 × 8 or 8 × 16 block unit disparity vector by grouping an 8 × 8 block unit disparity vector having the same disparity vector. As a result, the current macroblock is decoded using disparity compensation by the combined block-by-block disparity vector.

도 13(c)는 도 12(b)의 비디오 신호 디코딩 방법의 실시예를 보여주는 도면이다. 인코더에서는 디스패러티 맵(disparity map)으로부터 화소 단위 디스패러티 벡터(pel dis. vec.)를 구한다. 다음으로, 화소 단위 디스패러티 벡터와 블록 정합 움직임 추정(block matching motion estimation)에 의한 블록 단위 디스패러티 벡터(block dis. vec.)의 차인 레지듀얼 디스패러티 벡터(residu. dis. vec.)를 구한다. 마지막으로, 레지듀얼 디스패러티 벡터로부터 레지듀얼 디스패러티 맵(residu. disparity map)을 구하는 것이다.FIG. 13 (c) is a diagram showing an embodiment of the video signal decoding method of FIG. 12 (b). In the encoder, a pixel-by-pixel disparity vector (pel dis. Vec.) Is obtained from a disparity map. Next, a residual disparity vector (residu. Dis. Vec.) That is a difference between the pixel-based disparity vector and the block disparity vector (block dis. Vec.) By block matching motion estimation is obtained. . Finally, a residual disparity map is obtained from the residual disparity vector.

디코더에서는 상기 인코더에서 설명한 방법의 역순으로 레지듀얼 디스패러티 맵으로부터 화소 단위 디스패러티 벡터를 구한다.The decoder obtains the pixel-by-pixel disparity vector from the residual disparity map in the reverse order of the method described in the encoder.

정리하면, 도 12(a)의 본 발명에 의한 비디오 신호 디코딩 방법은 디스패러티 맵이 인코더에서 디코더로 전송이 되는 경우에, 디스패러티 맵을 이용해서 디스패러티 벡터를 구하는 것이다. 반면, 도 12(b)의 비디오 신호 디코딩 방법은 디스패러티 맵 대신에 디코딩단으로 레지듀얼 디스패러티 맵을 전송하고 이를 이용해 화소 단위 디스패러티 벡터를 구함으로써 전송량을 줄여 코딩 효율이 좋아진다.In summary, in the video signal decoding method according to the present invention of FIG. 12A, when a disparity map is transmitted from an encoder to a decoder, a disparity vector is obtained using the disparity map. On the other hand, the video signal decoding method of FIG. 12 (b) transmits the residual disparity map to the decoding stage instead of the disparity map and obtains the pixel-by-pixel disparity vector, thereby reducing the transmission amount and improving coding efficiency.

이상, 전술한 본 발명의 바람직한 실시예는, 예시의 목적을 위해 개시된 것으로, 당업자라면 이하 첨부된 특허청구범위에 개시된 본 발명의 기술적 사상과 그 기술적 범위 내에서, 다양한 다른 실시예들을 개량, 변경, 대체 또는 부가 등이 가능할 것이다.As mentioned above, preferred embodiments of the present invention are disclosed for purposes of illustration, and those skilled in the art can improve and change various other embodiments within the spirit and technical scope of the present invention disclosed in the appended claims below. , Replacement or addition would be possible.

이상에서 설명한 바와 같이, 본 발명에 의한 비디오 신호 디코딩 방법 및 장치는 다시점 비디오 코딩에 있어서 시점들 사이의 중복된 정보를 제거할 수 있는 다양한 예측 방식이 가능하며, 시점들 사이의 중복된 정보를 제거하기 위해 디스패러티 맵을 이용함으로써 코딩 효율이 증가하는 효과를 갖는다.As described above, in the video signal decoding method and apparatus according to the present invention, various prediction methods capable of removing redundant information between viewpoints in multi-view video coding are possible. By using the disparity map to remove, the coding efficiency is increased.

Claims (25)

시점 간 예측(inter-view prediction)을 이용한 비디오 신호 디코딩 방법에 있어서,In the video signal decoding method using inter-view prediction, 현재 매크로블록의 매크로블록 타입을 독출하는 단계; 및Reading a macroblock type of a current macroblock; And 상기 독출된 매크로블록 타입에 따라 이웃하는 픽쳐의 매크로블록 정보를 이용하여 상기 현재 매크로블록을 디코딩하는 단계를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법.And decoding the current macroblock using macroblock information of a neighboring picture according to the read macroblock type. 제 1 항에 있어서, 상기 비디오 신호 디코딩 방법은The method of claim 1, wherein the video signal decoding method is 상기 현재 매크로블록의 예측 방식 정보를 독출하는 단계를 더 포함하며,Reading the prediction method information of the current macroblock; 상기 이웃하는 픽쳐의 매크로블록은 상기 독출된 예측 방식 정보에 따라 시간 방향 또는 시점 방향으로 전 또는 후에 있는 픽쳐의 매크로블록인 것을 특징으로 하는 비디오 신호 디코딩 방법.And the macroblock of the neighboring picture is a macroblock of a picture which is before or after in a time direction or a view direction according to the read prediction information. 제 2 항에 있어서, 상기 이웃하는 픽쳐의 매크로블록은The method of claim 2, wherein the macroblock of the neighboring picture is 상기 현재 매크로블록과 대응되는 위치의 매크로블록인 것을 특징으로 하는 비디오 신호 디코딩 방법.And a macroblock of a position corresponding to the current macroblock. 제 3 항에 있어서, 상기 현재 매크로블록과 대응하는 위치의 매크로블록은 상기 현재 매크로블록의 모션(motion) 또는 디스패러티(disparity) 벡터를 이용하여 찾는 것을 특징으로 하는 비디오 신호 디코딩 방법.4. The method of claim 3, wherein the macroblock at a position corresponding to the current macroblock is found using a motion or disparity vector of the current macroblock. 제 2 항에 있어서, 상기 이웃하는 픽쳐의 매크로블록은The method of claim 2, wherein the macroblock of the neighboring picture is 상기 현재 매크로블록과 같은 위치의 매크로블록인 것을 특징으로 하는 비디오 신호 디코딩 방법.And a macroblock at the same position as the current macroblock. 제 3 항 또는 제 5 항에 있어서, 상기 비디오 신호 디코딩 방법은The method of claim 3 or 5, wherein the video signal decoding method 상기 독출된 매크로블록 타입이 시점 내 예측 매크로블록 또는 시점 간 예측 매크로블록인지에 따라 상기 시간 방향 또는 상기 시점 방향으로 이웃하는 픽쳐의 매크로블록의 레퍼런스 인덱스 및 모션 또는 디스패러티 벡터를 독출하는 단계를 더 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법.Reading a reference index and a motion or disparity vector of macroblocks of neighboring pictures in the time direction or the view direction according to whether the read macroblock type is an intra-view prediction macroblock or an inter-view prediction macroblock; The video signal decoding method further comprising. 제 6 항에 있어서, 상기 시간 방향 또는 시점 방향으로 이웃하는 픽쳐는The picture of claim 6, wherein the neighboring pictures in the time direction or the view direction are arranged. 상기 독출된 매크로블록 타입이 상기 시점 내 매크로블록의 경우에는 상기 시점 방향으로 이웃하는 픽쳐이며, 상기 독출된 매크로블록 타입이 상기 시점 간 예측 매크로블록의 경우에는 상기 시간 방향으로 이웃하는 픽쳐인 것을 특징으로 하는 비디오 신호 디코딩 방법.The read macroblock type is a picture neighboring in the view direction when the macroblock is in the viewpoint, and the read macroblock type is a picture neighboring in the temporal direction in the case of the inter-view prediction macroblock. A video signal decoding method. 제 7 항에 있어서, 상기 현재 매크로블록을 디코딩하는 단계는8. The method of claim 7, wherein decoding the current macroblock comprises: 상기 독출된 레퍼런스 인덱스를 이용하여 상기 현재 매크로블록의 레퍼런스 인덱스를 생성하는 단계; 및Generating a reference index of the current macroblock using the read reference index; And 상기 독출된 모션 또는 디스패러티 벡터를 이용하여 상기 현재 매크로블록의 모션 또는 디스패러티 벡터를 생성하는 단계를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법.Generating a motion or disparity vector of the current macroblock using the read motion or disparity vector. 제 7 항에 있어서, 상기 현재 매크로블록을 디코딩하는 단계는8. The method of claim 7, wherein decoding the current macroblock comprises: 상기 독출된 레퍼런스 인덱스를 이용하여 상기 현재 매크로블록의 레퍼런스 인덱스를 생성하는 단계; 및Generating a reference index of the current macroblock using the read reference index; And 상기 독출된 모션 또는 디스패러티 벡터와 상기 현재 매크로블록의 1/4화소 리파인먼트의 합을 이용하여 상기 현재 매크로블록의 모션 또는 디스패러티 벡터를 생성하는 단계를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법.Generating a motion or disparity vector of the current macroblock using the sum of the read motion or disparity vector and the quarter-pixel refinement of the current macroblock. . 제 7 항에 있어서, 상기 현재 매크로블록을 디코딩하는 단계는8. The method of claim 7, wherein decoding the current macroblock comprises: 상기 독출된 레퍼런스 인덱스를 이용하여 상기 현재 매크로블록의 레퍼런스 인덱스를 생성하는 단계; 및Generating a reference index of the current macroblock using the read reference index; And 상기 독출된 모션 또는 디스패러티 벡터와 상기 현재 매크로블록의 모션 벡터 디퍼런스의 합을 이용하여 상기 현재 매크로블록의 모션 또는 디스패러티 벡터를 생성하는 단계를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법.Generating a motion or disparity vector of the current macroblock using the sum of the read motion or disparity vector and the motion vector difference of the current macroblock. 제 3 항 또는 제 5 항에 있어서, 상기 비디오 신호 디코딩 방법은The method of claim 3 or 5, wherein the video signal decoding method 상기 독출된 매크로블록 타입이 시점 내 예측 매크로블록 또는 시점 간 예측 매크로블록인지에 따라 상기 시간 방향 또는 시점 방향으로 이웃하는 픽쳐의 매크로블록의 레지듀얼 신호를 독출하는 단계를 더 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법.And reading out a residual signal of a macroblock of a neighboring picture in the time direction or the view direction according to whether the read macroblock type is an intra-view prediction macroblock or an inter-view prediction macroblock. Video signal decoding method. 제 11 항에 있어서, 상기 시간 방향 또는 시점 방향으로 이웃하는 픽쳐는12. The picture of claim 11, wherein the neighboring picture in the time direction or the view direction is 상기 독출된 매크로블록 타입이 상기 시점 내 매크로블록의 경우에는 상기 시간 방향으로 이웃하는 픽쳐이며, 상기 독출된 매크로블록 타입이 상기 시점 간 예측 매크로블록의 경우에는 상기 시점 방향으로 이웃하는 픽쳐인 것을 특징으로 하는 비디오 신호 디코딩 방법.The read macroblock type is a picture neighboring in the temporal direction when the macroblock is in the view, and the read macroblock type is a picture neighboring in the view direction in the case of the inter-view prediction macroblock. A video signal decoding method. 제 12 항에 있어서, 상기 현재 매크로블록을 디코딩하는 단계는13. The method of claim 12, wherein decoding the current macroblock comprises: 상기 독출된 레지듀얼 신호를 이용하여 상기 현재 매크로블록의 레지듀얼 신호를 생성하는 단계를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법.And generating a residual signal of the current macroblock by using the read residual signal. 제 3 항 또는 제 5 항에 있어서, 상기 비디오 신호 디코딩 방법은The method of claim 3 or 5, wherein the video signal decoding method 상기 독출된 매크로블록 타입이 시점 내 예측 매크로블록 또는 시점 간 예측 매크로블록인지에 따라 상기 시간 방향 또는 시점 방향으로 이웃하는 픽쳐의 매크로블록의 인트라 신호를 독출하는 단계를 더 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법.And reading an intra signal of a macroblock of a neighboring picture in the time direction or the view direction according to whether the read macroblock type is an intra-view prediction macroblock or an inter-view prediction macroblock. Video signal decoding method. 제 14 항에 있어서, 상기 시간 방향 또는 시점 방향으로 이웃하는 픽쳐는 The picture of claim 14, wherein the neighboring picture in the time direction or the view direction is selected. 상기 독출된 매크로블록 타입이 상기 시점 내 매크로블록의 경우에는 상기 시간 방향으로 이웃하는 픽쳐이며, 상기 독출된 매크로블록 타입이 상기 시점 간 예측 매크로블록의 경우에는 상기 시점 방향으로 이웃하는 픽쳐인 것을 특징으로 하는 비디오 신호 디코딩 방법.The read macroblock type is a picture neighboring in the temporal direction when the macroblock is in the view, and the read macroblock type is a picture neighboring in the view direction in the case of the inter-view prediction macroblock. A video signal decoding method. 제 15 항에 있어서, 상기 현재 매크로블록을 디코딩하는 단계는16. The method of claim 15, wherein decoding the current macroblock comprises: 상기 독출된 인트라 신호를 이용하여 상기 현재 매크로블록의 인트라 신호를 생성하는 단계를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법.And generating an intra signal of the current macroblock by using the read intra signal. 제 1 항에 있어서, 상기 비디오 신호 디코딩 방법은The method of claim 1, wherein the video signal decoding method is 예측 방식을 적용할지 여부를 나타내는 예측 플래그 정보를 독출하는 단계를 더 포함하며,Reading prediction flag information indicating whether to apply the prediction method; 상기 이웃하는 픽쳐의 매크로블록은, 상기 예측 방식이 포워드(forward) 예측 방식인 경우에는 시간 방향 또는 시점 방향으로 전에 있는 픽쳐의 매크로블록이며, 상기 예측 방식이 백워드(backward) 예측 방식인 경우에는 시간 방향 또는 시점 방향으로 후에 있는 픽쳐의 매크로블록인 것을 특징으로 하는 비디오 신호 디코딩 방법.The macroblock of the neighboring picture is a macroblock of a picture preceding in a time direction or a view direction when the prediction method is a forward prediction method, and when the prediction method is a backward prediction method. And a macroblock of a picture later in the time direction or the view direction. 시점 간 예측(inter-view prediction)을 이용한 비디오 신호 디코딩 방법에 있어서,In the video signal decoding method using inter-view prediction, 현재 매크로블록이 시점 내 예측 또는 시점 간 예측에 의한 매크로블록인지를 나타내는 예측 모드를 독출하는 단계; 및Reading a prediction mode indicating whether the current macroblock is a macroblock by intra-view or inter-view prediction; And 상기 독출된 예측 모드에 따라 이웃하는 픽쳐의 매크로블록 정보를 이용하여 상기 현재 매크로블록을 디코딩하는 단계를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법.And decoding the current macroblock using macroblock information of a neighboring picture in accordance with the read prediction mode. 제 18 항에 있어서, 상기 비디오 신호 디코딩 방법은19. The method of claim 18, wherein the video signal decoding method is 상기 현재 매크로블록의 예측 방식 정보를 독출하는 단계를 더 포함하며,Reading the prediction method information of the current macroblock; 상기 이웃하는 픽쳐의 매크로블록은 상기 독출된 예측 방식 정보에 따라 상기 시간 방향 또는 시점 방향의 전 또는 후에 있는 픽쳐의 매크로블록인 것을 특징으로 하는 비디오 신호 디코딩 방법.And the macroblock of the neighboring picture is a macroblock of a picture before or after the time direction or the view direction according to the read prediction information. 시점 간 예측(inter-view prediction)을 이용한 비디오 신호 디코딩 방법에 있어서,In the video signal decoding method using inter-view prediction, 화소 단위 디스패러티 벡터를 구하는 단계;Obtaining a pixel-by-pixel disparity vector; 상기 구한 화소 단위 디스패러티 벡터로부터 블록 단위 디스패러티 벡터를 유도하는 단계; 및Deriving a block unit disparity vector from the obtained pixel unit disparity vector; And 상기 유도된 블록 단위 디스패러티 벡터 중 같은 디스패리티 벡터를 가지는 블록을 그룹핑하여 합친 디스패러티 벡터를 이용하여 현재 매크로블록을 디코딩하는 단계를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법.And decoding a current macroblock using a disparity vector that is combined by grouping blocks having the same disparity vector among the derived block unit disparity vectors. 제 18 항에 있어서, 상기 화소 단위 디스패러티 벡터는The pixel-based disparity vector of claim 18, wherein 디스패러티 맵으로부터 구하는 것을 특징으로 하는 비디오 신호 디코딩 방법.The video signal decoding method characterized by obtaining from a disparity map. 제 18 항에 있어서, 상기 화소 단위 디스패러티 벡터를 구하는 단계는19. The method of claim 18, wherein obtaining the pixel-based disparity vector is 레지듀얼 디스패러티 벡터를 레지듀얼 디스패러티 맵으로부터 구하는 단계; 및Obtaining the residual disparity vector from the residual disparity map; And 상기 구한 레지듀얼 디스패러티 벡터와 블록 정합 움직임 추정(block matching motion estimation)에 의한 블록 단위 디스패러티 벡터를 합하여 상기 화소 단위 디스패러티 벡터를 구하는 단계를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법.And calculating the pixel-based disparity vector by adding the obtained residual disparity vector and the block-based disparity vector based on block matching motion estimation. 시점 간 예측(inter-view prediction)을 이용한 비디오 신호 디코딩 장치에 있어서,In the video signal decoding apparatus using inter-view prediction, 현재 매크로블록의 매크로블록 타입을 독출하는 매크로블록 타입 독출부;A macroblock type reader for reading a macroblock type of a current macroblock; 상기 현재 매크로블록의 예측 방식 정보를 독출하는 예측 방식 정보 독출부; 및A prediction method information reading unit which reads prediction method information of the current macroblock; And 상기 매크로블록 타입 및 예측 방식 정보를 이용하여 상기 현재 매크로블록을 디코딩하는 복호화부를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 장치.And a decoder which decodes the current macroblock by using the macroblock type and the prediction scheme information. 제 23 항에 있어서, 상기 복호화부는The method of claim 23, wherein the decoding unit 상기 매크로블록 타입이 시점 내 예측 매크로블록 또는 시점 간 예측 매크로블록인지에 따라 시간 방향 또는 시점 방향으로 이웃하는 픽쳐의 매크로블록 정보를 이용하여 상기 현재 매크로블록을 디코딩하는 것을 특징으로 하는 비디오 신호 디코딩 장치.And decoding the current macroblock using macroblock information of neighboring pictures in a time direction or a view direction according to whether the macroblock type is an intra-view prediction macroblock or an inter-view prediction macroblock. . 제 24 항에 있어서,The method of claim 24, 상기 시간 방향 또는 시점 방향으로 이웃하는 픽쳐의 매크로블록은 상기 독출된 예측 방식 정보에 따라 상기 시간 방향 또는 시점 방향으로 전 또는 후에 있는 픽쳐의 매크로블록인 것을 특징으로 하는 비디오 신호 디코딩 장치.And a macroblock of a picture neighboring in the time direction or the view direction is a macroblock of a picture before or after the time direction or the view direction according to the read prediction information.
KR1020060110336A 2006-07-14 2006-11-09 Video signal decoding method and apparatus Withdrawn KR20080007069A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US83068506P 2006-07-14 2006-07-14
US60/830,685 2006-07-14

Publications (1)

Publication Number Publication Date
KR20080007069A true KR20080007069A (en) 2008-01-17

Family

ID=39220642

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060110336A Withdrawn KR20080007069A (en) 2006-07-14 2006-11-09 Video signal decoding method and apparatus

Country Status (1)

Country Link
KR (1) KR20080007069A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100947447B1 (en) * 2008-05-26 2010-03-11 한국전자통신연구원 Method and apparatus for fast mode determination in multiview video coding
WO2014065547A1 (en) * 2012-10-22 2014-05-01 (주)휴맥스 Method for inducing disparity vector in predicting inter-view motion vector in 3d picture
WO2014073873A1 (en) * 2012-11-07 2014-05-15 엘지전자 주식회사 Method and apparatus for processing video signals
WO2016056754A1 (en) * 2014-10-08 2016-04-14 엘지전자 주식회사 Method and device for encoding/decoding 3d video
KR20160054026A (en) * 2008-04-25 2016-05-13 톰슨 라이센싱 Multi-view video coding with disparity estimation based on depth information
CN116684638A (en) * 2018-04-01 2023-09-01 Lg电子株式会社 Image encoding/decoding method, video data transmission method and storage medium

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160054026A (en) * 2008-04-25 2016-05-13 톰슨 라이센싱 Multi-view video coding with disparity estimation based on depth information
KR100947447B1 (en) * 2008-05-26 2010-03-11 한국전자통신연구원 Method and apparatus for fast mode determination in multiview video coding
WO2014065547A1 (en) * 2012-10-22 2014-05-01 (주)휴맥스 Method for inducing disparity vector in predicting inter-view motion vector in 3d picture
WO2014073873A1 (en) * 2012-11-07 2014-05-15 엘지전자 주식회사 Method and apparatus for processing video signals
WO2016056754A1 (en) * 2014-10-08 2016-04-14 엘지전자 주식회사 Method and device for encoding/decoding 3d video
US10587894B2 (en) 2014-10-08 2020-03-10 Lg Electronics Inc. Method and device for encoding/decoding 3D video
CN116684638A (en) * 2018-04-01 2023-09-01 Lg电子株式会社 Image encoding/decoding method, video data transmission method and storage medium
CN116684638B (en) * 2018-04-01 2025-12-09 Oppo广东移动通信有限公司 Image encoding/decoding method, video data transmitting method, and storage medium

Similar Documents

Publication Publication Date Title
AU2012269583B2 (en) Method and apparatus of motion and disparity vector prediction and compensation for 3D video coding
KR101706309B1 (en) Method and apparatus of inter-view candidate derivation for three-dimensional video coding
KR101638752B1 (en) Method of constrain disparity vector derivation in 3d video coding
JP6042536B2 (en) Method and apparatus for inter-view candidate derivation in 3D video coding
JP6941657B2 (en) Guidance method and device for temporal inter-viewpoint movement information for each sub-prediction unit
CA2891723C (en) Method and apparatus of constrained disparity vector derivation in 3d video coding
US20150365649A1 (en) Method and Apparatus of Disparity Vector Derivation in 3D Video Coding
JPWO2012128242A1 (en) Image processing apparatus, image processing method, and program
US20150264398A1 (en) Video data decoding method and video data decoding apparatus
WO2014005467A1 (en) Method and apparatus of inter-view motion vector prediction and disparity vector prediction in 3d video coding
KR20080114482A (en) Luminance Compensation Method and Apparatus in Multiview Video Coding
WO2015007242A1 (en) Method and apparatus of camera parameter signaling in 3d video coding
KR20080007069A (en) Video signal decoding method and apparatus
KR20070098428A (en) Video signal decoding / encoding method and apparatus
RU2828826C2 (en) Method of decoding image, method of encoding image and computer-readable data medium
KR20070111947A (en) Method and apparatus for decoding / encoding video signal
CN104412238B (en) The method and apparatus of candidate motion vector between the view obtaining block in picture
KR20070116527A (en) Method and apparatus for decoding / encoding video signal
KR20070098437A (en) Method and apparatus for decoding / encoding video signal
KR20070076392A (en) Method and apparatus for decoding / encoding video signal

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20061109

PG1501 Laying open of application
PC1203 Withdrawal of no request for examination
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid