[go: up one dir, main page]

KR20180031904A - A Robust and Blind Watermarking Method for DIBR Using a Depth Variation Map - Google Patents

A Robust and Blind Watermarking Method for DIBR Using a Depth Variation Map Download PDF

Info

Publication number
KR20180031904A
KR20180031904A KR1020160120372A KR20160120372A KR20180031904A KR 20180031904 A KR20180031904 A KR 20180031904A KR 1020160120372 A KR1020160120372 A KR 1020160120372A KR 20160120372 A KR20160120372 A KR 20160120372A KR 20180031904 A KR20180031904 A KR 20180031904A
Authority
KR
South Korea
Prior art keywords
image
watermark
depth
sub
attack
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020160120372A
Other languages
Korean (ko)
Other versions
KR101860728B1 (en
Inventor
김동욱
서영호
이용석
Original Assignee
광운대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광운대학교 산학협력단 filed Critical 광운대학교 산학협력단
Priority to KR1020160120372A priority Critical patent/KR101860728B1/en
Publication of KR20180031904A publication Critical patent/KR20180031904A/en
Application granted granted Critical
Publication of KR101860728B1 publication Critical patent/KR101860728B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • G06T1/005Robust watermarking, e.g. average attack or collusion attack resistant
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0051Embedding of the watermark in the spatial domain
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0053Embedding of the watermark in the coding stream, possibly without decoding; Embedding of the watermark in the compressed domain

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

텍스쳐영상 및 깊이영상으로 구성된 텍스쳐 및 깊이 영상에 워터마크를 삽입하는, 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법에 관한 것으로서, (a) 상기 깊이영상에 수평과 수직의 각 방향으로 미분을 수행하여, 깊이변화맵(DVM)를 생성하는 단계; (b) 상기 텍스쳐영상에 대해 2DDWT(2-dimensional discrete wavelet transform)를 수행하여 부대역 영상을 생성하는 단계; (c) 상기 DVM을 서브샘플링하여 상기 부대역 영상과 동일한 해상도의 DVM 서브 영상을 생성하고, 상기 DVM 서브 영상에서 화소값을 이용하여 삽입 영역을 선정하여, 선정된 삽입 영역에 대응되는 상기 부대역 영상의 영역을, 워터마크를 삽입할 워터마크 삽입 영역으로 선정하는 단계; (d) 워터마크 데이터를 암호화 하는 단계; (e) 상기 부대역 영상의 상기 워터마크 삽입 영역에 상기 워터마크 데이터를 삽입하는 단계; 및, (f) 워터마크가 삽입된 부대역 영상으로 대체된 부대역 영상들을 역 2DDWT를 수행하여, 워터마킹된 텍스쳐 영상을 생성하는 단계를 포함하는 구성을 마련한다.
상기와 같은 방법에 의하여, 기존의 방법들에 비해 삽입한 워터마크 정보의 비가시성이 뛰어나고, 고려한 시점이동 공격에 대해서는 BER(bit error ratio)이 거의 모두 0에 가까운 값을 보여 기존의 방법들보다 매우 우수한 성능을 가진다.
The present invention relates to a robust blind watermarking method of a DIBR attack using a depth change map, which inserts a watermark into a texture and a depth image composed of a texture image and a depth image. The method includes (a) To generate a depth variation map (DVM); (b) generating a sub-band image by performing a 2-dimensional discrete wavelet transform (2DDWT) on the texture image; (c) sub-sampling the DVM to generate a DVM sub-image having the same resolution as the sub-band image, selecting an insertion region using pixel values in the DVM sub-image, Selecting an area of the image as a watermark embedding area to embed a watermark; (d) encrypting the watermark data; (e) inserting the watermark data into the watermark embedding area of the sub-band image; And (f) generating a watermarked texture image by performing inverse 2DDWT on sub-band images in which the watermarked sub-band image is replaced.
According to the above method, the non-visibility of the inserted watermark information is superior to the existing methods, and the bit error ratio (BER) is close to zero for the considered point attack. It has very good performance.

Description

깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법 { A Robust and Blind Watermarking Method for DIBR Using a Depth Variation Map }[0001] The present invention relates to a robust watermarking method for a DIBR attack using a depth change map,

본 발명은 시청자측에서 수신한 텍스쳐 영상과 그 깊이영상으로 임의의 시점 영상을 렌더링하여 시청하는 자유시점 2D 또는 3D 영상의 지적재산권 보호를 위한 디지털 워터마킹 방법으로서, 시점이동에 덜 민감한 부분을 찾기 위해 깊이영상을 이용하여 깊이변화지도를 생성하고, 원 영상을 3 레벨 2DDWT(2-dimensional discrete wavelet transform)를 수행하여 각 레벨의 LH 부대역에서 깊이변화지도를 참조하여 워터마킹할 위치를 결정하는, 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법에 관한 것이다.The present invention relates to a digital watermarking method for protecting intellectual property rights of a free-view 2D or 3D image by rendering a texture image received from a viewer side and an arbitrary viewpoint image using the depth image, A depth-change map is generated using the depth-of-view image, a three-level 2D discrete wavelet transform (2DDWT) is performed on the original image, and a position to be watermarked is determined with reference to a depth- , And robustness blind watermarking method of DIBR attack using depth change map.

즉, 본 발명은 깊이+텍스쳐의 한 쌍을 수신측에 전송하여 수신측에서 DIBR로 임의의 시점이동이 이루어진다는 것을 가정한 블라인드(blind) DW 방법으로서, 폐색 및 비폐색영역이 발생하지 않는 혹은 않을 영역을 깊이영상으로 찾고, 다양한 공격에 강인성을 갖도록 2DDWT에 의한 각 레벨에서 공격에 가장 강인한 LH부대역에 다중 WM를 삽입하는, 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법에 관한 것이다.That is, the present invention is a blind DW method that assumes that a pair of depth + texture is transmitted to a receiver and an arbitrary viewpoint movement is performed from the receiver to the DIBR, and the blind DW method The present invention relates to a robust blind watermarking method of a DIBR attack using a depth change map, which inserts multiple WMs into an LH subband that is most robust against attacks at each level by 2DDWT so as to find regions with depth images and robustness against various attacks.

또한, 본 발명은 WM을 추출할 때는 삽입과 동일하게 2DDWT를 수행하면서 LH 부대역의 모든 화소에서 WM정보를 추출한 후 원 WM정보를 이용하여 삽입된 WM 위치의 정보를 선별하는, 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법에 관한 것이다.In addition, the present invention extracts WM information from all the pixels in the LH subband while performing 2DDWT in the same manner as the insertion, extracts the depth map of the embedded WM position using the original WM information, The robustness of a DIBR attack using a blind watermarking method.

디지털 영상미디어 기술 발달은 영상을 고해상도로 발전시킬 뿐 아니라 3차원(3D) 영상[비특허문헌 1]이나 자유시점(free viewpoint) 영상[비특허문헌 2]도 발전시키고 있다. 최근의 3D 영상은 2009년 영화 '아바타'가 촉발시켜 3~5년간 많은 붐을 일으켰으며, 그 후 관심도가 떨어지는 듯 했으나, 최근 가상현실 분야에서 다시 부각되고 있다. 이 외에도 다시점(multi-viewpoint) 3D영상[비특허문헌 3]이나 디지털 홀로그램[비특허문헌 4]에 대한 연구도 꾸준히 이루어지고 있다. 반면 자유시점 영상에 대한 연구는 자유시점 TV(FTV)이라는 이름으로 2000년대 초부터 연구되어 왔으며, 3D보다는 시점을 자유롭게 이동한다는 개념이 더욱 강하였다. 그러나 최근 이 두 개념을 결합하여 자유시점 3D[비특허문헌 5]라는 개념으로 발전하였다. FTV나 자유시점 3D는 시청자가 시점을 자유롭게 선택하도록 하지만, 그를 위해 초다시점 영상을 전송하는 전송부담을 덜어준다는 측면에서도 큰 의미를 찾을 수 있다.Development of digital image media technology not only develops images at high resolution but also develops 3D images (Non-Patent Document 1) and free viewpoint images (Non-Patent Document 2). Recent 3D images have been booming for 3 ~ 5 years due to the spark of the 'Avatar' in 2009, and after that they seemed to be less interested in it, but they have recently emerged again in the field of virtual reality. In addition, studies on multi-viewpoint 3D images [Non-Patent Document 3] and digital holograms [Non-Patent Document 4] have been made steadily. On the other hand, research on free view images has been studied since the early 2000s under the name of freeview TV (FTV), and the notion of free movement of viewpoint was stronger than 3D. However, recently, these concepts have been combined to develop the concept of free-view 3D [Non-Patent Document 5]. The FTV or free-view 3D allows viewers to freely select a viewpoint, but it can also be meaningful in terms of relieving the transmission burden of transmitting a super multi-view image for the viewer.

FTV 또는 자유시점 3D는 시청자가 시점을 원하는 대로 바꿀 수 있도록 한다는 개념이다. 이를 위해서는 시청자의 시점을 추적하거나 시청자가 직접 시점을 선택하게 하여 시청자측에서 시점을 이동한 영상을 렌더링(rendering)해야 한다. 그 방법 중 현재 가장 널리 사용되고 있는 방법이 깊이영상-기반 렌더링(depth-image-based rendering, DIBR)이며, 이를 3D 워핑(warping)이라고도 한다[비특허문헌 1]. 이 방법은 현재시점의 영상을 3차원 좌표정보를 갖고 있는 깊이영상으로 원하는 시점의 영상을 렌더링하는 방법이다. 즉, FTV 또는 자유시점 3D를 위해서는 현재시점의 RGB영상과 그에 해당하는 깊이영상을 수신측에 보내 수신측에서 DIBR로 워하는 시점의 영상을 렌더링해야 한다. FTV or free-view 3D is a concept that enables viewers to change the viewpoint as desired. In order to do this, it is necessary to render a viewpoint image by tracking the viewpoint of a viewer or allowing a viewer to directly select a viewpoint. One of the most widely used methods is depth-image-based rendering (DIBR), which is also called 3D warping [Non-Patent Document 1]. This method is a method of rendering an image at a desired point of time with a depth image having three-dimensional coordinate information. That is, for the FTV or free-view 3D, the RGB image of the current point and the depth image corresponding to the current point of view are sent to the receiver to render the image at the point of DIVR conversion at the receiver.

한편, 영상의 발전은 영상자체가 점차 정보함축적인 미디어가 되고 있고, 점차 고부가가치의 콘텐츠가 되고 있다는 것을 의미한다. 그러나 디지털 콘텐츠가 가지는 전형적인 문제인 불법 복제, 도용 등의 문제에 대한 해결방법이 더욱 절실해졌으며, 지금까지 이 해결책으로 디지털 워터마킹(digital watermarking. DW)[비특허문헌 5]이 지속적으로 연구되어 왔다. 이들에서는 다양한 악의적/비악의적 공격을 대상으로 삽입한 워터마크(WM)의 비가시성(invisibility)와 공격에 대한 강인성(robustness)을 겸비한 지적재산권 보호 방법을 주로 연구해 왔다.On the other hand, the development of video means that the video itself is gradually becoming information-implicit media, and gradually becomes high-value content. However, a solution to the problems of piracy and theft, which is a typical problem of digital contents, has become more urgent and up until now digital watermarking (DW) [Non-Patent Document 5] has been continuously studied . They have mainly studied intellectual property protection methods that combine invisibility and robustness of watermark (WM) inserted into various malicious / non-malicious attacks.

그러나 앞에서 설명한 수신측에서의 시점이동은 원 영상 화소들의 위치를 변경시키고 폐색(occlusion)영역과 비폐색(disocclusion)영역을 발생시켜 원 영상에 삽입한 워터마크(WM) 정보를 상당히 변형시키거나 제거하는 결과를 낳는다. 즉, 시점이동이 영상에 대한 또 하나의 강력한 공격이 된 것이다[비특허문헌 6]. 따라서 최근 시점이동 공격을 대상으로 하는 DW에 대한 연구들이 진행되고 있다.However, the above-described viewpoint movement on the receiving side changes the position of the original image pixels, generates occlusion regions and discocclusion regions, and significantly transforms or removes watermark (WM) information inserted in the original image Lays. That is, the viewpoint movement is another powerful attack on the image [Non-Patent Document 6]. Therefore, DW is being studied for a recent point-of-view attack.

시점이동에 대한 DW는 [비특허문헌 8]에서 처음 시도되었는데, 여기서는 영상-기반 렌더링(image-based rendering, IBR), 즉 광선(light-ray) 렌더링(LFR) 방법의 시점이동을 가정하였다. DW방법은 WM를 삽입할 때 WM를 고대역통과 필터링하여 사용하고, 추출할 때에는 영상을 고대역필터링하여 특정 위치의 데이터와 삽입한 WM의 NC(normalized correlation)값을 구하여 WM를 추출하였다. 따라서 이 방법은 원 영상과 삽입한 WM 정보가 모두 추출 시 사용되는 넌블라인드(non-blind) 방법이다. 한편 Zhu 등은 DIBR의 시점이동을 가정하고, 시점이동에 변화가 가장 적은 가장 먼 객체를 플러드 필(Flood fill) 방법으로 찾아 8×8 DCT의 중간주파수 대역에 WM를 삽입하는 방법을 제안하였다[비특허문헌 9]. 이 방법 역시 WM 추출 시 플러드 필(Flood fill) 방법으로 삽입영역을 찾아야 하므로 넌블라인드(non-blind) 방법이다.The DW for viewpoint movement was first attempted in [Non-Patent Document 8]. Here, it is assumed that the viewpoint movement of the image-based rendering (IBR), that is, the light-ray rendering (LFR) method is assumed. The DW method uses WM for high-pass filtering when inserting WM, and extracts WM by extracting the NC (normalized correlation) value of the embedded WM and data at specific position by high-pass filtering the image. Therefore, this method is a non-blind method in which both the original image and the inserted WM information are used for extraction. On the other hand, Zhu et al. Proposed a method of inserting WM into the intermediate frequency band of 8 × 8 DCT by assuming the viewpoint movement of the DIBR and finding the farthest object with the smallest change in viewpoint movement as a flood fill method [ Non-Patent Document 9]. This method is also a non-blind method because it is necessary to find the insertion area by the flood fill method in WM extraction.

또한 Lee 등은 DIBR 후의 폐색영역을 미리 계산하고 그 영역을 피해서 64 비트의 WM를 삽입하는 방법을 제안하였다[비특허문헌 10]. 이 방법의 WM 추출 방법은 공격을 가한 영상에 와이너(Weiner) 잡음제거 필터링을 수행하고 필터링 전 영상과의 차영상을 구해 DW영역에서 원 WM와의 NC값이 정해진 값 이상이면 WM가 추출되었다고 간주하는 방식이다. 이 방법은 WM 추출 시 원 WM 정보만을 사용하므로 블라인드 워터마킹(blind DW)로 간주된다. 그 후 이 팀은 원 영상에서 잡음을 추출하고 그 평균값을 0으로 만든 후 수직방향으로 분할하여 각 잡음에 128 비트 워터마크 정보를 삽입하여 잡음 정보로 워터마크를 추출하는 방법을 개발하기도 하였다[비특허문헌 11].In addition, Lee et al. Proposed a method of preliminarily calculating the occlusion region after DIBR and inserting 64-bit WM in the avoidance of the region [Non-Patent Document 10]. The WM extraction method of this method performs Weiner noise elimination filtering on the attacked image and obtains the difference image with the pre-filtering image. If the NC value with the original WM in the DW area is larger than the predetermined value, WM is considered to be extracted Method. This method uses blind watermarking (blind DW) because it uses only the original WM information in WM extraction. The team then developed a method to extract the noise from the original image, and to divide the average value into 0 and divide it in the vertical direction, and insert 128-bit watermark information into each noise to extract the watermark with noise information Patent Document 11].

그러나 여전히 시점이동된 영상에서 낮은 WM 추출률을 보였다. 시점이동 후 WM 추출률을 높이기 위해 시점이동된 영상에서 WM 정보가 왜곡될 것을 고려하여 WM를 삽입하는 방법이 제안되기도 하였다[비특허문헌 12]. 그러나 예측된 시점에서의 WM 추출률은 높으나 그 외 임의의 시점에서는 낮은 추출률을 보였다. DIBR에 강인한 특별한 변환방법으로 DT-CWT(dual-tree complex wavelet transform)을 제안하고, 3-레벨 변환 결과의 블록별로 양자화의 형식으로 64 비트의 WM정보를 삽입하는 방법을 제안하였다[비특허문헌 13]. 이 방법은 3~7%시점 변화에 거의 일정한 에러율을 보이며 좋은 성능을 보였으나, 블록의 크기와 시점이동의 양에 따라 좌우 블록의 WM를 소실할 가능성이 커지는 단점을 갖고 있다. However, low WM extraction rate was still observed in the viewpoint shifted image. In order to increase the WM extraction rate after moving the viewpoint, there has been proposed a method of inserting WM in consideration of the distortion of the WM information in the viewpoint moving image [Non-Patent Document 12]. However, the WM extraction rate at the predicted point was high, but it was low at any other point. A dual-tree complex wavelet transform (DT-CWT) is proposed as a robust special transform method in DIBR, and a method of inserting 64-bit WM information in the form of quantization for each block of 3-level conversion result has been proposed 13]. Although this method shows good performance with almost constant error rate at 3 ~ 7% viewpoint change, it has a disadvantage that the possibility of loss of WM in left and right blocks increases according to the size of block and the amount of viewpoint movement.

이후 가상시점에서 워터마크 위치를 블라인드(blind) 방식으로 찾기 위해 SIFT를 이용한 특징점 기반의 워터마크 방법이 제안되었다[비특허문헌 14]. 이 방법의 비기시성은 다른 방법에 비해 뛰어나지만, 시점이동 이 외의 JPEG 공격이나 평균필터링 공격을 시점이동하지 않은 원 시점 영상에 가해 시점이동한 영상을 대상으로 한 공격들과의 비교가 불가능하다. 즉, 수신측에서 시점이동이 이루어진 영상에 대해 WM를 제거하기 위한 공격을 타겟으로 하여야 하나, 이 방법에서는 시점이동하지 않은 영상이 공격당하는 것만을 가정하였다. 또한 DIBR에서 깊이영상의 중요성 때문에 깊이영상에 DW를 수행한 방법도 제안되었다[비특허문헌 15]. 이 방법은 비가시성에 영향을 주지 않으면서 좋은 WM 추출률을 보였지만, 깊이영상이 아닌 중간시점이나 가상시점 영상에 대한 저작권은 보호할 수 없다는 치명적인 단점이 있다. 가상시점이 생성된 뒤에는 깊이영상이 사용되지 않지만 양안 가상시점 자체로 불법 유통될 수 있기 때문이다.Then, feature point-based watermarking method using SIFT has been proposed to find a watermark position in a blind manner at a virtual point of view [Non-Patent Document 14]. The non-visibility of this method is superior to other methods, but it is impossible to compare it with attacks targeting images that are moved to a point-in-time image that does not move from point-to-point JPEG attacks or average filtering attacks. In other words, it is supposed that an attack to remove WM from a viewpoint moving image on the receiving side should be targeted. However, in this method, it is assumed that an image that has not been moved is attacked. Also, a DW method has been proposed for depth images because of the importance of depth images in DIBR [Non-Patent Document 15]. This method has a good WM extraction rate without affecting the invisibility, but it has a fatal disadvantage that it can not protect the copyright of the midpoint or virtual view image, not the depth image. Since the depth image is not used after the virtual point of view is created, it can be illegally circulated to the virtual point of view itself.

깊이영상에 WM를 삽입하고 DIBR에 의해 시점이동된 영상에서 WM를 추출하는 방법(unseen visible watermarking, UVW)이 제안되기도 하였다[비특허문헌 16]. 이 방법은 DIBR에서 시점이동에 영향을 미치지 않는 시차(disparity)의 크기를 이용하여 WM를 삽입하고, WM를 추출할 때는 렌더링 조건을 변화시켜 삽입한 깊이영상의 WM가 부각되도록 한다. 따라서 이 방법은 추출 시 깊이영상이 필요한 넌 블라인드(non-blind) 방법이다. 또한 Rana 등은 DT-CWT의 실수부인 DT-DWT와 DCT-MCTF(motion-compensated temporal DCT filtering)을 이용하는 방법을 제안하였다[비특허문헌 17]. 이 방법은 좌시점과 우시점 영상이 주어지고 각 시점에서 깊이와 텍스쳐 영상이 제공된다고 가정하고 이 두 시점의 중간시점을 만들어 WM를 삽입하였다. 그 결과 비가시성과 강인성에서 기존 방법에 비해 우수한 성능을 보였다. 이 외 시점이동을 타겟으로 하지는 않지만 에너글리프(anaglyph) 스테레오 영상을 3D DWT와 Jacket matrix를 사용하여 워터마크를 삽입하는 방법을 제안하기도 하였다[비특허문헌 18].Unseen visible watermarking (UVW) has been proposed to embed WM into a depth image and to extract WM from a viewpoint moved by DIBR [Non-Patent Document 16]. In this method, the WM is inserted using the magnitude of the disparity which does not affect the viewpoint movement in the DIBR, and when the WM is extracted, the rendering condition is changed so that the WM of the inserted depth image is highlighted. Therefore, this method is a non-blind method that requires depth image extraction. Rana et al. Proposed a method using DT-DWT, which is a real part of DT-CWT, and motion-compensated temporal DCT filtering (DCT-MCTF) [Non-Patent Document 17]. This method assumes that left and right view images are given and that depth and texture images are provided at each view point. As a result, it showed superior performance in nonvisuality and robustness compared to existing methods. Although it does not target the other viewpoint movement, it has also proposed a method of inserting a watermark by using 3D DWT and Jacket matrix in an anaglyph stereo image [Non-Patent Document 18].

따라서 무엇보다, 시점이동 공격을 주된 공격으로 하나, 기존 2D영상의 DW에서 타겟으로 한 공격들을 같이 고려한 블라인드(blind)[비특허문헌 7] DW 방법의 개발이 필요하다.Therefore, it is necessary to develop a blind (non-patent document 7) DW method considering a point-of-view attack as a main attack and an attack targeting DW of an existing 2D image.

Diniel Minoli, 3DTV, Content capture, encoding and transmission, IEEE-Wiley, 2010. Diniel Minoli, 3DTV, Content capture, encoding and transmission, IEEE-Wiley, 2010. Y. Mori, N. Fukushima, T. Yendo, T. Fujii, and M. Tanimato, "View generation with 3D warping using depth information for FTV", Signal Processing: Image Communication 24(2009) 65-72. Y. Mori, N. Fukushima, T. Yendo, T. Fujii, and M. Tanimato, "Image Generation for Image Processing", Image Processing 24 (2009) 65-72. T-Y. Ho, D-N. Yang, and W. Liao, "Efficient resource allocation of mobile multi-view 3D videos with depth-image-based rendering", IEEE Trans. on Mobile Computing, Vol. 14, No. 12, pp. 344-357, Feb. 2015. T-Y. Ho, D-N. Yang, and W. Liao, "Efficient resource allocation of mobile multi-view 3D videos with depth-image-based rendering ", IEEE Trans. on Mobile Computing, Vol. 14, No. 12, pp. 344-357, Feb. 2015. Y-H. Seo, Y-H. Lee, J-M. Koo, J-S. Yoo, and D-W. Kim, "Digital holographic video service system for natural color scene", Optical Engineering, 52(11), 113106 (Nov. 2013). Y-H. Seo, Y-H. Lee, J-M. Koo, J-S. Yoo, and D-W. Kim, "Digital holographic video service system for natural color scene ", Optical Engineering, 52 (11), 113106 (Nov. 2013). Aljoscha Smoloc, "3D video and freeviewpoint video-From capture to display," ELsevier Pattern Recognition, 44(2011) 1958-1968. Aljoscha Smoloc, "3D video and freeview video-From capture to display," ELsevier Pattern Recognition, 44 (2011) 1958-1968. A. Smolic, et al., "Coding Algorithm for 3DTV-A sunrvey," IEEE Trans.. on Circuits and Sytems for Video Technology, Vol. 17, No. 11, pp. 1606-1621, Nov. 2007. A. Smolic, et al., "Coding Algorithm for 3DTV-A sunrvey," IEEE Trans. On Circuits and Systems for Video Technology, Vol. 17, No. 11, pp. 1606-1621, Nov. 2007. J. Cox, M. Miller, J. Bloom, T. Kalker, Digital watermarking and steganography, 2nd Ed., Elsevier, 2008. J. Cox, M. Miller, J. Bloom, T. Kalker, Digital Watermarking and Steganography, 2nd Ed., Elsevier, 2008. A. Koz, C. Cigla, and A. Alatan, "Free-view watermarking for free-view television," ICIP 2006, pp. 1405-1408. 2006. A. Koz, C. Cigla, and A. Alatan, "Free-view watermarking for free-view television," ICIP 2006, pp. 1405-1408. 2006. N. Zhu, G. Ding, and J. Wing, "A novel digital watermarking method for new viewpoint video based on depth map," Intl. Conf. on Intelligent Systems Design and Applications, pp. 3-7, 2008. N. Zhu, G. Ding, and J. Wing, "A novel digital watermarking method for new viewpoint video based on depth map," Intl. Conf. on Intelligent Systems Design and Applications, pp. 3-7, 2008. M-J. Lee, J-W. Lee, and H-K. Lee, "Perceptual watermarking for 3D stereoscopic video using depth information," IEEE Intl. Conf. Intelligent Information Hiding and Multimedia Signal Processing, pp. 81-84, 2001. M-J. Lee, J-W. Lee, and H-K. Lee, "Perceptual watermarking for 3D stereoscopic video using depth information," IEEE Intl. Conf. Intelligent Information Hiding and Multimedia Signal Processing, pp. 81-84, 2001. J-W. Lee, H-D Kim, H-Y. Choi, S-H. Choi, and H-K. Lee, "Stereoscopic watermarking by horizontal noise mean shift," Proc. of SPIE Vol. 8303, 830307-1, 2012. J-W. Lee, H-D Kim, H-Y. Choi, S-H. Choi, and H-K. Lee, "Stereoscopic watermarking by horizontal noise mean shift," Proc. of SPIE Vol. 8303, 830307-1, 2012. Y-H. Lin and J-L Wu, "A digital blind watermarking for depth-image-based rendering 3D images," IEEE Trans. on Broadcasting, Vol. 57, No. 2, pp. 602-611, June 2011. Y-H. Lin and J-L Wu, "A digital blind watermarking for depth-image-based rendering 3D images," IEEE Trans. on Broadcasting, Vol. 57, No. 2, pp. 602-611, June 2011. H-D Kim, and J-W Lee, "Robust DT-CWT Watermarking for DIBR 3D Images." IEEE Transactions on Broadcasting, Vol. 58, No. 4, pp.533-543, Oct. 2012. H-D Kim, and J-W Lee, "Robust DT-CWT Watermarking for DIBR 3D Images." IEEE Transactions on Broadcasting, Vol. 58, No. 4, pp. 533-543, Oct. 2012. S. Wang, C. Cui, and X. Niu, "Watermarking for DIBR 3D images based on SIFT feature points," Elsevier Measurement 48(2014) 54-62. S. Wang, C. Cui, and X. Niu, "Watermarking for DIBR 3D images based on SIFT feature points," Elsevier Measurement 48 (2014) 54-62. Y. Guan, Y, Zhu, X. Liu, G. Luo, Z. Sun, and L. Zhang, "A digital blind watermarking scheme based on quantization index modulation in depth map for 3D video," ICARCV, We43.6, 2014. Y. Guan, Y. Zhu, X. Liu, G. Luo, Z. Sun, and L. Zhang, "A digital blind watermarking scheme based on quantization index modulation in depth map for 3D video," ICARCV, We43.6, 2014. S-C Pei and Y-Y Wang, "Auxiliary metadata delivery in view synthesis using depth no synthesis error model," IEEE Trans. on Multimedia, Vol. 17, No. 1, pp. 128-133, Jan. 2015. S-C Pei and Y-Y Wang, "Auxiliary metadata delivery in view synthesis using depth no synthesis error model," IEEE Trans. on Multimedia, Vol. 17, No. 1, pp. 128-133, Jan. 2015. S. Rana and A. Sur, "3D video watermarking using DT-DWT to resist synthesis view attack," EUSIPCO, pp. 46-50. 20, 2015. S. Rana and A. Sur, "3D video watermarking using DT-DWT to resist synthesis view attack," EUSIPCO, pp. 46-50. 20, 2015. I. Prathap and R. Anitha, "Robust and blind watermarking scheme for three dimensional anaglyph images," Elsevier Computers and Electrical Engineering 40 (2014) 51-58. I. Prathap and R. Anitha, "Robust and blind watermarking scheme for three dimensional anaglyph images," Elsevier Computers and Electrical Engineering 40 (2014) 51-58. Y. Gao. G.Cheung, T. Maugey, P. Frossard, and J. Liang, "Encoder-driven inpainting strategy in multiview video compression." IEEE Trans. on Image Processing, Vol. 25, No. 1, pp. 134-149, Jan. 2016. Y. Gao. G. Cheung, T. Maugey, P. Frossard, and J. Liang, "Encoder-driven inpainting strategy in multiview video compression." IEEE Trans. on Image Processing, Vol. 25, No. 1, pp. 134-149, Jan. 2016. 이용석, 김동욱, 서영호, " 해상도에 따른 DWT 기반 디지털 영상의 강인성 블라인드 워터마킹," 한국방송공학회 논문지, 제20권, 제6호, pp. 888-900, 2015년 11월. (Y-S. Lee, D-W. Kim, Y-H. Seo, "A Robust Blind Watermarking for Digital Image Using DWT According to its Resolution," J of Broadcast Engineering, Vol. 20, No. 6, pp. 888-900, Nov. 2015.)  "Robustness of DWT-based Digital Images by Resolution, Blind Watermarking," Journal of Broadcast Engineering, Vol. 20, No. 6, pp. 888-900, November 2015. (Y. Lee, DW Kim, YH Seo, "A Robust Blind Watermarking for Digital Image Using DWT," J. of Broadcast Engineering, Vol. 20, No. 6, pp. 888-900, Nov. 2015.) W, Stalling, Cryptography and network security, 6th Ed., Pearson, 2014. W, Stalling, Cryptography and Network Security, 6th Ed., Pearson, 2014. http://www.newwaveinstruments.com/resources/articles/ m_sequence_linear_feedback_shift_register_lfsr.htm  http://www.newwaveinstruments.com/resources/articles/ m_sequence_linear_feedback_shift_register_lfsr.htm http://research.microsoft.com/en-us/downloads/5e4675af-03f4-4b16-b3bc-a85c5bafb21d/ http://research.microsoft.com/en-us/downloads/5e4675af-03f4-4b16-b3bc-a85c5bafb21d/ http://vision.middlebury.edu/stereo/data/ http://vision.middlebury.edu/stereo/data/

본 발명의 목적은 상술한 바와 같은 문제점을 해결하기 위한 것으로, 자유시점 2D 또는 3D 영상에서 깊이영상을 이용하여 깊이변화지도를 생성하고, 원 영상을 3 레벨 2DDWT를 수행하여 각 레벨의 LH 부대역에서 깊이변화지도를 참조하여 워터마킹할 위치를 결정하는, 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법을 제공하는 것이다.SUMMARY OF THE INVENTION The object of the present invention is to solve the above problems, and it is an object of the present invention to create a depth change map using a depth image in a free-view 2D or 3D image, The present invention provides a robust blind watermarking method of a DIBR attack using a depth change map, which determines a position to be watermarked by referring to a depth change map.

또한, 본 발명의 목적은 선형 양자화기를 사용하여 각 화소에 한 워터마크 비트를 삽입하되, 각 부대역의 에너지 값에 따라 양자화 스텝의 크기를 결정하고, 원 화소의 값과 삽입될 워터마크의 값에 따라 화소의 값을 변화시키는, 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법을 제공하는 것이다.According to another aspect of the present invention, there is provided a method of generating a watermarked image by inserting a watermark bit into each pixel using a linear quantizer, determining a size of a quantization step according to an energy value of each subband, To provide a robust blind watermarking method of a DIBR attack using a depth change map.

또한, 본 발명의 목적은 시점이동을 포함한 공격 후 워터마크를 추출할 때, 공격된 영상에서 원 워터마크 정보와의 상관도를 이용하여 가능한 후보들을 추출하고, 각 위치의 추출된 값들에서 통계적인 방법으로 최종 워터마크를 추출하여 결정하는, 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법을 제공하는 것이다.It is another object of the present invention to provide a method and apparatus for extracting possible candidates using a degree of correlation with an original watermark information in an attacked image when extracting a watermark after an attack including a viewpoint movement, The present invention provides a robust blind watermarking method of a DIBR attack using a depth change map in which a final watermark is extracted and determined.

상기 목적을 달성하기 위해 본 발명은 텍스쳐영상 및 깊이영상으로 구성된 텍스쳐 및 깊이 영상에 워터마크를 삽입하는, 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법에 관한 것으로서, (a) 상기 깊이영상에 수평과 수직의 각 방향으로 미분을 수행하여, 깊이변화맵(DVM)를 생성하는 단계; (b) 상기 텍스쳐영상에 대해 2DDWT(2-dimensional discrete wavelet transform)를 수행하여 부대역 영상을 생성하는 단계; (c) 상기 DVM을 서브샘플링하여 상기 부대역 영상과 동일한 해상도의 DVM 서브 영상을 생성하고, 상기 DVM 서브 영상에서 화소값을 이용하여 삽입 영역을 선정하여, 선정된 삽입 영역에 대응되는 상기 부대역 영상의 영역을, 워터마크를 삽입할 워터마크 삽입 영역으로 선정하는 단계; (d) 워터마크 데이터를 암호화 하는 단계; (e) 상기 부대역 영상의 상기 워터마크 삽입 영역에 상기 워터마크 데이터를 삽입하는 단계; 및, (f) 워터마크가 삽입된 부대역 영상으로 대체된 부대역 영상들을 역 2DDWT를 수행하여, 워터마킹된 텍스쳐 영상을 생성하는 단계를 포함하는 것을 특징으로 한다.In order to achieve the above object, the present invention provides a robust blind watermarking method of a DIBR attack using a depth change map for inserting a watermark into a texture and a depth image composed of a texture image and a depth image, Performing a differential in each of the horizontal and vertical directions to generate a depth variation map (DVM); (b) generating a sub-band image by performing a 2-dimensional discrete wavelet transform (2DDWT) on the texture image; (c) sub-sampling the DVM to generate a DVM sub-image having the same resolution as the sub-band image, selecting an insertion region using pixel values in the DVM sub-image, Selecting an area of the image as a watermark embedding area to embed a watermark; (d) encrypting the watermark data; (e) inserting the watermark data into the watermark embedding area of the sub-band image; And (f) generating a watermarked texture image by performing inverse 2DDWT on sub-band images in which watermarked sub-band images have been replaced.

또, 본 발명은 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법에 있어서, 상기 (a)단계에서, 상기 깊이영상에 수평과 수직의 각 방향으로 미분을 수행하고, 미분한 결과 영상의 각 화소에서 소정의 범위 내 미분값들을 누적 덧셈하여 미분누적맵(DDAM)을 생성하고, 상기 DDAM 영상의 각 화소에서 소정의 영역을 평균하여 깊이변화맵(DVM)을 생성하는 것을 특징으로 한다.Further, the present invention provides a robust blind watermarking method of a DIBR attack using a depth change map, wherein in the step (a), differentiations are performed in the horizontal direction and the vertical direction on the depth image, (DDM) by accumulating differential values within a predetermined range in a pixel, and generating a depth variation map (DVM) by averaging a predetermined area in each pixel of the DDAM image.

또, 본 발명은 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법에 있어서, 상기 (a)단계에서, 상기 깊이영상에 미디언 필터링을 수행한 후, 상기 깊이영상을 미분하는 것을 특징으로 한다.Further, the present invention is a robust blind watermarking method of a DIBR attack using a depth change map, wherein the depth image is differentiated after performing median filtering on the depth image in the step (a) .

또, 본 발명은 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법에 있어서, 상기 (a)단계에서, 상기 미분한 결과 영상의 각 화소에서 우하쪽에서 소정의 범위 화소들의 미분값들을 누적 덧셈하여 미분누적맵을 생성하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a robust blind watermarking method for a DIBR attack using a depth variation map, wherein in the step (a), differential values of pixels within a predetermined range from the lower right in each pixel of the differentiated result image are cumulatively added And generates a differential cumulative map.

또, 본 발명은 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법에 있어서, 상기 텍스쳐영상이 RGB영상인 경우, 상기 RGB영상을 YCbCr영상으로 변환하여, Y(휘도) 영상으로부터 부대역 영상을 생성하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a robust blind watermarking method of a DIBR attack using a depth change map, wherein when the texture image is an RGB image, the RGB image is converted into a YCbCr image, .

또, 본 발명은 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법에 있어서, 상기 텍스쳐영상에 대하여 2DDWT 변환을 총 3레벨을 수행하여, 각 레벨 2DDWT 결과 중 LH 부대역 영상에 워터마크를 삽입하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a robust blind watermarking method of a DIBR attack using a depth change map, the method comprising the steps of: performing three levels of 2DDWT transformation on the texture image; inserting a watermark in the LH sub- .

또, 본 발명은 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법에 있어서, 상기 (c)단계에서, 상기 DVM 서브 영상에서 화소값이 가장 작은 순으로, 해당 화소 및 이를 포함하는 소정의 범위를 삽입 영역으로 선정하되, 선정된 삽입 영역을 제외한 나머지 서브 영상에서 화소값이 가장 작은 화소를 포함하는 영역을 삽입 영역으로 선정하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a robust blind watermarking method for a DIBR attack using a depth change map, the method comprising the steps of: (c) Is selected as the insertion region, and the region including the pixel having the smallest pixel value in the remaining sub-images excluding the selected insertion region is selected as the insertion region.

또, 본 발명은 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법에 있어서, 상기 (c)단계에서, 상기 워터마크 삽입 영역의 개수는 해당 부대역 영상의 총 화소수에 대해 워터마크 삽입 영역에 삽입되는 화소수의 비가 사전에 정해진 비율 이하가 되도록 정하는 것을 특징으로 한다.In the robust blind watermarking method of the DIBR attack using the depth change map, the number of the watermark embedding areas may be set to be the same as the number of the watermark embedding areas So that the ratio of the number of pixels to be inserted into the pixel is less than or equal to a predetermined ratio.

또, 본 발명은 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법에 있어서, 상기 (d)단계에서, 상기 워터마크 데이터를 선형귀환쉬프트레지스터(LFSR)의 출력과 XOR(exclusive-OR)하여 암호화 하는 것을 특징으로 한다.In another aspect of the present invention, there is provided a robust blind watermarking method for a DIBR attack using a depth change map, wherein in step (d), the watermark data is XORed with the output of a linear feedback shift register (LFSR) .

또, 본 발명은 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법에 있어서, 상기 워터마크 데이터는 비트 데이터로 구성되고, 상기 (e)단계에서, 상기 워터마크 데이터의 비트에 따라 해당 워터마크 삽입 영역의 화소의 화소값을 선형 양자화기에 의해 출력되는 값으로 대체하여, 워터마크를 삽입하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a robust blind watermarking method of a DIBR attack using a depth change map, wherein the watermark data is composed of bit data, and in the step (e) The watermark is inserted by replacing the pixel value of the pixel in the insertion area with a value output by the linear quantizer.

또, 본 발명은 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법에 있어서, 상기 선형 양자화기의 양자화 스텝은 각 레벨 부대역 영상의 가중 에너지 표준편차의 크기에 따라 결정되는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a robust blind watermarking method for a DIBR attack using a depth change map, wherein a quantization step of the linear quantizer is determined according to a magnitude of a weighted energy standard deviation of each level subband image.

또, 본 발명은 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법에 있어서, 상기 선형 양자화기의 양자화 스텝 △L은 다음 수식 1에 의해 구해지는 것을 특징으로 한다.Further, the present invention is characterized in that in the robust blind watermarking method of the DIBR attack using the depth change map, the quantization step DELTA L of the linear quantizer is obtained by the following equation (1).

[수식 1][Equation 1]

Figure pat00001
,
Figure pat00002
Figure pat00001
,
Figure pat00002

단, M, N은 각각 부대역 영역의 가로와 세로 크기를 나타내고, L은 2DDWT 레벨을 나타내고, ci는 부대역의 화소값을 나타내고, TL,l과 TL,h은 사전에 정해진 문턱치로서, TL,l < TL,h 임.L denotes a 2DDWT level, c i denotes a pixel value of a subband, T L, l and T L, h denote a predetermined threshold value T L, 1 < T L, h .

또, 본 발명은 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법에 있어서, 하나의 워터마크 삽입 영역의 크기를 상기 워터마크 데이터의 크기의 반으로 정하고, 다수의 워터마크 삽입 영역들에 상기 워터마크 데이터를 삽입할 때, 상기 워터마크 데이터를 반으로 나누어 교번하여 워터마크 삽입 영역에 삽입하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a robust blind watermarking method for a DIBR attack using a depth change map, wherein a size of one watermark embedding area is set to half the size of the watermark data, When inserting watermark data, the watermark data is divided in half and alternately inserted into the watermark embedding area.

또한, 본 발명은 워터마크가 삽입된 텍스쳐 및 깊이 영상에서 워터마크를 추출하는, 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법에 관한 것으로서, (g) 상기 텍스쳐영상에 대해 2DDWT(2-dimensional discrete wavelet transform)를 수행하여 부대역 영상을 생성하는 단계; (h) 워터마크 데이터를 암호화 하는 단계; (i) 상기 부대역 영상에 워터마크 값들을 추출하고, 상기 워터마크 데이터와 추출된 워터마크 값들의 유사성이 사전에 정해진 문턱치 보다 크면, 후보 워터마크로 결정하는 단계; (j) 상기 워터마크 후보들의 동일 위치의 값들을 이용하여, 최종 워터마크를 결정하는 단계; 및, (k) 상기 최종 워터마크를 복호화하는 단계를 포함하는 것을 특징으로 한다.The present invention also relates to a robust blind watermarking method of a DIBR attack using a depth change map for extracting a watermark from a watermark embedded texture and a depth image, dimensional discrete wavelet transform to generate a subband image; (h) encrypting the watermark data; (i) extracting watermark values in the sub-band image, and if the similarity between the watermark data and the extracted watermark values is greater than a predetermined threshold, determining the candidate watermark; (j) using the values of the same position of the watermark candidates to determine a final watermark; And (k) decoding the final watermark.

또, 본 발명은 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법에 있어서, 상기 후보 워터마크들의 동일한 위치의 각 화소에 대하여, 해당 위치의 값과 해당 NCC값을 곱하여 모두 더하고, 더한 값의 부호에 따라 최종 워터마크의 해당 위치의 화소값을 결정하는 것을 특징으로 한다.In the robust blind watermarking method of the DIBR attack using the depth change map, the value of the corresponding position is multiplied by the corresponding NCC value for each pixel at the same position of the candidate watermarks, And the pixel value of the corresponding position of the final watermark is determined according to the sign.

또한, 본 발명은 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법을 수행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.The present invention also relates to a computer-readable recording medium on which a program for performing a robust blind watermarking method of a DIBR attack using a depth change map is recorded.

상술한 바와 같이, 본 발명에 따른 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법에 의하면, 기존의 방법들에 비해 삽입한 워터마크 정보의 비가시성이 뛰어나고, 고려한 시점이동 공격에 대해서는 BER(bit error ratio)이 거의 모두 0에 가까운 값을 보여 기존의 방법들보다 매우 우수한 성능을 가지는 효과가 얻어진다.As described above, according to the robust blind watermarking method of the DIBR attack using the depth change map according to the present invention, the nonvisibility of the inserted watermark information is excellent compared with the existing methods, and the BER bit error ratio) is almost 0, which is superior to the conventional methods.

또한, 본 발명에 따른 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법에 의하면, 시점이동 후 추가로 가한 공격들에서도 원영상을 크게 훼손시키지 않는 범위 내에서 기존의 방법들보다 우수한 성능을 가지는 효과가 얻어진다.In addition, according to the robust blind watermarking method of the DIBR attack using the depth change map according to the present invention, even in the additional attacks after the viewpoint movement, within a range that does not significantly deteriorate the original image, Effect is obtained.

또한, 본 발명에 따른 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법에 의하면, 자유시점 영상 렌더링의 환경에서 우수한 워터마크 정보의 비가시성과 시점이동 및 추가 공격에 대한 강인성을 갖고 고부가가치의 콘텐츠인 영상 콘텐츠에 대한 지적재산권 보호에 유용하게 사용될 수 있는 효과가 얻어진다.In addition, according to the robust blind watermarking method of the DIBR attack using the depth change map according to the present invention, it is possible to improve the visibility of the watermark information in the free-view image rendering environment, There is obtained an advantageous effect that can be effectively used for protection of intellectual property rights on image contents which are contents.

도 1은 본 발명을 실시하기 위한 전체 시스템의 구성을 도시한 도면.
도 2는 본 발명에서 사용하는 핀홀 카메라 모델을 나타낸 도면.
도 3은 본 발명에서 사용하는 홀필링 방법의 예시도로서, (a) 원영상, (b) 시점이동 영상, (c) 홀필링된 영상에 대한 예시도.
도 4는 본 발명에 따른 시점이동이 WM 추출에 미치는 영향의 예시 영상으로서, (a) 원영상, (b) 깊이영상, (c) 좌측으로 5% 시점이동한 결과, (d) 사용한 WM, (e) 시점이동한 영상에서 추출한 WM정보, (f) 시점복원 후 추출한 WM정보의 예시 영상.
도 5는 본 발명의 일실시예에 따른 디지털 워터마크 삽입 과정을 설명하는 흐름도.
도 6은 본 발명의 일실시예에 따른 워터마크(WM) 삽입 과정을 설명하는 세부 흐름도.
도 7은 본 발명의 일실시예에 따른 DVM 생성 과정을 설명하는 세부 흐름도.
도 8은 본 발명의 일실시예에 따른 워터마킹 위치 선정 방법을 설명하는 슈도코드(pseudo code).
도 9는 본 발명의 일실시예에 따라 사용한 LFSR의 구성도.
도 10은 본 발명의 일실시예에 따른 WM 삽입을 위한 양자화기를 나타낸 그래프.
도 11은 본 발명의 일실시예에 따른 WM 삽입을 위한 양자화기를 나타낸 수학식.
도 12는 본 발명의 일실시예에 따른 WM 추출과정을 설명하는 흐름도.
도 13은 본 발명의 일실시예에 따른 WM 추출과정을 설명하는 세부 흐름도.
도 14는 본 발명의 일실시예에 따른 WM 데이터 추출과정을 설명하는 슈도코드(pseudo code).
도 15는 본 발명의 실험에 따라 사용한 테스트 영상들을 나타낸 표.
도 16은 본 발명의 실험에 따라 사용한 파라미터 값들을 나타낸 표.
도 17은 본 발명의 실험에 따라 고려한 공격들을 나타낸 표.
도 18은 본 발명의 실험에 따른 본 발명 방법의 주요 과정의 결과 영상의 예시도로서, (a) 원 컬러영상, (b) 원 깊이영상, (c) Y성분에 대한 3 레벨 2DDWT한 결과, (d) 레벨에 따라 sub-sampling한 DVM, (e) baseline distance 5% 시점이동과 JPEG quality 70/100 공격을 가한 영상, (f) 부대역별 추출한 WM 데이터, 원 WM, 그리고 최종 추출한 WM에 대한 결과 영상.
도 19은 본 발명의 실험에 따라 비교할 종래 방법들을 나타낸 표.
도 20은 본 발명의 실험에 따른 WM 삽입 후영상의 화질 비교를 나타낸 표.
도 21은 본 발명의 실험에 따른 실험결과의 비교 그래프로서, (a) 시점이동 공격, (b) 시점이동+JPEG압축 공격, (c) 시점이동+가우션 잡음첨가 공격, (d) 시점이동+미디언 필터링 공격, (e) 시점이동+스케일링 공격, (f) 시점이동+회전 공격, (g) 시점이동+matrix affine 변환 공격를 나타낸 그래프.
도 22는 본 발명의 실험에 따른 공격후 영상의 예로서, (a) 원 영상, (b) JPEG 압축 화질 40/100, (c) 가우션 잡음 3% 첨가, (d) 9×9 미디언 필터링에 대한 결과 영상.
BRIEF DESCRIPTION OF THE DRAWINGS Fig. 1 is a diagram showing a configuration of an overall system for carrying out the present invention; Fig.
2 is a view showing a pinhole camera model used in the present invention.
FIG. 3 is a diagram illustrating an example of a hole filling method used in the present invention, which is an example of (a) an original image, (b) a viewpoint moving image, and (c) a hole-filled image.
FIG. 4 shows an example of the effect of the viewpoint movement according to the present invention on the WM extraction. FIG. 4 (a) shows the original image, (b) (e) WM information extracted from the viewpoint moving image, and (f) example image of the WM information extracted after the viewpoint restoration.
FIG. 5 is a flowchart illustrating a digital watermark embedding process according to an embodiment of the present invention. FIG.
FIG. 6 is a detailed flowchart illustrating a process of inserting a watermark WM according to an embodiment of the present invention; FIG.
7 is a detailed flowchart illustrating a DVM generation process according to an embodiment of the present invention.
8 is a pseudo code illustrating a method of selecting a watermarking position according to an embodiment of the present invention.
9 is a configuration diagram of an LFSR used in accordance with an embodiment of the present invention;
10 is a graph illustrating a quantizer for WM insertion according to an embodiment of the present invention.
11 is a diagram illustrating a quantizer for WM insertion according to an embodiment of the present invention.
12 is a flowchart illustrating a WM extraction process according to an embodiment of the present invention.
13 is a detailed flowchart illustrating a WM extraction process according to an embodiment of the present invention.
FIG. 14 is a pseudo code for explaining a process of extracting WM data according to an embodiment of the present invention; FIG.
15 is a table showing test images used according to the experiment of the present invention.
16 is a table showing parameter values used according to the experiment of the present invention.
17 is a table showing attacks considered according to the experiment of the present invention.
18 is a diagram illustrating a result image of a main process of the method according to an embodiment of the present invention, wherein (a) is a circle color image, (b) is a circle depth image, (c) (d) DVM sub-sampled at each level, (e) baseline distance 5% point-in-time and JPEG quality 70/100 attack, (f) WM data extracted by sub-band, Result image.
19 is a table showing conventional methods to be compared according to the experiment of the present invention.
20 is a table showing the image quality comparison after the WM insertion according to the experiment of the present invention.
FIG. 21 is a comparative graph of experimental results according to the experiment of the present invention. FIG. 21 is a graph showing a comparison of experimental results of (a) a point-of-view attack, (b) (F) point of view + rotation, (g) point of view + matrix affine transformation attack.
FIG. 22 shows an example of the post-attack image according to the experiment of the present invention, in which (a) an original image, (b) JPEG compression image quality 40/100, (c) Result image for filtering.

이하, 본 발명의 실시를 위한 구체적인 내용을 도면에 따라서 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the drawings.

또한, 본 발명을 설명하는데 있어서 동일 부분은 동일 부호를 붙이고, 그 반복 설명은 생략한다.In the description of the present invention, the same parts are denoted by the same reference numerals, and repetitive description thereof will be omitted.

먼저, 본 발명을 실시하기 위한 전체 시스템의 구성의 예들에 대하여 도 1을 참조하여 설명한다.First, examples of the configuration of the entire system for carrying out the present invention will be described with reference to Fig.

도 1a에서 보는 바와 같이, 본 발명을 실시하기 위한 전체 시스템은 텍스쳐 및 깊이 영상(10)에 워터마크를 삽입하는 위터마킹 장치(또는 워터마크 삽입 장치)(30), 및, 워터마크가 삽입된 영상(또는 워터마크 영상)(40)으로부터 워터마크를 추출하는 워터마크 추출 장치(60)로 구성된다.1A, the overall system for embodying the present invention includes a watermarking apparatus (or a watermark embedding apparatus) 30 for inserting a watermark into a texture and a depth image 10, And a watermark extracting device 60 for extracting a watermark from a video (or watermark video)

특히, 도 1b에서 보는 바와 같이, 워터마크 삽입 장치(30)는 컴퓨터 단말(20) 상의 프로그램 시스템으로 실시될 수 있다. 즉, 본 발명에 따른 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법은 텍스쳐 및 깊이 영상(10)을 입력받아 상기 영상(10)에 워터마킹을 수행하는 컴퓨터 단말(20) 상의 프로그램 시스템으로 실시될 수 있다. 즉, 상기 워터마킹 방법은 프로그램으로 구성되어 컴퓨터 단말(20)에 설치되어 실행될 수 있다. 컴퓨터 단말(20)에 설치된 프로그램은 하나의 프로그램 시스템(30)과 같이 동작할 수 있다.1B, the watermark embedding device 30 may be embodied as a program system on the computer terminal 20. [ That is, the robust blind watermarking method of the DIBR attack using the depth change map according to the present invention is a program system on the computer terminal 20 that receives the texture and depth image 10 and performs watermarking on the image 10 . That is, the watermarking method may be implemented by a program and installed in the computer terminal 20 and executed. A program installed in the computer terminal 20 can operate as a single program system 30. [

한편, 다른 실시예로서, 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법은 프로그램으로 구성되어 범용 컴퓨터에서 동작하는 것 외에 ASIC(주문형 반도체) 등 하나의 전자회로로 구성되어 실시될 수 있다. 또는 워터마킹만을 전용으로 처리하는 전용 컴퓨터 단말(20)로 개발될 수도 있다. 이를 디지털 워터마킹 장치(30)라 부르기로 한다. 그 외 가능한 다른 형태도 실시될 수 있다.Meanwhile, as another embodiment, the robust blind watermarking method of the DIBR attack using the depth change map may be implemented by a single electronic circuit such as an ASIC (on-demand semiconductor) other than the general purpose computer which is constituted by a program. Or dedicated computer terminal 20 for exclusive processing of watermarking only. This will be referred to as a digital watermarking device 30. Other possible forms may also be practiced.

또한, 워터마크 추출 장치(60) 또는 워터마크 추출 방법은 컴퓨터 단말 상의 프로그램 시스템이나, ASIC 등 하나의 전자회로, 또는 전용 컴퓨터 단말 등으로 구현될 수 있다.The watermark extracting apparatus 60 or the watermark extracting method may be implemented by a program system on a computer terminal, an electronic circuit such as an ASIC, or a dedicated computer terminal.

한편, 텍스쳐 및 깊이 영상(10)은 시간상으로 연속된 프레임으로 구성된다. 하나의 프레임은 하나의 이미지를 갖는다. 또한, 영상(10)은 하나의 프레임(또는 이미지)을 가질 수도 있다. 즉, 영상(10)은 하나의 이미지인 경우에도 해당된다.On the other hand, the texture and depth image 10 consist of consecutive frames in time. One frame has one image. Also, the image 10 may have one frame (or image). That is, the image 10 corresponds to one image.

본 발명에 따른 방법을 설명하기 전에, 본 발명에서 사용되는 DIBR에 의한 시점이동 영상 렌더링 방법 및, 시점이동이 DW에 미치는 영향 등에 대하여 도 2 내지 도 4를 참조하여 먼저 설명한다.Before describing the method according to the present invention, a viewpoint moving image rendering method using DIBR used in the present invention and an influence of view point movement on DW will be described first with reference to FIG. 2 to FIG.

먼저, DIBR(depth-image-based rendering)에 의한 시점이동에 대하여 설명한다.First, the viewpoint movement by depth-image-based rendering (DIBR) will be described.

도 2는 실세계의 점 M이 카메라의 영상평면 OI의 점 m에 맺히는 간단한 핀홀 카메라 모델을 보이고 있다. 도 2에서 OP는 광중심점 C를 포함한 평면, f는 초점거리(focal length)를 각각 나타내며, (X,Y,Z), (u,v,Z), (x,y,z)는 OP, OI, 실세계의 좌표계를 각각 나타낸다. DIBR은 영상에 맺힌 점 m을 실세계의 점 M으로 역투영한 후 원하는 영상평면 OI'의 해당 점 m'으로 재투영하는 방법으로 원하는 시점의 영상을 얻는다. 이 투영방법을 식으로 나타내면 수학식 1과 같다[비특허문헌 1].2 is the point M in the real world, showing a simple pin-hole camera model temperature may cause problems in the point m in the image plane I O of the camera. Denotes a O P is the plane containing the optical center C, f is the focal length (focal length) in Fig. 2, respectively, (X, Y, Z) , (u, v, Z), (x, y, z) is O P, O I, illustrates the coordinate system of the real world, respectively. DIBR obtains the image at the desired point by re-projecting the point m formed on the image back to the point M in the real world and then re-projecting to the corresponding point m 'of the desired image plane O I '. This projection method can be expressed by the following equation (1) [Non-Patent Document 1].

[수학식 1][Equation 1]

Figure pat00003
Figure pat00003

수학식 1은 실세계의 점 M의 좌표

Figure pat00004
에서 영상평면의 점 m의 좌표
Figure pat00005
으로 위치시키는 식이다. 여기서
Figure pat00006
는 카메라 캘리브레이션(calibration) 매트릭스로 카메라 내부 파리미터들을 포함하고 있고,
Figure pat00007
Figure pat00008
는 회전(rotation)과 수평이동(transition)의 외부 파라미터, 즉 카메라의 움직임과 관련된 파라미터들을 갖고 있다. 이렇게 한 영상의 점을 실세계 좌표계로 역투영한 다음 임의의 영상으로 재투영할 때는 재투영할 영상의 좌표계와 외부 파라미터들로 수학식 1의 역변환을 수행하면 된다.Equation (1) is the coordinate of the point M in the real world
Figure pat00004
The coordinates of the point m in the image plane
Figure pat00005
. here
Figure pat00006
Is a camera calibration matrix that contains parameters within the camera,
Figure pat00007
and
Figure pat00008
Has parameters related to the external parameters of the rotation and the horizontal transition, i.e., the movement of the camera. When the point of the image is reversed to the real world coordinate system and then re-projected into an arbitrary image, the inverse transformation of Equation 1 can be performed with the coordinate system and external parameters of the image to be re-projected.

DIBR로 시점이동 영상을 렌더링하면 원영상에는 있지만 시점이동된 영상에서는 사라지는 영역(폐색영역)과 원영상에 없던 영역이 나타나는 영역(비폐색영역)이 발생한다. 이 경우 비폐색영역은 원영상이 이 영역을 채울 정보를 갖고 있지 않기 때문에 이 영역은 빈 영역(hole)으로 남게 된다. 따라서 이 영역은 주위의 정보로 채워야 하는데, 이것을 홀필링(hole filling) 또는 인페인팅(inpainting)이라 한다[비특허문헌 19]. 홀필링은 지난 10여년 동안 3D 영상 렌더링에서 많은 연구가 진행되어 온 분야 중 하나이다. 도 3에 한 예를 보이고 있는데, (a)의 원영상을 우측으로 시점이동한 (b)영상에서 검게 나타난 부분이 홀영역이며, 이 영역을 채운 영상이 (c)영상이다. When a viewpoint moving image is rendered by the DIBR, a region (occlusion region) disappearing in the original image but moved in the viewpoint image and a region (non-occluded region) in which the region not present in the original image appears occur. In this case, since the original image has no information to fill the area, the non-occluded area remains as a hole. Therefore, this area must be filled with surrounding information, which is called hole filling or inpainting [Non-Patent Document 19]. Hall filling is one of the areas where 3D imaging has been studied in the past decade. FIG. 3 shows an example. In FIG. 3, the part of the image (b) in which the original image of (a) is shifted toward the right is a hole area, and the image filled with the area is image (c).

다음으로, 시점이동이 워터마킹에 미치는 영향에 대하여 설명한다.Next, the influence of the viewpoint movement on the watermarking will be described.

시점이동이 DW에 미치는 영향을 알아보기 위해서 원영상에 WM를 삽입하고 시점이동한 후 WM를 추출하는 실험을 진행하였으며, 그 중 한 예를 도 4에 보이고 있다. WM를 삽입하는 위치는 시점이동의 영향을 보기 위해 영상에 전역적으로 동일한 WM를 중복적으로 삽입하였으며, 각 화소에 WM를 삽입하는 방법은 [비특허문헌 20]의 방법과 같다. 영상의 전역적 위치는 몰렛트리(Mallat-tree) 2DDWT(2-dimensional discrete wavelet transform)를 3 레벨 수행한 후 네 부대역의 각 화소 당 한 개의 WM 비트를 삽입하였다. 그 후 좌측으로 5% 시점이동을 수행하고 그 결과 영상에 대해 WM를 추출하였다.In order to investigate the effect of the viewpoint movement on DW, WM was inserted in the original image, and the WM was extracted after moving the viewpoint. One example of the experiment is shown in FIG. In order to see the effect of the viewpoint movement, the position where the WM is inserted is globally identical to the WM, and the method of inserting WM into each pixel is the same as that of the non-patent document 20. The global position of the image is three levels of a Mallat-tree 2DDWT (two-dimensional discrete wavelet transform), and one WM bit is inserted for each pixel of four sub-bands. Then, 5% viewpoint movement was performed to the left, and WM was extracted from the resultant image.

도 4(a)는 512×512의 원영상을 3-레벨 몰렛트리(Mallat-tree) 2DDWT를 수행한 후 LL3, HL3, LH3, HH3(각 부대역의 해상도는 64×64)의 각 화소당 32×32 WM('DDNT' 이진 로고 영상)의 한 비트씩을 삽입하여 각 부대역 당 4개의 WM가 삽입된 영상이다. 이 영상을 (b)의 깊이정보로 시점이동한 영상이 (c)이며, 이 영상으로부터 WM를 추출한 결과가 (e)이다. 그림에서 보는 바와 같이, 다른 공격을 가하지 않았음에도 불구하고 대부분의 WM 데이터가 제대로 추출되지 않는 것을 볼 수 있다. 그 중에서 가장 많은 양이 제대로 추출되는 부대역이 LH3이었으며, 이런 경향성은 다른 영상에 대한 실험에서도 같았다.4A is a diagram illustrating an example of an original image of 512 × 512 divided by a pixel of LL3, HL3, LH3, and HH3 (resolution of each subband is 64 × 64) after performing a 3-level Mallat-tree 2DDWT 4 WMs are inserted for each subband by inserting one bit of 32 × 32 WM ('DDNT' binary logo image). (C) is an image obtained by moving this image to the depth information of (b), and the result of extracting WM from this image is (e). As you can see in the figure, you can see that most of the WM data is not extracted properly even though no other attack is applied. LH3 was the subband in which the greatest amount was extracted properly, and this tendency was the same in the experiments on other images.

도 4(b)의 시점이동한 영상을 깊이영상을 이용하여 원 시점으로 다시 시점이동하고, 그 결과 영상으로 WM를 추출한 결과를 도 4(f)에 보이고 있다. 이 결과에서 모든 부대역에서 좌측이 우측보다 추출한 WM정보가 훨씬 정확한 것을 볼 수 있는데, 이것은 원 영상의 물체 중 좌측의 물체들의 거리가 멀어 시점이동하여도 화소의 위치가 거의 변하지 않기 때문이다. 도 4(e)와 (f)를 비교하면 원시점으로 이동한 후 WM를 추출하는 것이 훨씬 정확한 WM정보를 얻을 수 있다는 것을 알 수 있는데, 이를 위해서는 깊이영상이 필요할 뿐 아니라 이동된 시점을 알아야 깊이영상 차제를 (b)의 시점으로 이동한 후 영상을 다시 원 시점으로 되돌릴 수 있다. 본 발명에서는 블라인드(blind) DW 방법을 고려하므로 이 방법으로 WM를 추출할 수는 없다. FIG. 4 (f) shows the result of moving the point-in-time image of FIG. 4 (b) back to the original point by using the depth image and extracting WM as the resultant image. From this result, it can be seen that the WM information extracted from the right side of the left side in all the subbands is much more accurate because the position of the pixel does not change even if the distance of the objects on the left side of the original image is large. 4 (e) and (f), it can be seen that WM information can be obtained more accurately by extracting WM after moving to the original point. In order to do this, not only depth image is necessary but also depth After moving the image difference to the viewpoint of (b), the image can be returned back to the original viewpoint. Since the blind DW method is considered in the present invention, WM can not be extracted by this method.

다음으로, 본 발명의 일실시예에 따른 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법을 설명한다. 본 발명에 따른 DW방법은 영상에 워터마크를 삽입하는 디지털 워터마크(WM) 삽입 방법과, 디지털 워터마크 추출 방법으로 구성된다.Next, a robust blind watermarking method of a DIBR attack using a depth change map according to an embodiment of the present invention will be described. The DW method according to the present invention comprises a digital watermark (WM) insertion method for inserting a watermark into an image and a digital watermark extraction method.

먼저, 본 발명의 제1 실시예에 따른 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 디지털 워터마크(WM) 삽입방법을 도 5 내지 도 6을 참조하여 설명한다. 도 5 및 도 6은 본 발명에 따른 디지털 워터마크(WM) 삽입 방법에 대한 전체적인 흐름도를 보여준다.First, a robust blind digital watermark (WM) insertion method of a DIBR attack using a depth change map according to the first embodiment of the present invention will be described with reference to FIG. 5 to FIG. 5 and 6 show an overall flowchart of a digital watermark (WM) embedding method according to the present invention.

도 5에서 보는 바와 같이, 본 발명에 따른 워터마크 삽입 방법은 (a) 깊이변화맵(DVM)을 생성하는 단계(S10), (b) 텍스쳐 영상에 2DDWT를 수행하여 부대역 영상을 획득하는 단계(S20), (c) 워터마크(WM) 위치를 선정하는 단계(S30), (d) WM 데이터를 암호화하는 단계(S40), (e) 워터마크(WM)를 삽입하는 단계(S50), (f) 부대역 영상에서 워터마킹된 영상으로 복원하는 단계(S60)로 구성된다.5, a watermark embedding method according to the present invention includes the steps of (a) generating a depth variation map (DVM) (S10), (b) performing a 2DDWT on a texture image to obtain a sub- A step S30 of selecting the position of the watermark WM, a step S40 of encrypting the WM data, a step S50 of inserting the watermark WM, (f) restoring the watermarked image in the sub-band image (S60).

세부적인 방법이 도 6에 도시되고 있다.A detailed method is shown in Fig.

본 발명에 따른 디지털 워터마크 삽입 과정은 깊이영상을 이용하여 시점이동 시 위치가 가장 변하지 않는 영역을 찾는다. 한편 원 텍스쳐 영상은 2DDWT를 3 레벨 수행하며, 각 레벨에서 깊이정보를 이용하여 시점이동이 작은 영역에 WM 정보를 삽입한다.In the digital watermark embedding process according to the present invention, a region in which the position is most unchanged at the time of viewpoint movement is searched using the depth image. On the other hand, the original texture image performs 2DDWT at three levels, and the WM information is inserted in a small area of view movement using depth information at each level.

먼저, 깊이 변화 맵(Depth Variation Map, DVM)을 생성한다(S10). 즉, 깊이영상을 사용하여 시점이동에도 위치가 변하지 않을 영역을 찾는다. 깊이변화 맵(DVM)을 생성하는 세부 단계들이 도 7에 나타나고 있다. First, a depth variation map (DVM) is generated (S10). That is, the depth image is used to find an area where the position will not change even when the viewpoint is moved. The detailed steps for creating a depth variation map (DVM) are shown in FIG.

먼저 깊이영상을 B×B 단위(B는 3이상 자연수)로 미디언(median) 필터링을 수행한다(S11). 이것은 기본적으로 깊이영상이 완전하다고 가정할 수도 있지만, 어떤 경우는 깊이영상에 홀이 포함되어 있는 경우도 있어서 이 홀들을 없애기 위해 사용한다. 그러나 홀이 없는 경우에 있어서도 실험결과 필터링을 수행한 경우가 수행하지 않은 경우보다 성능이 좋았다. First, median filtering is performed on the depth image in B × B units (B is a natural number of 3 or more) (S11). This may basically be assumed that the depth image is complete, but in some cases, the depth image may contain holes, which are used to eliminate the holes. However, even when there is no hole, the performance is better than that in the case where the experiment result filtering is performed.

바람직하게는, 9×9 단위의 필터링을 수행한다. 실험을 통해, B×B 단위의 필터링 중에서 9×9 단위의 필터링이 가장 좋은 성능을 보였다.Preferably, filtering of 9x9 units is performed. Experiments show that the filtering of 9 × 9 units in B × B filtering is the best.

필터링 한 결과 영상을 수평과 수직의 각 방향으로 미분(2차원 미분)을 수행한다(S12). 수학식 2는 (x,y) 위치에서의 2차원 미분한 결과 식을 나타내고 있다. The filtered resultant image is subjected to differential (two-dimensional differential) in each direction of horizontal and vertical directions (S12). Equation (2) represents a two-dimensional differentiation result expression at (x, y) position.

[수학식 2]&Quot; (2) &quot;

Figure pat00009
Figure pat00009

다음으로, 미분결과로부터 깊이 미분 누적 맵(depth derivative accumulation map, DDAM)을 형성한다(S13). 즉, 수학식 3과 같이, 특정 위치 (x,y)의 DDAM값 DDAM(x,y)는 그 위치값을 포함한 우하쪽 p×q 화소의 미분값(g(i,j))들을 누적덧셈하여 형성한다. 여기서 p×q는 2진 WM의 해상도이다.Next, a depth derivative accumulation map (DDAM) is formed from the differential result (S13). That is, the DDAM value DDAM (x, y) of the specific position (x, y) is calculated by accumulating the differential values g (i, j) . Where p x q is the resolution of the binary WM.

[수학식 3]&Quot; (3) &quot;

Figure pat00010
Figure pat00010

앞서 수학식에 보는 바와 같이, 미분누적맵은 일정 영역의 특성을 대표하기 위해 한 화소에 대하여 누적 덧셈하는 것이다. 이때, 누적되는 화소의 위치는 일정 영역의 좌상단일 필요는 없지만, 워터마크 삽입을 위해 영역 좌표를 복원하는 기술적 구현의 편의성을 고려하여 정한다.As shown in the above equation, the differential cumulative map is a cumulative addition for one pixel to represent the characteristics of a certain region. At this time, the positions of accumulated pixels are not required to be left-upper single of a certain region, but are determined in consideration of the convenience of technical implementation for restoring area coordinates for watermark insertion.

마지막으로 깊이 변화 맵(depth variation map, DVM)을 생성한다(S14).Finally, a depth variation map (DVM) is generated (S14).

수학식 4와 같이 특정 위치의 DDAM값 DVM(x,y)는 그 위치를 중심으로 3×3 영역의 DDAM 평균값이다.As shown in Equation (4), the DDAM value DVM (x, y) at a specific position is a DDAM average value in a 3x3 region centering on the position.

[수학식 4]&Quot; (4) &quot;

Figure pat00011
Figure pat00011

다음으로, 텍스쳐영상에 대해 2DDWT(2-dimensional discrete wavelet transform)를 수행하여 부대역 영상을 생성한다(S20).Next, sub-band images are generated by performing 2DDWT (2-dimensional discrete wavelet transform) on the texture image (S20).

바람직하게는, 원 RGB영상은 YCbCr영상으로 변환하고, Y영상에 대해 2DDWT를 수행한다. 총 3 레벨을 수행하며, 각 레벨 2DDWT 결과 중 LH 부대역(LH1, LH2, LH3)에 워터마크를 삽입하게 된다. LH1, LH2, LH3은 각각 1-레벨, 2-레벨, 3-레벨의 LH 부대역 영역을 말한다. 2DDWT를 수행하면 나오는 LL, HL, LH, HH 부대역 중 LH 부대역을 선정한 이유는 LH 부대역 영역이 다른 부대역 영역에 비해 가로방향 잡음에 강인하기 때문이다.Preferably, the original RGB image is converted into a YCbCr image, and the 2D image is performed on the Y image. And the watermark is inserted into the LH subbands (LH1, LH2, LH3) of the 2DDWT results of each level. LH1, LH2, and LH3 denote LH subband regions of 1-level, 2-level, and 3-level, respectively. The reason for selecting the LH subband among the LL, HL, LH, and HH subbands derived from 2DDWT is that the LH subband region is robust to the horizontal noise as compared with the other subband regions.

다음으로, DVM을 이용하여, 워터마크(WM) 위치(또는 워터마크 삽입 영역)를 선정한다(S30).Next, the DVM is used to select the watermark (WM) position (or watermark embedding area) (S30).

워터마크를 삽입할 위치는 DVM을 사용하여 선정하는데, 각 레벨의 LH 부대역에 워터마크를 삽입할 위치는 그 전 DVM을 가로와 세로로 1/2 서브 샘플링(sub-sampling)한 결과(또는 DVM 서브 영상)를 사용한다. 예를 들어 M×N 해상도의 Y 영상과 동일 해상도의 깊이 영상을 가정하자. DVM(DVM0)은 원 영상 또는 깊이영상과 동일한 해상도를 갖는다. Y영상을 1-레벨 2DDWT하면 LH 부대역(LH1)은 M/2×N/2의 해상도를 갖고 가로와 세로로 각각 1/2 서브 샘플링(sub-sampling)한 DVM(DVM1)도 M/2×N/2의 해상도를 갖는다. 마찬가지로 2-레벨 2DDWT한 LH 부대역(LH2)과 DVM1을 서브샘플링(sub-sampling) 한 DVM2는 M/4×N/4, 3-레벨 2DDWT한 LH부대역(LH3)과 DVM2를 서브샘플링(sub-sampling) 한 DVM3는 M/8×N/8의 동일한 해상도를 갖는다.The location to insert the watermark is selected using the DVM, where the watermark is inserted in the LH subband of each level as a result of 1/2 sub-sampling of the previous DVM horizontally and vertically (or DVM sub-picture). Assume, for example, that a Y image of M × N resolution and a depth image of the same resolution. DVM (DVM 0 ) has the same resolution as the original image or depth image. The DVM 1 (DVM 1 ) having a resolution of M / 2 × N / 2 and 1/2 sub-sampling both horizontally and vertically is also used for the M / And has a resolution of 2 x N / 2. Similarly, the 2-level 2DDWT the LH subbands (LH2) and the DVM 1 sub-sampling (sub-sampling) a DVM 2 is M / 4 × N / 4, 3- a level 2DDWT LH subbands (LH3) and DVM 2 The DVM 3 sub-sampled has the same resolution of M / 8 x N / 8.

워터마킹 위치를 선정하는 방법은 도 8에 의사코드로 나타내었다. 본 발명에서는 삽입할 WM로 이진 로고(logo)와 같은 2진 p×q 데이터를 사용한다. 도 8은 i번째 2DDWT를 수행한 결과의 LHi 중 WM을 삽입할 위치를 선정하는 방법으로서, 해상도가 Mi×Ni = M/2i×N/2i(1≤i≤3))인 해당 DVMi를 입력으로 하여 WM 삽입위치의 집합 pos_WM을 출력한다.The method of selecting the watermarking position is shown in pseudo code in Fig. In the present invention, binary pxq data such as a binary logo is used as the WM to be inserted. 8 is a method for selecting a position to insert WM among the LHi as a result of performing the i-th 2DDWT, where the resolution is M i × N i = M / 2 i × N / 2 i (1≤i≤3) And outputs the set pos_WM of the WM insertion position with the DVM i as an input.

DVM의 이전 단계인 DDAM에서 우하측 영역의 특성을 대표하는 값으로 구성하였기에, DVM 탐색 영역을 의사코드와 같이 x≤Mi-p/2 이면서 y≤Ni-q 인 영역으로 정한다. 정해진 영역 중 깊이변화값이 가장 작은 위치부터 순차적으로 찾는다. 그 이유는 깊이변화값이 작다는 의미가 DIBR 수행시 주변 화소들과 그룹을 지어 변화하고, 화소 거리 이동간 차이로 인해 크랙이 발생할 가능성이 적기 때문이다. 깊이변화값이 작다는 것은 반드시 배경을 의미하는 것은 아니며 물체 내부의 영역을 포함하기도 한다.A case configured in the former stage of the DVM DDAM to a value that represents the characteristics of the lower right-side area, while x≤M i -p / 2 as the DVM search area and the pseudo-code determined by y≤N i -q-in area. And sequentially searches for a region having the smallest depth change value among the predetermined regions. This is because the meaning of the small depth change is changed by surrounding pixels and groups in the DIBR execution, and the possibility of cracking due to the difference of the pixel distance travel is small. The fact that the depth change value is small does not necessarily mean the background but also includes an area inside the object.

본 발명에서는 DVMi의 한 화소부터 WM를 세로로 2등분한 p/2×q개의 WM 화소를 삽입한다. 따라서 위치선정을 위해 탐색하는 범위(res_DVMi)는 가로방향 x≤Mi-p/2, 세로방향 y≤Ni-q이며, 한 위치를 선정하면 그 위치로부터 가로 p/2화소, 세로 q화소들은 다음 탐색범위에서 제외된다. WM 위치의 개수는 해당 부대역의 총 화소수에 대해 WM가 삽입되는 화소수의 비(fj)가 일정 비율(γi)을 넘지 않도록 하는데, 이것은 삽입되는 WM양을 각 레벨 부대역 영역에 맞게 제한하기 위함이다. γi 값은 각 레벨에 따라 다르며, 실험적으로 결정된다.In the present invention, p / 2 x q WM pixels obtained by vertically bisecting WM from one pixel of DVM i are inserted. Therefore, the search range (res_DVMi) for the location selection is horizontal direction x M i -p / 2 and vertical direction y N i -q. When one position is selected, horizontal p / 2 pixels and vertical q pixels Are excluded from the next search range. The number of WM positions is such that the ratio f j of the number of pixels into which the WM is inserted does not exceed a certain ratio y i to the total number of pixels of the corresponding subband, This is to limit it properly. The value of? i depends on each level and is determined experimentally.

다음으로, WM 데이터를 암호화 한다(S40).Next, the WM data is encrypted (S40).

즉, WM 데이터는 보안을 위해 먼저 데이터를 암호화하는 과정을 거친다. 데이터를 암호화하는 일반적인 방법은 암호화 알고리즘[비특허문헌 21]을 사용하는 것인데, 이런 알고리즘들의 복호화는 암호화된 데이터 중 한 비트만 변해도 완전히 다른 결과를 만들어낸다. 본 발명과 같이 공격에 의해 추출된 WM 데이터가 일부 또는 상당부분 변할 수 있는 경우는 이런 알고리즘으로 암호화를 할 수 없다. 따라서 본 발명에서는 도 9의 선형귀환쉬프트레지스터(linear feedback shift register, LFSR)[비특허문헌 22]를 사용한다. In other words, WM data is first encrypted for security. A common method of encrypting data is to use a cryptographic algorithm [Non-Patent Document 21], in which the decoding of these algorithms produces completely different results even if only one bit of the encrypted data changes. If the WM data extracted by the attack can be partially or substantially changed as in the present invention, such an algorithm can not encrypt the WM data. Therefore, in the present invention, a linear feedback shift register (LFSR) [Non-Patent Document 22] shown in FIG. 9 is used.

LFSR은 각 메모리 소자가 처음 갖고 있는 값(I1,I2,...Ik)와 각 메모리 소자 출력을 귀환시키는지 여부(b1,b2,...bk)에 의해 특성이 달라진다. 따라서 본 발명에서는 이 두 값들의 집합인 2k 비트를 암호화 키(key)로 사용한다(key={I1,I2,...Ik,b1,b2,...bk}). 이 LFSR로 데이터를 섞는 방법은 여러 가지가 가능하나, 본 발명에서는 LFSR의 직렬출력 fk,i와 WM 데이터(wi)를 비트끼리 XOR(exclusive-OR)하여 암호화된 WM 데이터(wi')을 얻는다.The LFSR is characterized by the first value (I 1 , I 2 , ... I k ) of each memory element and whether the output of each memory element is returned (b 1 , b 2 , ... b k ) It is different. Therefore, the present invention uses a set of 2k bits of the two values as the encryption key (key) (key = {I 1, I 2, ... I k, b 1, b 2, ... b k}) . However, in the present invention, the serial output f k, i of the LFSR and the WM data w i are exclusive-ORed with each other bit by bit so that the encrypted WM data w i ' ).

[수학식 5]&Quot; (5) &quot;

Figure pat00012
Figure pat00012

여기서, k는 LFSR의 레지스터 번호이다. 즉, k번째 레지스터에서 출력되는 값이 fk이다. 워터마크는 2진 p×q 인데, 워터마크 데이터(wi)에서 인덱스 i=1,2,..., p×q이다.Where k is the register number of the LFSR. That is, the value output from the k-th register f k. The watermark is binary p × q, and the index i = 1, 2,..., P × q in the watermark data w i .

다음으로, 워터마크(WM)를 삽입한다(S50).Next, the watermark WM is inserted (S50).

앞서 설명한 바와 같이, 삽입할 WM로 이진 로고(logo)와 같은 2진 p×q 데이터를 사용한다.As described above, binary p × q data such as a binary logo is used for WM to be inserted.

본 발명에서는 WM 데이터 한 비트 wi'를 한 화소값에 삽입한다. 앞에서 설명한 바와 같이 WM 위치로 선정된 DVM 각 비트에 대해 그 비트를 포함한 우하측 p/2×q개 화소에 세로로 2등분된 WM 데이터, 즉 p/2×q개의 WM 비트들이 삽입된다. 선정된 WM 위치를 따라 진행하면서 2등분된 WM 데이터의 좌측과 우측이 번갈아가며 삽입된다.In the present invention, one bit w i 'of WM data is inserted into one pixel value. As described above, for each DVM selected by the WM position, vertically bisected WM data, that is, p / 2 × q WM bits are inserted in the lower right p / 2 × q pixel including the bit. As it proceeds along the selected WM position, the left and right sides of the WM data are inserted alternately.

WM 한 비트를 한 화소에 삽입하는 방법은 도 10의 변형된 선형 양자화기를 사용한다. 도 10의 그래프에서 가로축은 WM 비트가 삽입 전(ci), 세로축은 WM 비트가 삽입된 후의 화소값(ci')이며, '0'과 '1'은 삽입된 WM 비트(wi')를 나타내고 있다. 이 양자화기를 이용하여 WM 비트를 삽입하는 방법은 화소값 ci가 위치한 양자화구간(k△L, k=±1,2,3,...)과 삽입할 WM 비트 wi'의 값에 따라 결정되는데, 이를 정리하여 나타내면 도 11과 같다.The method of inserting one bit of WM into one pixel uses the modified linear quantizer of FIG. In the graph of Fig. 10 the horizontal axis, and pixel values (c i), after the WM bit is inserted before (c i), and the vertical axis WM bit is inserted 0 'and' 1 'is inserted into the WM bit (w i' ). How to insert the WM bit by using a quantization is based on the value of the pixel value c i is a quantization interval (k △ L, k = ± 1,2,3, ...) and the WM bit w i 'to be inserted in And it is summarized as shown in FIG.

도 10에서 양자화 스텝 △L은 각 레벨(L=1,2,3) LH 부대역의 가중 에너지 표준편차의 크기에 따라 결정된다. 수학식 6의 가중 표준편차 EL을 두 개의 문턱치(TL,l: 낮은 값, TL,h: 높은 값)와 비교하여, TL,l보다 작으면 TL,l, TL,h보다 크면 TL,h, 두 문턱치 사이이면 가중 표준편차 EL을 각각 △L로 사용한다. 여기서 TL,l, TL,h, 가중치 △L은 실험적으로 결정한다.In FIG. 10, the quantization step? L is determined according to the magnitude of the weighted energy standard deviation of each level (L = 1, 2, 3) LH subband. A weighted standard deviation E L in the equation (6) with two threshold values as compared with the (T L, l:: low value, T L, h high value), is less than T L, l T L, l, T L, h is greater than the use to T L, h, two threshold values is a weighted standard deviation E L respectively between △ L. Where T L, l, T L, h, weight △ L is determined experimentally.

[수학식 6]&Quot; (6) &quot;

Figure pat00013
Figure pat00013

[수학식 7]&Quot; (7) &quot;

Figure pat00014
Figure pat00014

여기서, M, N은 각각 부대역 영역의 가로와 세로 크기를 나타내고, L은 레벨을 나타낸다.Here, M and N denote the horizontal and vertical sizes of the subband region, respectively, and L denotes the level.

다음으로, 워터마크가 삽입된 부대역 영상으로 대체된 부대역 영상들을 역 2DDWT를 수행하여, 워터마킹된 텍스쳐 영상을 생성한다(S60).Next, inverse 2DDWT is performed on the sub-band images in which the watermark is replaced with the sub-band image, and a watermarked texture image is generated (S60).

각 레벨의 LH 부대역에 WM를 모두 삽입한 후 WM가 삽입된 LH 부대역들과 다른 부대역들로 2DDWT 역변환을 3 레벨 수행하고, 그 결과의 Y성분과 원 Cb 및 Cr성분을 조합하여 RGB의 컬러영상으로 복원한다.After inserting WM into each LH subband of each level, it performs 3-level 2DDWT inversion with LH subbands and WMB inserted subbands, and combines the Y component and the Cb and Cr components of the result into RGB As shown in FIG.

다음으로, 본 발명의 제2 실시예에 따른 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 디지털 워터마크(WM) 추출방법을 도 12 내지 도 13을 참조하여 설명한다. 도 12 및 도 13은 본 발명에 따른 디지털 워터마크(WM) 추출 방법에 대한 전체적인 흐름도를 보여준다.Next, a robust blind digital watermark (WM) extraction method of a DIBR attack using a depth change map according to a second embodiment of the present invention will be described with reference to FIG. 12 to FIG. 12 and 13 show an overall flowchart of a digital watermark (WM) extraction method according to the present invention.

도 12에서 보는 바와 같이, 본 발명에 따른 워터마크 추출 방법은 (a) 텍스쳐영상에 2DDWT를 수행하여 부대역 영상을 생성하는 단계(S110), (b) 워타마크를 암호화 하는 단계(S120), (c) 부대역 영상에서 워터마크 데이터를 추출하는 단계(S30), (d) 워터마크를 형성하는 단계(S140), (e) 형성된 워터마크를 복호화 하는 단계(S150)로 구성된다.As shown in FIG. 12, a watermark extraction method according to the present invention includes the steps of (a) generating a subband image by performing 2DDWT on a texture image (S110), (b) encrypting a watermark, (c) a step (S30) of extracting watermark data from sub-band images, (d) a step of forming a watermark (S140), and (e) a step of decrypting the watermark formed (S150).

세부적인 방법이 도 13에 도시되고 있다.A detailed method is shown in Fig.

본 발명의 목적이 블라인드 워터마킹이므로 추출과정의 입력으로 시점이동을 포함한 악의적/비악의적 공격을 가한 RGB 컬러영상과 원 WM 데이터만을 사용하며, 원영상이나 원 깊이영상은 사용하지 않는다. 도 12 또는 도 13의 과정 중 입력영상에서 Y 성분을 추출하고 3 레벨 2DDWT를 수행하는 단계(S110), 그리고 WM를 암호화하는 단계(S120)는 삽입과정과 동일하므로 여기서는 LH 부대역으로부터 WM 데이터를 추출하는 단계(WM extraction), WM 형성 단계(WM formation), 그리고 복호화 단계(De-scrambling)만 설명한다. Since the object of the present invention is blind watermarking, only the RGB color image and the original WM data which are subjected to the malicious / non-malicious attack including the viewpoint movement are used as the input of the extraction process, and neither the original image nor the original depth image is used. In the process of FIG. 12 or FIG. 13, the step of extracting the Y component from the input image, performing the three-level 2DDWT (S110), and encrypting the WM (S120) are the same as the inserting process. Only WM extraction, WM formation, and De-scrambling are described.

먼저, 워터마크가 삽입된 텍스쳐 영상을 2DDWT를 수행하여 부대역 영상을 획득한다(S110). 특히, 텍스쳐영상이 RGB 컬러영상인 경우, RGB 컬러영상을 YCbCr영상으로 변환한다. 그리고, Y(휘도) 영상에 3 레벨 2DDWT를 수행하여, 부대역 영상을 생성한다.First, a texture image in which a watermark is embedded is subjected to 2DDWT to obtain a subband image (S110). In particular, when the texture image is an RGB color image, the RGB color image is converted into a YCbCr image. Then, a 3-level 2DDWT is performed on the Y (luminance) image to generate a sub-band image.

다음으로, 워터마크를 암호화 하여 암호화된 워터마크를 생성한다(S120). 앞서 제1 실시예의 워터마크의 암호화 방법과 동일하다. 생성되는 암호화 워터마크는 p×q의 암호화된 WM 데이터이다.Next, the watermark is encrypted to generate an encrypted watermark (S120). This is the same as the watermark encryption method of the first embodiment. The generated encryption watermark is p x q encrypted WM data.

다음으로, 생성된 부대역 영상에서 WM 데이터를 추출한다(S130).Next, WM data is extracted from the generated sub-band image (S130).

공격받은 영상으로부터 WM 데이터를 추출하는 과정을 도 14에 의사코드로 나타내었다. 이 단계는 공격받은 M×N영상에서 추출된 Y성분(Itest)과 암호화된 p×q의 원 WM 데이터(Wscr)을 입력으로 한다. Wscr는 p/2×q로 이등분하여 좌측(Wscr,l)과 우측(Wscr,r) 데이터를 구분하여 사용한다. WM를 삽입할 때 WM를 이등분한 좌측과 우측을 교번하여 삽입하였기 때문에 WM 데이터를 추출할 때도 Wscr,l와 Wscr,r를 사용하는 과정을 각각 수행한다(도 14의 변수 s). 또한 삽입할 때 2DDWT 레벨 1부터 3까지의 LH 부대역에 모두 삽입하였으므로 WM 데이터도 이들 부대역 각각에서 추출한다(도 14의의 변수 L).The process of extracting WM data from the attacked image is shown in pseudo code in FIG. This step inputs the Y component (I test ) extracted from the attacked M × N image and the original WM data (W scr ) encrypted with p × q. W scr is divided by p / 2 × q to use the left (W scr, l ) and right (W scr, r ) data separately. Since the left and right halves of WM are inserted alternately when WM is inserted, WM scratches are performed using W scr, l and W scr, r , respectively (FIG. 14, variable s). In addition, when inserted, all of the LH sub-bands of 2DDWT levels 1 to 3 are inserted, and WM data is also extracted from each of these sub-bands (variable L in FIG.

각 LH 부대역에 대해 Wscr,l 또는 Wscr,r(도 14에서는 W0)에 해당하는 WM 데이터를 추출하는 방법은 다음과 같다. 먼저 각 부대역의 화소값들을 도 10의 양자화기로 양자화하고 양자화 위치에 따른 WM 값들을 추출한다(QL(i,j)). 각 부대역의 화소값들의 양자화 구간에 따라 ‘0’과 ‘1’을 대표하는 워터마크가 다르다. 이를 도 10에 나타내었다. 따라서 화소값들을 양자화 스텝에 따라 양자화한다. 이 후 각 양자화된 화소값의 구간에 따라 워터마크 비트를 추출하고 이를 추출된 비트 영상 QL(i,j)로 나타내었다.A method for extracting WM data corresponding to W scr, l or W scr, r (W 0 in Fig. 14) for each LH subband is as follows. First, the pixel values of each subband are quantized by the quantizer of FIG. 10 and WM values according to the quantization positions are extracted (Q L (i, j)). The watermarks representing '0' and '1' are different according to the quantization interval of the pixel values of each subband. This is shown in Fig. Therefore, the pixel values are quantized according to the quantization step. Then, the watermark bit is extracted according to the interval of each quantized pixel value, and is represented by the extracted bit image QL (i, j).

그 다음 Wscr,l(Wscr,r)와 동일한 크기인 p/2×q 검색창을 그 부대역 QL(i,j)의 좌상위부터 레스터 스캔(raster scan)하면서 W0와 검색창의 화소값들 (QL(i~i+p/2,j~j+q))간 NCC값(vNCC)을 계산하는 것이다. 이 때 vNCC이 정해진 문턱치(TNCC)보다 크면 해당 검색창의 화소들을 WM 후보(Wext,k)로 하고 이들을 따로 저장한다({Wext}). 이 때 해당 vNCC값(vNCC,k)도 저장한다({vNCC}). 만약 vNCC가 100%이면, 모든 Wext,k을 버리고 {Wext}에 그 WM 후보만을 저장한 후 검색을 종료한다. 여기서, NCC는 정규화된 상호상관(Normalized Cross Correlation)으로서, 데이터 간의 유사도를 측정하는 지표이다.Then W scr, l (W scr, r) with the same size of p / 2 × q raster scan from upper left upper of the search window that subband Q L (i, j) ( raster scan) and W 0 and the search window, (V NCC ) between the pixel values Q L (i to i + p / 2, j to j + q). If v NCC is greater than the predetermined threshold (T NCC ), the pixels of the search window are set as WM candidates (W ext, k ) and stored separately ({W ext }). At this time, the corresponding v NCC value (v NCC, k ) is also stored ({v NCC }). If v NCC is 100%, discard all W ext, k and store the WM candidate in {W ext } and terminate the search. Here, the NCC is a normalized cross correlation, and is an index for measuring the similarity between data.

다음으로, 후보 WM 데이터들로부터 최종 WM 데이터를 형성한다(S140).Next, the final WM data is formed from the candidate WM data (S140).

추출된 WM 데이터 후보들로 최종의 WM 데이터를 형성한다. 먼저 각 WM 데이터 후보들에서 '0'으로 추출된 값들을 모두 '-1'로 교체한다(W'ext,k). W'ext,k 중 좌측 WM와 우측 WM 후보들은 좌측 후보군과 후측 후보군으로 구분하고, 각 후보군에서 해당 부분의 최종 WM 데이터를 결정한다.And forms the final WM data with the extracted WM data candidates. First, all values extracted as' 0 'from each WM data candidate are replaced with' -1 '(W' ext, k ). The left WM and right WM candidates of W ' ext, k are classified into a left candidate group and a rear candidate group, and the final WM data of the corresponding part is determined in each candidate group.

결정방법은, 수학식 8과 9에 보인 것과 같이, 먼저 WM의 위치 (i,j)에 대해 해당 후보군에 있는 각 W'ext,k(여기서는 총 K개의 후보가 추출되었다고 가정함)의 해당 위치의 값과 해당 NCC값 vNCC,k을 곱해서 모두 더한다(q(i,j)). 이 값이 음수이면 '0'으로, 양수이면 '1'로 의 최종 WM 데이터 값 w"(i,j)를 결정한다.As shown in Equations (8) and (9), the determination method is such that the position (i, j) of the WM is firstly calculated at the corresponding position of each W ' ext, k And the corresponding NCC value v NCC, k (q (i, j)). Determine the final WM data value w "(i, j) to '0' if this value is negative and to '1' if it is a positive value.

[수학식 8]&Quot; (8) &quot;

Figure pat00015
Figure pat00015

[수학식 9]&Quot; (9) &quot;

Figure pat00016
Figure pat00016

다음으로, WM 데이터를 복호화한다(S150).Next, the WM data is decoded (S150).

최종 결정된 WM 데이터는 복호화(de-scrambling)을 거쳐 최종 추출된 WM(w"')가 된다. 복호화는 암호화 때 사용한 도 9의 LFSR과 암호화 키를 그대로 사용하며, 수학식 10과 같이 LFSR의 직렬출력 fk,i과 최종 결정된 WM 데이터 w"를 비트간 XOR(exclusive-OR)한다. The final determined WM data is de-scrambled and finally extracted WM (w "'). The decryption uses the LFSR and encryption key of FIG. 9 used in encryption, XOR (exclusive-OR) between the output f k, i and the finally determined WM data w ".

[수학식 10]&Quot; (10) &quot;

Figure pat00017
Figure pat00017

다음으로, 본 발명의 효과를 실험을 통하여 설명한다.Next, the effects of the present invention will be described through experiments.

본 발명에 따른 방법에 대해 WM 삽입에 대한 비가시성과 시점이동을 포함한 다양한 공격에 대한 강인성을 테스트하기 위하여 실험을 진행하였다.For the method according to the present invention, an experiment was conducted to test robustness against various attacks including invisibility and viewpoint movement for WM insertion.

먼저, 실험환경을 설명한다.First, the experimental environment is explained.

본 발명에 따른 방법은 인텔코어 i7-2700K CPU와 16GB RAM을 장착한 PC에서 64-비트 Windows 7 Ultimate 환경으로 C/C++로 구현하였다. 실험에 사용한 테스트 영상은 도 15의 표에 보였다. 총 11개의 영상을 사용하였으며, 그 중 Breakdancer와 Ballet는 Microsoft사의 3D 비디오 데이터[비특허문헌 23]이고 나머지는 Middlebury의 스테레오스코픽 영상[비특허문헌 24]이다. 이 중 Breakdancer와 Ballet는 테스트 영상의 동질성을 피하기 위해 비디오 클립 중 첫 번째 영상만을 사용하였다.The method according to the present invention is implemented in C / C ++ in a 64-bit Windows 7 Ultimate environment on a PC equipped with an Intel Core i7-2700K CPU and 16GB RAM. The test images used in the experiment are shown in the table of FIG. Among them, Breakdancer and Ballet are 3D video data of Microsoft Corporation (non-patent document 23), and the rest are stereoscopic images of Middlebury (non-patent document 24). Among them, Breakdancer and Ballet use only the first image of the video clip to avoid the homogeneity of the test image.

도 16의 표에 실험적으로 결정되는 파라미터들의 값들을 나열하였다. WM는 32×32의 이진 로고영상을 사용하였고, 2DDWT 각 레벨의 LH부대역 화소 중 WM되는 화소의 비율(γi)은 삽입되는 WM의 비기시성을 기준으로 LH1은 13%, LH2는 7%, LH3는 5%로 각각 결정하였다. WM 삽입을 위한 양자화기의 양자화 스탭의 크기를 결정하는 에너지 표준편차의 상하 문턱치 TL,l과 TL,h는 모든 부대역 레벨에 동일하게 40과 46.7을 각각 사용하였다. WM 데이터를 추출할 때 사용하는 NCC의 문턱치 TNCC는 두 가지를 사용하였다. 먼저 본 발명에서 사용하는 32×32(1,024 비트) WM를 그대로 사용할 경우는 0.159로 하였는데, 뒤에서 언급할 기존 방법과의 비교를 위해 64-비트 WM을 사용할 때는 0.21로 하였다.The values of the parameters experimentally determined are listed in the table of FIG. WM uses 32 × 32 binary logo images, and the ratio (γ i ) of the WM pixels among the LH subband pixels at each level of 2DDWT is 13% for LH1 and 7% for LH2 based on the non- , And LH3 was 5%. The upper and lower thresholds T L, l and T L, h of the energy standard deviation, which determine the quantization step size of the quantizer for WM insertion, are 40 and 46.7, respectively , for all subband levels. The NCC threshold T NCC used for extracting WM data is two. First, when the 32 × 32 (1,024 bit) WM used in the present invention is used as it is, it is set to 0.159. For comparison with the conventional method described later, the value is set to 0.21 when the 64-bit WM is used.

본 발명에서 고려한 공격들의 종류와 강도를 도 17의 표에 나열하였다. 먼저 시점이동 공격은 baseline distance를 조절하는 방법으로 가했으며, 강도는 3%에서 7%까지로 하였다. 그 외의 공격으로는 JPEG압축, 가우션 잡음첨가, 미디언 필터링, 스케일링 공격이었으며, 이 공격들은 baseline distance 5%를 오른쪽으로 시점이동한 후 추가로 공격을 가하였다. 공격 중 matrix affine transform 공격은 [비특허문헌 13]에서 시도한 공격으로, 영상의 가로와 세로의 좌표계를 변화시켜 영상을 왜곡시키는 공격으로, 이 논문에서 고려한 총 8가지의 매트릭스를 모두 고려하였다.The types and intensities of attacks considered in the present invention are listed in the table of FIG. First, a point-of-view attack was applied to adjust the baseline distance and the intensity was from 3% to 7%. Other attacks were JPEG compression, Gaussian noise addition, median filtering, and scaling attacks. These attacks attacked after moving the baseline distance 5% to the right. During the attack, the matrix affine transform attack is an attack attempted in [Non-Patent Document 13], which is an attack that distorts the image by varying the horizontal and vertical coordinate system of the image. Therefore, all of the eight matrices considered in this paper are considered.

다음으로, 실험결과 및 기존 방법들과의 비교를 설명한다.Next, experimental results and comparison with existing methods will be described.

먼저 본 발명에 따른 방법의 주요 과정 결과물들을 도 18에 보였다. (a)와 (b)는 원 컬러영상과 깊이영상이며, (a)의 Y성분을 3 레벨 2DDWT한 결과가 (c)이다. (d)는 DVM을 2DDWT 레벨에 따라 서브샘플링(sub-sampling)하여 해당 LH 부대역에 나타낸 것이고, 이 영상에 WM하여 컬러영상으로 복원한 영상의 PSNR값은 49.05[비특허문헌 dB]이었다. (e)는 baseline distance의 5%에 해당하는 시점이동 공격 후 거기에 JPEG quality 70/100 공격을 추가로 가한 결과이며, 이 영상의 (a) 원영상에 대한 PSNR값은 13.86[비특허문헌 dB]이었다. (e) 영상을 대상으로 WM데이터를 추출한 결과를 각 부대역별로 나타낸 것이 (f)이며, 이 데이터로 형성한 최종의 추출 WM는 이 그림 HH1 부대역에 나타내었다. 원 WM를 이 그림의 HL1 부대역에 보이고 있는데, 원 WM에 대해 추출한 WM의 BER(bit error rate)는 0.1064, NCC값은 0.7624이었다.First, the main process results of the method according to the present invention are shown in FIG. (a) and (b) are the original color image and the depth image, and (c) the result of 2DDWT of the Y component of (a) at three levels. (d) shows the DVM sub-sampled according to the 2DDWT level and is shown in the corresponding LH subband. The PSNR value of the image reconstructed as WM by this WM is 49.05 (non-patent document dB). (a) the PSNR value for the original image is 13.86 [non-patent document dB (b)], and ]. (e) The WM data extracted from the image is shown by each subband (f). The final extraction WM formed by this data is shown in the subband of Fig. HH1. The original WM is shown in the HL1 subband of this figure. The bit error rate (BER) of the WM extracted for the original WM is 0.1064 and the NCC value is 0.7624.

본 발명에 따른 방법의 실험결과는 기존의 방법들의 실험결과와 비교하여 나타낸다. 비교대상 방법은 도 19의 표에 나열하였는데, 기본적으로는 [비특허문헌 12]와 [비특허문헌 13]의 두 방법이다. [비특허문헌 12]방법은 최대 시점이동 양을 예측하여 좌우로 최대 시점이동한 영상과 원영상에 WM하는 방법으로, 5,926 비트와 73 비트의 두 WM를 사용하였다. [비특허문헌 13] 방법은 DT-CWT라는 6 방향성을 부각시키는 변환방법을 제안하고, 3-레벨 변환 결과의 블록별 열방향 양자화 방법으로 64 비트의 WM정보를 삽입하는 방법이다. WM 비트수에 따라 성능의 차이가 있을 수 있으므로 제안한 방법도 기본적으로는 32×32의 1,024 비트 WM를 사용하나 비교를 위하여 64비트 WM에 대한 실험을 추가로 하였다. 참고문헌에서 다른 방법들은 결과가 이 두 방법보다 나빴고, [비특허문헌 14]~[비특허문헌 18]은 다음의 이유로 비교대상에서 제외하였다. 배경기술에서 언급한 바와 같이, [비특허문헌 14]는 시점이동 이 외의 공격을 시점이동 전의 영상에 가해 시점이동 후의 영상에 대해 악의적으로 WM를 지우려는 공격에 대한 실험을 하지 않았고, [비특허문헌 15]는 깊이영상에 WM를 수행하였는데, 이 역시 컬러영상에 대한 저작권을 보호할 수 없어서 본 발명의 취지와는 맞지 않아 제외하였다. [비특허문헌 16] 방법은 추출시 깊이영상을 필요로 하는 넌블라인드(non-blind) 방법이며, [비특허문헌 17] 방법은 좌시점과 우시점 영상이 주어진다고 가정하였고, [비특허문헌 18] 에너글리프 스테레오 영상을 대상으로 하였기 때문에 비교대상에서 제외하였다.The experimental results of the method according to the present invention are shown in comparison with the experimental results of the conventional methods. The comparison target method is listed in the table of FIG. 19, and basically, the two methods are [Non-Patent Document 12] and [Non-Patent Document 13]. [Non-Patent Document 12] The method uses WM of 5,926 bits and 73 bits, which is a method of WM for an image and an original image shifted to the right and left by predicting the maximum viewpoint movement amount. [Non-Patent Document 13] proposes a conversion method for emphasizing the six-directionality called DT-CWT, and inserts 64-bit WM information into the block by the column direction quantization method of the three-level conversion result. Since there is a difference in performance depending on the number of WM bits, the proposed method basically uses 32 × 32 1,024 bit WM, but the experiment for 64 bit WM is added for comparison. The results of the other methods in the reference literature were worse than those of the two methods, and [Non-Patent Documents 14] to [Non-Patent Document 18] were excluded from the comparison for the following reasons. As mentioned in the background art, [Non-Patent Document 14] does not perform an experiment for attacking to erase WM maliciously against an image after moving the viewpoint by applying an attack other than the viewpoint movement to the image before the viewpoint movement, Document 15] performed WM on the depth image, but this also can not protect the copyright on the color image, so it is not compatible with the intention of the present invention and is excluded. [Non-Patent Document 16] The method is a non-blind method requiring a depth image in extraction, and the method of [Non-Patent Document 17] assumes that left and right view images are given, 18] were excluded from the comparison because they were energized stereo images.

먼저 WM를 삽입한 후 복원한 영상의 화질을 원영상에 대한 PSNR값과 SSIM값으로 도 20의 표에서 비교하였다. 본 발명에 따른 방법은 그 특성 상 WM 비트수에 무관하게 동일한 값이 나왔으며, Kim의 방법이나 Lin의 방법 중 64비트를 사용하는 경우보다 좋은 화질을 보였다. 따라서 삽입한 워터마크 정보에 대한 비가시성에 있어서 제안한 방법이 기존 방법들보다 우수한 것을 알 수 있다.First, the image quality of the restored image after WM insertion is compared with the PSNR value and the SSIM value of the original image in the table of FIG. The method according to the present invention has the same value irrespective of the number of WM bits and shows better image quality than the method of Kim or the method of Lin using 64 bits. Therefore, it can be seen that the proposed method is superior to the conventional methods in nonvisibility of the embedded watermark information.

도 21는 비교대상의 모든 방법들에 대해 시점이동 공격을 비롯한 각 공격에 대한 BER을 그래프로 나타낸 것이다. 이 그림에서 (b)부터 (g)까지는 baseline distance 5%의 시점이동 공격 후 해당 공격을 추가로 가한 실험결과이다. 먼저 (a)의 시점이동 공격의 경우 Lin의 방법 두 경우 모두 특정 baseline distance에서는 좋은 특성을 보이지만 그 시점에서 벗어날수록 BER이 크게 증가하였다. Kim의 방법은 전 시점이동 구간에서 좋은 특성을 보였으나, 제안한 방법의 두 경우는 모든 구간에서 BER이 거의 0값을 나타내어 시점이동 자체로는 모든 구간에서 가장 우수한 성능을 보였다.FIG. 21 is a graph showing the BER for each attack including the point-of-view attack for all methods to be compared. In this figure, (b) to (g) are the results of adding the attack after baseline distance 5% of the point move attack. First, in the case of the point-of-view attack in (a), both methods of Lin have good characteristics at a certain baseline distance, but the BER increases significantly as they deviate from that point. Kim's method showed good performance in the previous moving range. However, in the two cases of the proposed method, the BER is almost 0 in all the intervals, and the best performance is obtained in all the intervals as the moving point.

시점이동 후 추가로 가한 공격에서 스케일링 공격(e)과 회전공격(f)에 대해서는 제안한 방법이 기존 방법들보다 월등히 우수한 성능을 보였다. 특히 회전공격에 대해서는 제안한 방법이 1,024비트와 64비트 WM의 두 경우 모두 모든 구간에서 BER이 거의 0 값을 보였다. Matrix affine 변환 공격에 대해서도 64비트 WM를 사용한 제안한 방법이 모든 변환에서 가장 낮은 BER을 보였다. 1,024비트 WM를 사용한 경우 matrix 2와 5에서 특히 높은BER을 보였으나, 나머지 matrix에서는 64비트를 사용한 Kim의 방법과 유사한 BER을 보였다. For the scaling attack (e) and the rotation attack (f) in the additional attack after moving the viewpoint, the proposed method showed much better performance than the existing methods. In particular, for the rotation attack, the proposed method showed a BER of almost zero at all intervals in both 1024-bit and 64-bit WM cases. For the Matrix affine transform attack, the proposed method using 64-bit WM showed the lowest BER in all transforms. In the case of using 1024-bit WM, especially high BER was shown in matrix 2 and 5, but the remaining matrix showed BER similar to Kim's method using 64-bit.

그 외 공격에 있어서는 본 발명에 따른 방법이 약한 공격에 대해서는 아주 우수한 성능을 보이다가 공격의 강도가 어느 정도 이상으로 강해지면 BER이 급격히 높아지는 경향을 보였다. JPEG 압축공격(b)의 경우 화질 40/100 이상, 가우션 잡음첨가 공격(c)의 경우 2.5% 이상, 미디언 필터링 공격(d)의 경우는 9×9 이상의 필터를 사용하는 경우가 그런데, 이들의 공격정도를 보이기 위해 공격된 영상을 도 22에 보였다. 화질 40/100의 JPEG 압축공격을 가한 (b)를 보면 (a)의 원영상에 비해 물체의 경계부분이나 고주파 부분에서 상당히 블러링된 것을 볼 수 있고, 가우션 잡음 3%를 첨가한 (c)는 저주파 성분에서 잡음이 드러나 보이며, 9×9 미디언 필터링한 (d)는 물체 내부의 고주파 성분이 거의 소실된 것을 볼 수 있다. 즉, 이들 공격은 WM 정보를 없애는 좋은 공격이기는 하지만, 영상 자체에 화질열화를 강하게 일으키는 공격이므로 공격한 영상을 재사용하기에는 적합지 않은 공격으로 보인다. (b), (c), (d)의 PSNR값은 각각 28.85[dB], 28.72[dB], 28.28[dB]이었다. In the other attacks, the method according to the present invention showed very good performance for weak attacks, and the BER tended to be rapidly increased when the attack strength was increased to some degree or more. In the case of the JPEG compression attack (b), the image quality is 40/100 or more. In the case of the noise adding attack (c), 2.5% or more, and in the case of the median filtering attack (d) The attacked images are shown in FIG. 22 to show the degree of attack of these. (B), which shows a 40/100 JPEG compression attack, is significantly blurred at the boundary or high-frequency part of the object as compared with the original image of (a) ) Shows the noise in the low-frequency component, and (d) in the case of the 9 × 9 median filtering shows that the high-frequency component inside the object is almost lost. In other words, although these attacks are good attacks for eliminating WM information, they are considered to be unsuitable for reuse of attacked images because they are attacks that strongly cause deterioration in image quality. The PSNR values of (b), (c) and (d) were 28.85 [dB], 28.72 [dB] and 28.28 [dB] respectively.

따라서 본 발명에 따른 방법은 시점이동 후 영상을 재사용할 수 있는 정도의 악의적/비악의적 공격에 대한 강인성이 기존의 방법보다 우수하다고 판단된다.Therefore, the method according to the present invention is superior to the conventional method in robustness against malicious / non-malicious attack that can reuse the image after moving the viewpoint.

본 발명에서는 원영상과 그 깊이영상을 수신차측으로 보내 수신자측에서 임의의 시점 영상을 렌터링하여 시청하는 자유시점 2D 또는 3D 영상을 타겟으로 워터마크 정보의 비가시성과 공격에 대한 강인성이 높은 디지털 워터마킹 방법을 제안하였다. 이 방법은 3 레벨 2DDWT를 수행하고 각 레벨의 LH 부대역에 워터마크를 삽입하는 방법이며, 워터마크를 삽입하는 위치는 깊이변화지도(depth variation map, DVM)를 생성하여 깊이의 변화가 적어 시점이동에도 안전한 곳을 찾았다. 워터마크를 삽입하는 방법은 각 부대역의 에너지에 따라 양자화 스텝의 크기를 정하고, 원 화소의 값과 삽입될 워터마크의 값에 따라 화소의 값을 변화시켰다. 시점이동을 포함한 공격 후 워터마크를 추출하는 방법은 원 워터마크 정보와의 상관도를 이용하여 가능한 후보들을 추출하고, 각 워터마크 위치의 값들을 통계적인 방법으로 워터마크 비트들을 결정하였다.In the present invention, a 2D image or a 3D image, which is obtained by receiving an original image and its depth image on a receiver side and viewing an arbitrary view image on a receiver side, is targeted to a digital image having high visibility and non- We propose a watermarking method. This method is a method of performing 3-level 2DDWT and inserting a watermark into the LH subband of each level. The watermark insertion position generates a depth variation map (DVM) I found a safe place to go. In the method of inserting watermark, the quantization step size is determined according to the energy of each subband, and the pixel value is changed according to the value of the original pixel and the watermark to be inserted. The method of extracting the watermark after the attack including the viewpoint movement extracts the possible candidates by using correlation with the original watermark information and determines the watermark bits by statistical method of the values of the watermark positions.

다양한 영상으로 실험한 결과 기존의 방법들에 비해 삽입한 워터마크 정보의 비가시성이 뛰어났다. 고려한 시점이동 공격에 대해서는 BER(bit error ratio)이 거의 모두 0에 가까운 값을 보여 기존의 방법들보다 매우 우수한 성능을 보였다. 시점이동 후 추가로 가한 공격들에서도 원영상을 크게 훼손시키지 않는 범위 내에서 기존의 방법들보다 우수한 성능을 보였다.Experimental results show that the visibility of embedded watermark information is superior to that of conventional methods. The bit error ratio (BER) is close to zero for the point-in-time attacks considered. In addition, the proposed method showed better performance than the previous methods in the range of not destroying the original image even in the additional attacks after moving the viewpoint.

따라서 실험결과로 볼 때 본 발명에 따른 방법이 자유시점 영상 렌더링의 환경에서 우수한 워터마크 정보의 비가시성과 시점이동 및 추가 공격에 대한 강인성을 갖고 고부가가치의 콘텐츠인 영상 콘텐츠에 대한 지적재산권 보호에 유용하게 사용될 수 있을 것이다.From the experimental results, it can be seen that the method according to the present invention has robustness against invisibility, viewpoint movement and additional attack of excellent watermark information in the environment of free-view image rendering and protects the intellectual property rights It will be useful.

이상, 본 발명자에 의해서 이루어진 발명을 상기 실시 예에 따라 구체적으로 설명하였지만, 본 발명은 상기 실시 예에 한정되는 것은 아니고, 그 요지를 이탈하지 않는 범위에서 여러 가지로 변경 가능한 것은 물론이다.Although the present invention has been described in detail with reference to the above embodiments, it is needless to say that the present invention is not limited to the above-described embodiments, and various modifications may be made without departing from the spirit of the present invention.

10 : 텍스쳐 및 깊이영상 20 : 컴퓨터 단말
30 : 프로그램 시스템 40 : 워터마크 영상
60 : 워터마크 추출장치 70 : 워터마크
10: texture and depth image 20: computer terminal
30: program system 40: watermark image
60: Watermark extraction device 70: Watermark

Claims (16)

텍스쳐영상 및 깊이영상으로 구성된 텍스쳐 및 깊이 영상에 워터마크를 삽입하는, 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법에 있어서,
(a) 상기 깊이영상에 수평과 수직의 각 방향으로 미분을 수행하여, 깊이변화맵(DVM)를 생성하는 단계;
(b) 상기 텍스쳐영상에 대해 2DDWT(2-dimensional discrete wavelet transform)를 수행하여 부대역 영상을 생성하는 단계;
(c) 상기 DVM을 서브샘플링하여 상기 부대역 영상과 동일한 해상도의 DVM 서브 영상을 생성하고, 상기 DVM 서브 영상에서 화소값을 이용하여 삽입 영역을 선정하여, 선정된 삽입 영역에 대응되는 상기 부대역 영상의 영역을, 워터마크를 삽입할 워터마크 삽입 영역으로 선정하는 단계;
(d) 워터마크 데이터를 암호화 하는 단계;
(e) 상기 부대역 영상의 상기 워터마크 삽입 영역에 상기 워터마크 데이터를 삽입하는 단계; 및,
(f) 워터마크가 삽입된 부대역 영상으로 대체된 부대역 영상들을 역 2DDWT를 수행하여, 워터마킹된 텍스쳐 영상을 생성하는 단계를 포함하는 것을 특징으로 하는 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법.
A robust blind watermarking method of a DIBR attack using a depth change map for inserting a watermark into a texture and a depth image composed of a texture image and a depth image,
(a) generating a depth variation map (DVM) by performing a derivative on the depth image in each of horizontal and vertical directions;
(b) generating a sub-band image by performing a 2-dimensional discrete wavelet transform (2DDWT) on the texture image;
(c) sub-sampling the DVM to generate a DVM sub-image having the same resolution as the sub-band image, selecting an insertion region using pixel values in the DVM sub-image, Selecting an area of the image as a watermark embedding area to embed a watermark;
(d) encrypting the watermark data;
(e) inserting the watermark data into the watermark embedding area of the sub-band image; And
(f) generating a watermarked texture image by performing an inverse 2DDWT on sub-band images that are replaced with a watermark-inserted sub-band image. The robustness of a DIBR attack using a depth- Watermarking method.
제1항에 있어서,
상기 (a)단계에서, 상기 깊이영상에 수평과 수직의 각 방향으로 미분을 수행하고, 미분한 결과 영상의 각 화소에서 소정의 범위 내 미분값들을 누적 덧셈하여 미분누적맵(DDAM)을 생성하고, 상기 DDAM 영상의 각 화소에서 소정의 영역을 평균하여 깊이변화맵(DVM)을 생성하는 것을 특징으로 하는 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법.
The method according to claim 1,
In the step (a), differentials are performed in the horizontal and vertical directions on the depth image, and a differential accumulation map (DDAM) is generated by cumulatively adding differential values within a predetermined range in each pixel of the differential result image , And a depth variation map (DVM) is generated by averaging a predetermined area in each pixel of the DDAM image, wherein the depth variation map (DVM) is generated.
제2항에 있어서,
상기 (a)단계에서, 상기 깊이영상에 미디언 필터링을 수행한 후, 상기 깊이영상을 미분하는 것을 특징으로 하는 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법.
3. The method of claim 2,
Wherein the depth image is differentiated after performing median filtering on the depth image in the step (a). The robustness blind watermarking method of the DIBR attack using the depth variation map.
제2항에 있어서,
상기 (a)단계에서, 상기 미분한 결과 영상의 각 화소에서 우하쪽에서 소정의 범위 화소들의 미분값들을 누적 덧셈하여 미분누적맵을 생성하는 것을 특징으로 하는 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법.
3. The method of claim 2,
The differential accumulation map is generated by cumulatively accumulating differential values of a predetermined range of pixels in a lower right corner of each pixel of the differentiated result image in the step (a). The robustness of the DIBR attack using the depth variation map. Marking method.
제1항에 있어서,
상기 텍스쳐영상이 RGB영상인 경우, 상기 RGB영상을 YCbCr영상으로 변환하여, Y(휘도) 영상으로부터 부대역 영상을 생성하는 것을 특징으로 하는 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법.
The method according to claim 1,
And converting the RGB image to a YCbCr image to generate a sub-band image from a Y (luminance) image when the texture image is an RGB image, wherein the sub-band image is generated from the Y (luminance) image.
제1항에 있어서,
상기 텍스쳐영상에 대하여 2DDWT 변환을 총 3레벨을 수행하여, 각 레벨 2DDWT 결과 중 LH 부대역 영상에 워터마크를 삽입하는 것을 특징으로 하는 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법.
The method according to claim 1,
And performing a 2DDWT transformation on the texture image in all three levels to insert a watermark in the LH sub-band image among the 2DDWT results of each level. The robustness blind watermarking method of the DIBR attack using the depth change map.
제1항에 있어서,
상기 (c)단계에서, 상기 DVM 서브 영상에서 화소값이 가장 작은 순으로, 해당 화소 및 이를 포함하는 소정의 범위를 삽입 영역으로 선정하되, 선정된 삽입 영역을 제외한 나머지 서브 영상에서 화소값이 가장 작은 화소를 포함하는 영역을 삽입 영역으로 선정하는 것을 특징으로 하는 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법.
The method according to claim 1,
In the step (c), the pixel and a predetermined range including the pixel are selected as an insertion region in the DVM sub-image in the order of the smallest pixel value, and in the remaining sub-images excluding the selected insertion region, And a region including a small pixel is selected as an insertion region. A robust blind watermarking method of a DIBR attack using a depth variation map.
제1항에 있어서,
상기 (c)단계에서, 상기 워터마크 삽입 영역의 개수는 해당 부대역 영상의 총 화소수에 대해 워터마크 삽입 영역에 삽입되는 화소수의 비가 사전에 정해진 비율 이하가 되도록 정하는 것을 특징으로 하는 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법.
The method according to claim 1,
Wherein the number of watermark embedding areas is determined such that a ratio of the number of pixels inserted in the watermark embedding area to a total number of pixels of the subband image is equal to or less than a predetermined ratio in step (c) Robustness of DIBR Attack using Mapping Blind Watermarking Method.
제1항에 있어서,
상기 (d)단계에서, 상기 워터마크 데이터를 선형귀환쉬프트레지스터(LFSR)의 출력과 XOR(exclusive-OR)하여 암호화 하는 것을 특징으로 하는 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법.
The method according to claim 1,
Wherein the watermark data is XORed with an output of a linear feedback shift register (LFSR) to encrypt the watermark data in step (d).
제1항에 있어서,
상기 워터마크 데이터는 비트 데이터로 구성되고,
상기 (e)단계에서, 상기 워터마크 데이터의 비트에 따라 해당 워터마크 삽입 영역의 화소의 화소값을 선형 양자화기에 의해 출력되는 값으로 대체하여, 워터마크를 삽입하는 것을 특징으로 하는 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법.
The method according to claim 1,
Wherein the watermark data is composed of bit data,
Wherein in the step (e), a pixel value of a pixel of the watermark embedding area is replaced with a value output by a linear quantizer in accordance with a bit of the watermark data, and a watermark is inserted Robustness of DIBR Attack Using Blind Watermarking Method.
제10항에 있어서,
상기 선형 양자화기의 양자화 스텝은 각 레벨 부대역 영상의 가중 에너지 표준편차의 크기에 따라 결정되는 것을 특징으로 하는 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법.
11. The method of claim 10,
Wherein the quantization step of the linear quantizer is determined according to a magnitude of a weighted energy standard deviation of each level subband image, and the robustness blind watermarking method of the DIBR attack using the depth variation map.
제11항에 있어서,
상기 선형 양자화기의 양자화 스텝 △L은 다음 수식 1에 의해 구해지는 것을 특징으로 하는 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법.
[수식 1]
Figure pat00018
,
Figure pat00019

단, M, N은 각각 부대역 영역의 가로와 세로 크기를 나타내고, L은 2DDWT 레벨을 나타내고, ci는 부대역의 화소값을 나타내고, TL,l과 TL,h은 사전에 정해진 문턱치로서, TL,l < TL,h 임.
12. The method of claim 11,
Wherein the quantization step DELTA L of the linear quantizer is obtained by the following Equation 1. < EMI ID = 1.0 &gt;
[Equation 1]
Figure pat00018
,
Figure pat00019

L denotes a 2DDWT level, c i denotes a pixel value of a subband, T L, l and T L, h denote a predetermined threshold value T L, 1 &lt; T L, h .
제1항에 있어서,
하나의 워터마크 삽입 영역의 크기를 상기 워터마크 데이터의 크기의 반으로 정하고, 다수의 워터마크 삽입 영역들에 상기 워터마크 데이터를 삽입할 때, 상기 워터마크 데이터를 반으로 나누어 교번하여 워터마크 삽입 영역에 삽입하는 것을 특징으로 하는 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법.
The method according to claim 1,
When a watermark embedding area is set to half the size of the watermark data and the watermark data is inserted into a plurality of watermark embedding areas, Wherein the depth map is embedded in a region of the image.
제1항의 방법에 의하여 워터마크가 삽입된 텍스쳐 및 깊이 영상에서 워터마크를 추출하는, 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법에 있어서,
(g) 상기 텍스쳐영상에 대해 2DDWT(2-dimensional discrete wavelet transform)를 수행하여 부대역 영상을 생성하는 단계;
(h) 워터마크 데이터를 암호화 하는 단계;
(i) 상기 부대역 영상에 워터마크 값들을 추출하고, 상기 워터마크 데이터와 추출된 워터마크 값들의 유사성이 사전에 정해진 문턱치 보다 크면, 후보 워터마크로 결정하는 단계;
(j) 상기 워터마크 후보들의 동일 위치의 값들을 이용하여, 최종 워터마크를 결정하는 단계; 및,
(k) 상기 최종 워터마크를 복호화하는 단계를 포함하는 것을 특징으로 하는 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법.
A robust blind watermarking method of a DIBR attack using a depth change map for extracting a watermark from a texture and a depth image in which a watermark is embedded by the method of claim 1,
(g) generating a sub-band image by performing a 2-dimensional discrete wavelet transform (2DDWT) on the texture image;
(h) encrypting the watermark data;
(i) extracting watermark values in the sub-band image, and if the similarity between the watermark data and the extracted watermark values is greater than a predetermined threshold, determining the candidate watermark;
(j) using the values of the same position of the watermark candidates to determine a final watermark; And
(k) decoding the final watermark, wherein the robustness blind watermarking method of the DIBR attack using the depth variation map.
제14항에 있어서,
상기 후보 워터마크들의 동일한 위치의 각 화소에 대하여, 해당 위치의 값과 해당 NCC값을 곱하여 모두 더하고, 더한 값의 부호에 따라 최종 워터마크의 해당 위치의 화소값을 결정하는 것을 특징으로 하는 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법.
15. The method of claim 14,
The pixel value of the corresponding position of the final watermark is determined according to the sign of the sum value by adding all the values of the position and the NCC value for each pixel at the same position of the candidate watermark, Robustness of DIBR Attack using Mapping Blind Watermarking Method.
제1항 내지 제15항 중 어느 한 항의 깊이변화지도를 이용한 DIBR 공격의 강인성 블라인드 워터마킹 방법을 수행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
A computer-readable recording medium on which a program for performing a robust blind watermarking method of a DIBR attack using the depth change map of any one of claims 1 to 15 is recorded.
KR1020160120372A 2016-09-21 2016-09-21 A Robust and Blind Watermarking Method for DIBR Using a Depth Variation Map Expired - Fee Related KR101860728B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160120372A KR101860728B1 (en) 2016-09-21 2016-09-21 A Robust and Blind Watermarking Method for DIBR Using a Depth Variation Map

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160120372A KR101860728B1 (en) 2016-09-21 2016-09-21 A Robust and Blind Watermarking Method for DIBR Using a Depth Variation Map

Publications (2)

Publication Number Publication Date
KR20180031904A true KR20180031904A (en) 2018-03-29
KR101860728B1 KR101860728B1 (en) 2018-05-24

Family

ID=61906891

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160120372A Expired - Fee Related KR101860728B1 (en) 2016-09-21 2016-09-21 A Robust and Blind Watermarking Method for DIBR Using a Depth Variation Map

Country Status (1)

Country Link
KR (1) KR101860728B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110889798A (en) * 2019-12-11 2020-03-17 中南大学 Robustness zero-watermark method for two-dimensional video frame and depth map right protection in three-dimensional video
CN111583088A (en) * 2020-05-06 2020-08-25 中国民航大学 A Robust Watermarking Method for Self-Embedding Fully Blind Color Images Based on Multiple Transform Domains
CN113434828A (en) * 2021-08-09 2021-09-24 江苏羽驰区块链科技研究院有限公司 Intelligent terminal image divulgence tracking and copyright authentication method based on digital watermarking
CN113870086A (en) * 2021-04-08 2021-12-31 重庆机场集团有限公司 Blind watermark algorithm based on Polar code and interleaving algorithm
CN117241104A (en) * 2023-11-07 2023-12-15 中南大学 Zero watermark method and system for DIBR-3D video copyright protection
KR20250135119A (en) 2024-03-05 2025-09-12 고려대학교 산학협력단 Patch-based adversarial attack method against monocular depth estimation model
KR20250135118A (en) 2024-03-05 2025-09-12 고려대학교 산학협력단 Adversarial attack method against stereo matching depth estimation model

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025042063A1 (en) * 2023-08-21 2025-02-27 (주)잉카엔트웍스 Artificial intelligence-based forensic watermarking framework

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101361108B1 (en) * 2013-02-05 2014-02-13 한국과학기술원 Dt-cwt watermarking system and method of dibr 3d image

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110889798A (en) * 2019-12-11 2020-03-17 中南大学 Robustness zero-watermark method for two-dimensional video frame and depth map right protection in three-dimensional video
CN110889798B (en) * 2019-12-11 2021-10-22 中南大学 A Zero Watermark Method for Copyright Protection of 2D Video Frames and Depth Maps in 3D Video
CN111583088A (en) * 2020-05-06 2020-08-25 中国民航大学 A Robust Watermarking Method for Self-Embedding Fully Blind Color Images Based on Multiple Transform Domains
CN113870086A (en) * 2021-04-08 2021-12-31 重庆机场集团有限公司 Blind watermark algorithm based on Polar code and interleaving algorithm
CN113434828A (en) * 2021-08-09 2021-09-24 江苏羽驰区块链科技研究院有限公司 Intelligent terminal image divulgence tracking and copyright authentication method based on digital watermarking
CN117241104A (en) * 2023-11-07 2023-12-15 中南大学 Zero watermark method and system for DIBR-3D video copyright protection
CN117241104B (en) * 2023-11-07 2024-01-16 中南大学 Zero watermark method and system for DIBR-3D video copyright protection
KR20250135119A (en) 2024-03-05 2025-09-12 고려대학교 산학협력단 Patch-based adversarial attack method against monocular depth estimation model
KR20250135118A (en) 2024-03-05 2025-09-12 고려대학교 산학협력단 Adversarial attack method against stereo matching depth estimation model

Also Published As

Publication number Publication date
KR101860728B1 (en) 2018-05-24

Similar Documents

Publication Publication Date Title
KR101860728B1 (en) A Robust and Blind Watermarking Method for DIBR Using a Depth Variation Map
Asikuzzaman et al. Robust DT CWT-based DIBR 3D video watermarking using chrominance embedding
Asikuzzaman et al. An overview of digital video watermarking
Khan et al. A recent survey of reversible watermarking techniques
Kim et al. Robust DT-CWT watermarking for DIBR 3D images
Agilandeeswari et al. A robust color video watermarking scheme based on hybrid embedding techniques
Himeur et al. A robust and secure key-frames based video watermarking system using chaotic encryption
Mohammed et al. An imperceptible semi-blind image watermarking scheme in DWT-SVD domain using a zigzag embedding technique
El-Shafai et al. Security of 3D-HEVC transmission based on fusion and watermarking techniques
Wang et al. Watermarking for DIBR 3D images based on SIFT feature points
KR101785194B1 (en) Template Based Watermarking Method for Depth-Image-Based Rendering Based 3D Images and Apparatus Therefor
Lee et al. Digital blind watermarking based on depth variation prediction map and DWT for DIBR free-viewpoint image
El-Shafai et al. Efficient multi-level security for robust 3D color-plus-depth HEVC
El‐Shafai et al. Efficient hybrid watermarking schemes for robust and secure 3D‐MVC communication
CN107222750A (en) A kind of frequency domain parallax towards three-dimensional video-frequency is concerned with water mark method
Ahuja et al. All aspects of digital video watermarking under an umbrella
Singh et al. A recent survey on data hiding techniques
El-Shafai et al. Efficient hybrid watermarking scheme for security and transmission bit rate enhancement of 3D color-plus-depth video communication
Salih et al. Imperceptible 3d video watermarking technique based on scene change detection
Hwang et al. Real-time stereo image watermarking using discrete cosine transform and adaptive disparity maps
Vanmathi et al. A Survey of State of the Art techniques of Steganography
Tian et al. Authentication and copyright protection watermarking scheme for H. 264 based on visual saliency and secret sharing
Rana et al. Depth-based view-invariant blind 3D image watermarking
Shukla et al. A new approach for scene-based digital video watermarking using discrete wavelet transforms
Kerbiche et al. A robust video watermarking based on image mosacing and multi-frequential embedding

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 6

PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20240518

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20240518

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000