KR102584695B1 - Apparatus for inpainting video using reference frame information and method thereof - Google Patents
Apparatus for inpainting video using reference frame information and method thereof Download PDFInfo
- Publication number
- KR102584695B1 KR102584695B1 KR1020190163940A KR20190163940A KR102584695B1 KR 102584695 B1 KR102584695 B1 KR 102584695B1 KR 1020190163940 A KR1020190163940 A KR 1020190163940A KR 20190163940 A KR20190163940 A KR 20190163940A KR 102584695 B1 KR102584695 B1 KR 102584695B1
- Authority
- KR
- South Korea
- Prior art keywords
- restoration
- area
- image
- frame
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G06T5/001—
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/60—Image enhancement or restoration using machine learning, e.g. neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G06T3/0006—
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/02—Affine transformations
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Image Processing (AREA)
Abstract
본 발명은 인접 프레임 정보를 이용한 영상 복원 장치 및 그 방법이 개시된다. 본 발명의 인접 프레임 정보를 이용한 영상 복원 장치는, 복원하고자하는 비디오 영상을 입력받는 입력부; 입력부로 입력된 비디오 영상에 복원영역을 설정하는 복원영역 설정부; 비디오 영상에서 복원할 대상 프레임과 참조 프레임을 딥러닝 기반으로 정합하는 정합 모듈; 정합 모듈에서 정합된 참조 프레임으로부터 대상 프레임의 복원영역에 대한 복원정보를 딥러닝 기반으로 복사하는 복사 모듈; 복사 모듈에서 복사한 복원정보를 대상 프레임의 복원영역에 붙여넣기 하여 복원하는 복구 모듈; 및 복구 모듈에서 복원된 비디오 영상을 출력하는 영상 출력부;를 포함하는 것을 특징으로 한다. The present invention discloses an image restoration apparatus and method using adjacent frame information. An image restoration device using adjacent frame information of the present invention includes an input unit that receives a video image to be restored; a restoration area setting unit that sets a restoration area in the video image input to the input unit; A matching module that matches the target frame and reference frame to be restored from the video image based on deep learning; A copy module that copies restoration information about the restoration area of the target frame from the reference frame matched in the matching module based on deep learning; A recovery module that restores the information copied from the copy module by pasting it into the restoration area of the target frame; and an image output unit that outputs a video image restored in the recovery module.
Description
본 발명은 인접 프레임 정보를 이용한 영상 복원 장치 및 그 방법에 관한 것으로서, 보다 상세하게는 입력된 비디오 영상에서 방해물 영역이 설정된 대상 프레임의 특징(feature) 정보와 참조 프레임들의 특징 정보를 딥러닝 기반으로 정합한 후 참조 프레임으로부터 대상 프레임의 방해물 영역에 대한 영역정보를 딥러닝 기반으로 복사하여 대상 프레임의 방해물 영역을 복원하는 인접 프레임 정보를 이용한 영상 복원 장치 및 그 방법에 관한 것이다. The present invention relates to an image restoration device and method using adjacent frame information. More specifically, the present invention relates to an image restoration device and method using adjacent frame information. More specifically, the feature information of a target frame in which an obstruction area is set in an input video image and the feature information of reference frames are used based on deep learning. It relates to an image restoration device and method using adjacent frame information that restores the obstruction area of the target frame by copying the area information about the obstruction area of the target frame from the reference frame after matching based on deep learning.
이미지 복원 기술(Image Inpainting)은 과거 박물관에서 손상된 예술 작품의 복원으로부터 시작된 기술로, 현재에는 그림이나 사진의 손상된 부분을 복원하거나 일부분을 제거하는 것과 같은 다양한 용도로 사용된다. Image restoration technology (Image Inpainting) is a technology that originated from the restoration of damaged works of art in museums in the past, and is currently used for various purposes such as restoring or removing damaged parts of paintings or photos.
이러한 이미지 복원 기술은 복원할 타겟 이미지가 존재하면 타겟 이미지의 경계 부분에 인접한 배경 이미지 영역의 픽셀들을 보간하고, 보간된 픽셀들로 타겟 이미지 영역을 채우는 기술이다. 여기서 배경 이미지는 원본 이미지에서 복원할 타겟 이미지를 제외한 나머지 이미지를 의미한다. This image restoration technology is a technology that interpolates pixels in the background image area adjacent to the border of the target image when there is a target image to be restored, and fills the target image area with the interpolated pixels. Here, the background image refers to the remaining images excluding the target image to be restored from the original image.
하지만 이러한 이미지 복원 기술을 이용하여 생성된 결과 이미지는 블러(Blur) 현상이 심하게 생성되는 문제점이 발생하였다. However, the resulting image created using this image restoration technology had the problem of severe blurring.
이러한 이미지 복원 기술을 보완하기 위해 다양한 기술이 연구되었는데, 그 중 하나의 기술이 객체 제거에 의한 원본 기반 복원 기술(Object Removal by Exemplar-Based Inpainting, 이하 '원본 기반 복원 기술'로 칭함)이다. Various technologies have been studied to complement these image restoration technologies, one of which is Object Removal by Exemplar-Based Inpainting (hereinafter referred to as 'original-based restoration technology').
원본 기반 복원 기술은 원본 이미지 내의 에지 및 평탄 영역을 참조하여 타겟 이미지의 경계 부분에 인접한 배경 이미지와 가장 유사한 이미지를 배경 이미지 내에서 검색하고, 검색된 이미지로 타겟 이미지 영역을 채우는 방식이다.The original-based restoration technology refers to the edges and flat areas in the original image, searches the background image for the image most similar to the background image adjacent to the border of the target image, and fills the target image area with the searched image.
이와 같은 원본 기반 복원 기술에 의하면 설정된 복원 이미지 영역의 픽셀값과 가장 유사한 픽셀값을 가지는 유사 이미지 영역을 배경 이미지 내에서 검색한 후 검색된 유사 이미지 영역에서 복원 이미지 영역 내의 타겟 이미지 영역과 대응되는 유사 타겟 이미지만을 복사하여 복원 이미지 영역의 타겟 이미지 영역에 붙여넣기하여 이미지 복원이 완료될 때까지 이러한 동작을 반복 수행하게 된다. According to this original-based restoration technology, a similar image area with the pixel value most similar to the pixel value of the set restored image area is searched within the background image, and then a similar target corresponding to the target image area within the restored image area is found in the searched similar image area. Only the image is copied and pasted into the target image area of the restored image area, and this operation is repeated until image restoration is complete.
그러나 복원 이미지 영역의 픽셀값과 가장 유사한 픽셀값을 가지는 유사 이미지 영역을 검색할 때 타겟 이미지 영역에 복원하려는 이미지와는 전혀 다른 이미지가 검색될 수 있다는 문제점이 있었다. However, there was a problem that when searching for a similar image area with the pixel value most similar to the pixel value of the restored image area, an image completely different from the image to be restored may be searched in the target image area.
본 발명의 배경기술은 대한민국 등록특허공보 제10-1075716호(2011.10.21. 공고, 이미지 복원 장치 및 방법)에 개시되어 있다. The background technology of the present invention is disclosed in Republic of Korea Patent Publication No. 10-1075716 (Notice dated October 21, 2011, Image restoration device and method).
한편, 단일 이미지와 달리 비디오 영상은 비디오 촬영 환경에서 카메라, 객체 및 배경의 움직임으로 인해 픽셀 간 직접적인 참조가 어려워 단일 이미지의 복원과 달리 비디오 영상의 복원은 영상 간의 시간적 연속성을 유지해야하는 어려운 문제점이 있다. Meanwhile, unlike single images, video images have difficulty in directly referencing pixels due to the movement of cameras, objects, and backgrounds in a video shooting environment. Unlike the restoration of single images, the restoration of video images has the difficult problem of maintaining temporal continuity between images. .
본 발명은 상기와 같은 문제점들을 개선하기 위하여 안출된 것으로, 일 측면에 따른 본 발명의 목적은 입력된 비디오 영상에서 방해물 영역이 설정된 대상 프레임의 특징(feature) 정보와 참조 프레임들의 특징 정보를 딥러닝 기반으로 정합한 후 참조 프레임으로부터 대상 프레임의 방해물 영역에 대한 영역정보를 딥러닝 기반으로 복사하여 대상 프레임의 방해물 영역을 복원하는 인접 프레임 정보를 이용한 영상 복원 장치 및 그 방법을 제공하는 것이다. The present invention was created to improve the problems described above, and the purpose of the present invention according to one aspect is to deep learn the feature information of the target frame in which the obstruction area is set and the feature information of the reference frames in the input video image. To provide an image restoration device and method using adjacent frame information that restores the obstruction area of the target frame by copying the area information about the obstruction area of the target frame from the reference frame based on deep learning based on matching.
본 발명의 일 측면에 따른 인접 프레임 정보를 이용한 영상 복원 장치는, 복원하고자 하는 비디오 영상을 입력받는 입력부; 입력부로 입력된 비디오 영상에 복원영역을 설정하는 복원영역 설정부; 비디오 영상에서 복원할 대상 프레임과 참조 프레임을 딥러닝 기반으로 정합하는 정합 모듈; 정합 모듈에서 정합된 참조 프레임으로부터 대상 프레임의 복원영역에 대한 복원정보를 딥러닝 기반으로 복사하는 복사 모듈; 복사 모듈에서 복사한 복원정보를 대상 프레임의 복원영역에 붙여넣기 하여 복원하는 복구 모듈; 및 복구 모듈에서 복원된 비디오 영상을 출력하는 영상 출력부;를 포함하는 것을 특징으로 한다. An image restoration device using adjacent frame information according to an aspect of the present invention includes an input unit that receives a video image to be restored; a restoration area setting unit that sets a restoration area in the video image input to the input unit; A matching module that matches the target frame and reference frame to be restored from the video image based on deep learning; A copy module that copies restoration information about the restoration area of the target frame from the reference frame matched in the matching module based on deep learning; A recovery module that restores the information copied from the copy module by pasting it into the restoration area of the target frame; and an image output unit that outputs a video image restored in the recovery module.
본 발명에서 복원영역 설정부는, 비디오 영상에서 설정된 방해물의 영역을 복원영역으로 설정하는 것을 특징으로 한다. In the present invention, the restoration area setting unit is characterized by setting the area of the obstruction set in the video image as the restoration area.
본 발명에서 복원영역 설정부는, 비디오 영상에서 설정된 방해물의 객체를 인식하여 복원영역으로 설정하는 것을 특징으로 한다. In the present invention, the restoration area setting unit is characterized in that it recognizes an obstacle object set in a video image and sets it as a restoration area.
본 발명에서 정합 모듈은, 대상 프레임과 참조 프레임으로부터 특징을 추출하고 아핀 변환 행렬(affine matrix)을 추출하여 딥러닝 기반 자기 지도 학습(self supervised) 네트워크를 통해 정합하는 것을 특징으로 한다. In the present invention, the matching module is characterized by extracting features from the target frame and reference frame, extracting an affine transformation matrix, and matching them through a deep learning-based self-supervised learning network.
본 발명에서 복사 모듈은, 특징 공간(feature space)에서 콘텍스트 매칭(context matching)을 통해 참조 프레임 간 유사도를 기반으로 가중치를 부여하여 복원영역에 대한 복원정보를 복사하는 것을 특징으로 한다. In the present invention, the copy module is characterized by copying the restoration information for the restoration area by assigning weights based on the similarity between reference frames through context matching in the feature space.
본 발명에서 복구 모듈은, 대상 프레임을 복원한 후 대상 프레임을 참조 프레임으로 업데이트하는 것을 특징으로 한다. In the present invention, the recovery module is characterized by restoring the target frame and then updating the target frame as a reference frame.
본 발명의 다른 측면에 따른 인접 프레임 정보를 이용한 영상 복원 방법은, 복원영역 설정부가 입력부로부터 입력된 복원하고자 하는 비디오 영상에 복원영역을 설정하는 단계; 정합 모듈이 비디오 영상에서 복원할 대상 프레임과 참조 프레임을 딥러닝 기반으로 정합하는 단계; 복사 모듈이 정합 모듈에서 정합된 참조 프레임으로부터 대상 프레임의 복원영역에 대한 복원정보를 딥러닝 기반으로 복사하는 단계; 및 복구 모듈이 복사 모듈에서 복사한 복원정보를 대상 프레임의 복원영역에 붙여넣기 하여 복구하는 단계;를 포함하는 것을 특징으로 한다. An image restoration method using adjacent frame information according to another aspect of the present invention includes the steps of a restoration area setting unit setting a restoration area on a video image to be restored input from an input unit; A matching module matching a target frame and a reference frame to be restored from a video image based on deep learning; A step of the copy module copying restoration information about the restoration area of the target frame from the reference frame matched by the matching module based on deep learning; and a step of restoration by the restoration module pasting the restoration information copied from the copy module into the restoration area of the target frame.
본 발명에서 복원영역을 설정하는 단계는, 복원영역 설정부가 비디오 영상에서 설정된 방해물을 복원영역으로 설정하는 것을 특징으로 한다. In the present invention, the step of setting a restoration area is characterized in that the restoration area setting unit sets an obstacle set in the video image as a restoration area.
본 발명에서 복원영역을 설정하는 단계는, 복원영역 설정부가 비디오 영상에서 설정된 방해물의 객체를 인식하여 복원영역으로 설정하는 것을 특징으로 한다. In the present invention, the step of setting a restoration area is characterized in that the restoration area setting unit recognizes an obstacle object set in a video image and sets it as a restoration area.
본 발명에서 정합하는 단계는, 정합 모듈이 대상 프레임과 참조 프레임으로부터 특징을 추출하고 아핀 변환 행렬(affine matrix)을 추출하여 딥러닝 기반 자기 지도 학습(self supervised) 네트워크를 통해 정합하는 것을 특징으로 한다. The matching step in the present invention is characterized in that the matching module extracts features from the target frame and reference frame, extracts an affine transformation matrix, and performs matching through a deep learning-based self-supervised learning network. .
본 발명에서 복사하는 단계는, 특징 공간(feature space)에서 콘텍스트 매칭(context matching)을 통해 참조 프레임 간 유사도를 기반으로 가중치를 부여하여 복원영역에 대한 복원정보를 복사하는 것을 특징으로 한다. In the present invention, the copying step is characterized by copying the restored information about the restored area by assigning a weight based on the similarity between reference frames through context matching in the feature space.
본 발명에서 복원하는 단계는, 복구 모듈이 대상 프레임을 복원한 후 대상 프레임을 참조 프레임으로 업데이트하는 단계를 더 포함하는 것을 특징으로 한다. In the present invention, the restoring step further includes the step of updating the target frame to a reference frame after the recovery module restores the target frame.
본 발명의 일 측면에 따른 인접 프레임 정보를 이용한 영상 복원 장치 및 그 방법은 입력된 비디오 영상에서 방해물 영역이 설정된 대상 프레임의 특징(feature) 정보와 참조 프레임들의 특징 정보를 딥러닝 기반으로 정합한 후 참조 프레임으로부터 대상 프레임의 방해물 영역에 대한 영역정보를 딥러닝 기반으로 복사하여 대상 프레임의 방해물 영역을 복원함으로써, 프레임 간 시간적 연속성을 유지하면서 시각적으로 자연스러운 영상을 도출할 수 있을 뿐만 아니라 최적화 기반 복원 방식보다 실행 속도를 향상시킬 수 있다. An image restoration apparatus and method using adjacent frame information according to an aspect of the present invention matches the feature information of a target frame in which an obstruction area is set in an input video image and the feature information of reference frames based on deep learning. By copying the area information about the obstruction area of the target frame from the reference frame based on deep learning and restoring the obstruction area of the target frame, not only can a visually natural image be derived while maintaining temporal continuity between frames, but also an optimization-based restoration method. Execution speed can be further improved.
또한, 본 발명에 따르면, 연속된 저노출 영상이나 과노출 영상에서도 복원된 영상을 기반으로 차선 탐지의 정확도를 향상시킬 수 있다. Additionally, according to the present invention, the accuracy of lane detection can be improved based on the restored image even in continuous under-exposed or over-exposed images.
도 1은 본 발명의 일 실시예에 따른 인접 프레임 정보를 이용한 영상 복원 장치를 나타낸 블록 구성도이다.
도 2는 본 발명의 일 실시예에 따른 인접 프레임 정보를 이용한 영상 복원 장치를 개략적으로 도식화한 도면이다.
도 3은 본 발명의 일 실시예에 따른 인접 프레임 정보를 이용한 영상 복원 장치에서 복사 모듈의 콘텍스트 매칭 과정을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 인접 프레임 정보를 이용한 영상 복원 장치에서 복사 모듈에서 마스크드 소프트맥스를 나타낸 예시도이다.
도 5는 본 발명의 일 실시예에 따른 인접 프레임 정보를 이용한 영상 복원 장치를 이용한 노출 영상의 복원상태를 나타낸 예시도이다.
도 6은 본 발명의 일 실시예에 따른 인접 프레임 정보를 이용한 영상 복원 발명을 설명하기 위한 흐름도이다. Figure 1 is a block diagram showing an image restoration device using adjacent frame information according to an embodiment of the present invention.
Figure 2 is a diagram schematically illustrating an image restoration device using adjacent frame information according to an embodiment of the present invention.
Figure 3 is a diagram for explaining the context matching process of the copy module in the image restoration device using adjacent frame information according to an embodiment of the present invention.
Figure 4 is an exemplary diagram showing masked softmax in the copy module in the image restoration device using adjacent frame information according to an embodiment of the present invention.
Figure 5 is an exemplary diagram showing a restoration state of an exposed image using an image restoration device using adjacent frame information according to an embodiment of the present invention.
Figure 6 is a flowchart for explaining an image restoration invention using adjacent frame information according to an embodiment of the present invention.
이하, 첨부된 도면들을 참조하여 본 발명에 따른 인접 프레임 정보를 이용한 영상 복원 장치 및 그 방법을 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, an image restoration apparatus and method using adjacent frame information according to the present invention will be described with reference to the attached drawings. In this process, the thickness of lines or sizes of components shown in the drawing may be exaggerated for clarity and convenience of explanation. In addition, the terms described below are terms defined in consideration of functions in the present invention, and may vary depending on the intention or custom of the user or operator. Therefore, definitions of these terms should be made based on the content throughout this specification.
도 1은 본 발명의 일 실시예에 따른 인접 프레임 정보를 이용한 영상 복원 장치를 나타낸 블록 구성도이고, 도 2는 본 발명의 일 실시예에 따른 인접 프레임 정보를 이용한 영상 복원 장치를 개략적으로 도식화한 도면이며, 도 3은 본 발명의 일 실시예에 따른 인접 프레임 정보를 이용한 영상 복원 장치에서 복사 모듈의 콘텍스트 매칭 과정을 설명하기 위한 도면이고, 도 4는 본 발명의 일 실시예에 따른 인접 프레임 정보를 이용한 영상 복원 장치에서 복사 모듈에서 마스크드 소프트맥스를 나타낸 예시도이며, 도 5는 본 발명의 일 실시예에 따른 인접 프레임 정보를 이용한 영상 복원 장치를 이용한 노출 영상의 복원상태를 나타낸 예시도이다. Figure 1 is a block diagram showing an image restoration device using adjacent frame information according to an embodiment of the present invention, and Figure 2 is a schematic diagram of an image restoration device using adjacent frame information according to an embodiment of the present invention. It is a diagram, and FIG. 3 is a diagram for explaining the context matching process of the copy module in an image restoration device using adjacent frame information according to an embodiment of the present invention, and FIG. 4 is a diagram showing adjacent frame information according to an embodiment of the present invention. This is an example diagram showing masked softmax in a copy module in an image restoration device using , and Figure 5 is an example diagram showing the restoration state of an exposed image using an image restoration device using adjacent frame information according to an embodiment of the present invention. .
도 1에 도시된 바와 같이 본 발명의 일 실시예에 따른 인접 프레임 정보를 이용한 영상 복원 장치는, 입력부(10), 복원영역 설정부(20), 정합 모듈(30), 복사 모듈(40), 복구 모듈(50) 및 영상 출력부(60)를 포함할 수 있다. As shown in FIG. 1, an image restoration device using adjacent frame information according to an embodiment of the present invention includes an
입력부(10)는 복원하고자 하는 비디오 영상을 입력받을 수 있다. The
또한, 입력부(10)를 통해 사용자의 설정값을 입력받을 수도 있다. Additionally, the user's settings can be input through the
복원영역 설정부(20)는 입력부(10)로부터 입력된 비디오 영상에 복원영역을 설정할 수 있다. The restoration
여기서, 복원영역은 비디오 영상에서 방해물에 의해 사라진 영역이나 잘못된 영역으로 방해물을 설정하여 방해물의 영역을 복원영역으로 설정할 수 있다. Here, the restoration area can be set as an area of the obstruction in the video image that has disappeared or is an incorrect area due to the obstruction, and the area of the obstruction can be set as the restoration area.
이때 복원영역 설정부(20)가 비디오 영상에서 사용자가 방해물을 설정한 경우 방해물의 영역을 복원영역으로 설정할 수도 있고, 비디오 영상에서 방해물의 종류를 설정한 경우 방해물의 객체를 인식하여 복원영역으로 설정할 수도 있다. At this time, if the user sets an obstacle in the video image, the restoration
정합 모듈(30)은 비디오 영상에서 복원할 대상 프레임과 참조 프레임을 딥러닝 기반으로 정합할 수 있다. The matching
여기서, 대상 프레임(target frame)은 비디오 영상 중 복원하고자하는 프레임이고, 참조 프레임(reference frame)은 복원하기 위해 참조하여 복원영역의 정보를 복사하기 위한 다른 프레임들이다. Here, the target frame is a frame from the video image to be restored, and the reference frame is other frames to which information in the restoration area is copied for reference for restoration.
본 실시예에서 정합 모듈(30)은 대상 프레임과 참조 프레임으로부터 특징(feature)을 추출하고 아핀 변환 행렬(affine matrix)을 추출하여 딥러닝 기반 자기 지도 학습(self supervised) 네트워크를 통해 정합할 수 있다. In this embodiment, the matching
도 2에 도시된 바와 같이 정합 모듈(Alignment network)(30)은 정렬 엔코더(Alignment encoder)를 통해 대상 프레임과 참조 프레임들의 특징(feature)을 각각 추출한 후 정렬 리그레서(Alignment regressor)에 복원하려는 대상 프레임과 정렬하려는 참조 프레임을 동시에 동과시켜 정합하기 위한 아핀 변환 행렬을 추출할 수 있다. As shown in Figure 2, the alignment module (Alignment network) 30 extracts the features of the target frame and reference frames through an alignment encoder, and then extracts the features of the target frame and the reference frame to be restored to the alignment regressor. An affine transformation matrix for alignment can be extracted by simultaneously matching the frame and the reference frame to be aligned.
따라서 참조 프레임을 아핀 변환 행렬을 통해 변환하여 참조 프레임을 대상 프레임과 정합할 수 있다. Therefore, the reference frame can be matched with the target frame by transforming the reference frame through an affine transformation matrix.
여기서 정렬 엔코더는 대상 프레임과 참조 프레임에는 복원영역을 알려주기 위한 마스크를 같이 입력받아 특징을 추출할 수 있다. Here, the alignment encoder can extract features by receiving a mask for indicating the restoration area in the target frame and reference frame.
복사 모듈(Copy network)(40)은 정합 모듈(30)에서 정합된 참조 프레임으로부터 대상 프레임의 복원영역에 대한 복원정보를 딥러닝 기반으로 복사할 수 있다. The
이때 정합 모듈(30)에서 정합된 참조 프레임은 대상 프레임과 가까운 프레임인 경우 정합이 잘되었지만, 영상 내 많은 움직임이 있는 경우에는 정합이 힘든 프레임이 존재하기 때문에 대상 프레임의 복원영역을 복원한 복원정보를 복사하기 위해 대상 프레임과 정합된 참조 프레임들 간에 특징 공간(feature space)에서 콘텍스트 매칭(context matching)을 통해 참조 프레임 간 유사도를 기반으로 가중치를 부여하여 복원영역에 대한 복원정보를 복사할 수 있다. At this time, if the reference frame matched in the matching
여기서, 콘텍스트 매칭은 대상 프레임과 참조 프레임 간 복원영역이 아닌 부분에 대한 유사도(similarity)를 구해 가중치를 부여하여 참조 프레임들의 정보를 하나로 복사할 수 있다. Here, context matching can copy the information of the reference frames into one by calculating the similarity of the non-restored area between the target frame and the reference frame and assigning a weight.
예를 들어, 도 3에 도시된 바와 같이 C_match는 참조 프레임의 특징들을 조합하기 위한 가중치를 의미하고, C_mask는 참조 프레임들에서 보이지 않는 영역을 나타내며, C_out은 하나로 복사된 참조 프레임의 특징을 의미한다. For example, as shown in Figure 3, C_match refers to a weight for combining the features of the reference frame, C_mask refers to the area not visible in the reference frames, and C_out refers to the features of the reference frame copied into one. .
또한, 시정맵(Visibility map)은 복원영역인 홀이 아닌, 보이는 영역을 나타낸다. Additionally, the visibility map represents the visible area, not the hole, which is the restoration area.
이와 같이 참조 프레임의 특징들과 대상 프레임의 특징 간의 유사성을 기반으로 참조 프레임의 특징들을 조합하기 위해 대상 프레임의 특징과 참조 프레임의 특징 간에 각각 복원영역을 제외한 영역에 대한 코사인 유사도(cosine similarity)를 구하여 전역 유사도(global similarity)로 설정한다. In this way, in order to combine the features of the reference frame based on the similarity between the features of the reference frame and the features of the target frame, the cosine similarity for the area excluding the restored area is calculated between the features of the target frame and the features of the reference frame, respectively. Find and set it as global similarity.
이후 소프트맥스(softmax)를 통해 가중치를 구할 때 복원영역인 홀 영역에 대해서도 가중치가 구해지는 문제를 해소하기 위해 복원영역을 제외하기 위한 마스크를 적용한 마스크드 소프트맥스(Masked Softmax)를 통해 가중치를 구한다. Afterwards, when calculating the weight through softmax, in order to solve the problem of obtaining the weight even for the hole area, which is the restoration area, the weight is obtained through Masked Softmax, which applies a mask to exclude the restoration area. .
마스크드 소프트맥스(Masked Softmax)는 도 4에 도시된 바와 같이 전역 유사도(Global similarity)를 바탕으로 홀 영역을 제외한 나머지 영역에 대해 소프트맥스를 구할 수 있다. 이때 시정맵에서 1은 보이는 부분이고, 0은 보이지 않는 홀 영역을 의미한다. As shown in FIG. 4, Masked Softmax can obtain softmax for the remaining areas excluding the hole area based on global similarity. At this time, in the visibility map, 1 means the visible part, and 0 means the invisible hole area.
따라서 홀 영역을 제외한 부분에 대해서만 가중치를 구하여 보이지 않는 영역은 0이 되고, C_mask에서는 1이 된다. Therefore, the weight is calculated only for the part excluding the hole area, so the invisible area becomes 0, and C_mask becomes 1.
이와 같이 복사 모듈(40)은 콘텍스트 매칭을 통해 참조 프레임의 특징에서 가중치에 따라 복원정보를 복사하여 하나의 복원정보 C_out을 추출하고, 참조 프레임에서도 볼 수 없는 영역인 C_mask를 추출할 수 있다. In this way, the
복구 모듈(Paste network)(50)은 복사 모듈(40)에서 복사한 복원정보를 대상 프레임의 복원영역에 붙여넣기 하여 복원한다. The recovery module (Paste network) 50 restores the restoration information copied from the
즉, 복구 모듈(50)은 복사 모듈(40)에서 참조 프레임의 특징들에서 하나로 복사된 C_out과 대상 프레임의 특징, 보이지 않는 영역에 대한 정보를 갖는 C_mask를 입력으로 받아 복원영역을 복원할 수 있다. That is, the
한편, 복구 모듈(50)은 복원영역에 대한 복원정보를 참조 프레임에서도 복사할 수 없는 경우 다이레이트디 콘볼루션(Dilated convolution)을 통해 복원할 수도 있다. Meanwhile, if the restoration information for the restoration area cannot be copied from the reference frame, the
또한. 복구 모듈(50)은 복원한 대상 프레임을 참조 프레임에 업데이트하여 시간적 연속성을 유지할 수 있도록 한다. also. The
영상 출력부(60)는 복구 모듈(50)에서 모든 프레임에 대해 복원된 비디오 영상을 출력할 수 있다. The
위와 같은 본 발명에 의한 인접 프레임 정보를 이용한 영상 복원 장치를 통해 저노출되거나 과노출된 도로 영상에 적용한 경우 도 5에 도시된 바와 같이 저노출 영상과 과노출 영상에 대해서도 의미있는 복원이 이루어져 차선인식의 정확도를 향상시킬 수 있다. When the above-described image restoration device using adjacent frame information according to the present invention is applied to underexposed or overexposed road images, meaningful restoration is achieved for both underexposed and overexposed images, as shown in FIG. 5, and lane recognition is achieved. accuracy can be improved.
상술한 바와 같이, 본 발명의 실시예에 의한 인접 프레임 정보를 이용한 영상 복원 장치에 따르면, 입력된 비디오 영상에서 방해물 영역이 설정된 대상 프레임의 특징(feature) 정보와 참조 프레임들의 특징 정보를 딥러닝 기반으로 정합한 후 참조 프레임으로부터 대상 프레임의 방해물 영역에 대한 영역정보를 딥러닝 기반으로 복사하여 대상 프레임의 방해물 영역을 복원함으로써, 프레임 간 시간적 연속성을 유지하면서 시각적으로 자연스러운 영상을 도출할 수 있을 뿐만 아니라 최적화 기반 복원 방식보다 실행 속도를 향상시킬 수 있으며, 연속된 저노출 영상이나 과노출 영상에서도 복원된 영상을 기반으로 차선 탐지의 정확도를 향상시킬 수 있다. As described above, according to the image restoration device using adjacent frame information according to an embodiment of the present invention, the feature information of the target frame in which the obstruction area is set and the feature information of the reference frames in the input video image are deep learning-based. After matching, the area information about the obstruction area of the target frame is copied from the reference frame based on deep learning to restore the obstruction area of the target frame. By doing so, not only can a visually natural image be derived while maintaining temporal continuity between frames. The execution speed can be improved compared to optimization-based restoration methods, and the accuracy of lane detection can be improved based on restored images even in continuous under-exposed or over-exposed images.
도 6은 본 발명의 일 실시예에 따른 인접 프레임 정보를 이용한 영상 복원 발명을 설명하기 위한 흐름도이다. Figure 6 is a flowchart for explaining an image restoration invention using adjacent frame information according to an embodiment of the present invention.
도 6에 도시된 바와 같이 본 발명의 일 실시예에 따른 인접 프레임 정보를 이용한 영상 복원 방법에서는 먼저, 복원영역 설정부(20)가 입력부(10)로부터 비디오 영상을 입력받는다(S10). As shown in FIG. 6, in the image restoration method using adjacent frame information according to an embodiment of the present invention, first, the restoration
복원영역 설정부(200가 입력된 복원하고자 하는 비디오 영상에 복원영역을 설정한다(S20). The restoration area setting unit (200) sets the restoration area on the video image to be restored (S20).
여기서, 복원영역은 비디오 영상에서 방해물에 의해 사라진 영역이나 잘못된 영역으로 방해물을 설정하여 방해물의 영역을 복원영역으로 설정할 수 있다. Here, the restoration area can be set as an area of the obstruction in the video image that has disappeared or is an incorrect area due to the obstruction, and the area of the obstruction can be set as the restoration area.
이때 복원영역 설정부(20)가 비디오 영상에서 사용자가 방해물을 설정한 경우 방해물의 영역을 복원영역으로 설정할 수도 있고, 비디오 영상에서 방해물의 종류를 설정한 경우 방해물의 객체를 인식하여 복원영역으로 설정할 수도 있다. At this time, if the user sets an obstacle in the video image, the restoration
S20 단계에서 복원영역을 설정한 후 정합 모듈은 비디오 영상에서 복원할 대상 프레임과 참조 프레임을 딥러닝 기반으로 정합한다(S30). After setting the restoration area in step S20, the matching module matches the target frame to be restored and the reference frame in the video image based on deep learning (S30).
여기서, 대상 프레임(target frame)은 비디오 영상 중 복원하고자하는 프레임이고, 참조 프레임(reference frame)은 복원하기 위해 참조하여 복원영역의 정보를 복사하기 위한 다른 프레임들이다. Here, the target frame is a frame from the video image to be restored, and the reference frame is other frames to which information in the restoration area is copied for reference for restoration.
본 실시예에서 정합 모듈(30)은 대상 프레임과 참조 프레임으로부터 특징(feature)을 추출하고 아핀 변환 행렬(affine matrix)을 추출하여 딥러닝 기반 자기 지도 학습(self supervised) 네트워크를 통해 정합할 수 있다. In this embodiment, the
S30 단계에서 대상 프레임과 참조 프레임을 정합한 후 복사 모듈(40)은 정합 모듈(30)에서 정합된 참조 프레임으로부터 대상 프레임의 복원영역에 대한 복원정보를 딥러닝 기반으로 복사한다(S40). After matching the target frame and the reference frame in step S30, the
이때 정합 모듈(30)에서 정합된 참조 프레임은 대상 프레임과 가까운 프레임인 경우 정합이 잘되었지만, 영상 내 많은 움직임이 있는 경우에는 정합이 힘든 프레임이 존재하기 때문에 대상 프레임의 복원영역을 복원한 복원정보를 복사하기 위해 대상 프레임과 정합된 참조 프레임들 간에 특징 공간(feature space)에서 콘텍스트 매칭(context matching)을 통해 참조 프레임 간 유사도를 기반으로 가중치를 부여하여 복원영역에 대한 복원정보를 복사할 수 있다. At this time, if the reference frame matched in the
여기서, 콘텍스트 매칭은 대상 프레임과 참조 프레임 간 복원영역이 아닌 부분에 대한 유사도(similarity)를 구해 가중치를 부여하여 참조 프레임들의 정보를 하나로 복사할 수 있다. Here, context matching can copy the information of the reference frames into one by calculating the similarity of the non-restored area between the target frame and the reference frame and assigning a weight.
S40 단계에서 복원정보를 복사한 후 복구 모듈(50)은 복사 모듈(40)에서 복사한 복원정보를 대상 프레임의 복원영역에 붙여넣기 하여 복구한다(S50). After copying the restoration information in step S40, the
즉, 복구 모듈(50)은 복사 모듈(40)에서 참조 프레임의 특징들에서 하나로 복사된 복원정보, 대상 프레임의 특징, 보이지 않는 영역에 대한 정보를 기반으로 복원영역을 복원할 수 있다. That is, the
한편, 복구 모듈(50)은 복원영역에 대한 복원정보를 참조 프레임에서도 복사할 수 없는 경우 다이레이트디 콘볼루션(Dilated convolution)을 통해 복원할 수도 있다. Meanwhile, if the restoration information for the restoration area cannot be copied from the reference frame, the
S50 단계에서 대상 프레임을 복원한 후 복구 모듈(50)은 복원한 대상 프레임을 참조 프레임에 업데이트하여 시간적 연속성을 유지할 수 있도록 한다(S60). After restoring the target frame in step S50, the
상술한 바와 같이, 본 발명의 실시예에 의한 인접 프레임 정보를 이용한 영상 복원 방법에 따르면, 입력된 비디오 영상에서 방해물 영역이 설정된 대상 프레임의 특징(feature) 정보와 참조 프레임들의 특징 정보를 딥러닝 기반으로 정합한 후 참조 프레임으로부터 대상 프레임의 방해물 영역에 대한 영역정보를 딥러닝 기반으로 복사하여 대상 프레임의 방해물 영역을 복원함으로써, 프레임 간 시간적 연속성을 유지하면서 시각적으로 자연스러운 영상을 도출할 수 있을 뿐만 아니라 최적화 기반 복원 방식보다 실행 속도를 향상시킬 수 있으며, 연속된 저노출 영상이나 과노출 영상에서도 복원된 영상을 기반으로 차선 탐지의 정확도를 향상시킬 수 있다. As described above, according to the image restoration method using adjacent frame information according to an embodiment of the present invention, the feature information of the target frame in which the obstruction area is set and the feature information of the reference frames in the input video image are deep learning-based. After matching, the area information about the obstruction area of the target frame is copied from the reference frame based on deep learning to restore the obstruction area of the target frame. By doing so, not only can a visually natural image be derived while maintaining temporal continuity between frames. The execution speed can be improved compared to optimization-based restoration methods, and the accuracy of lane detection can be improved based on restored images even in continuous under-exposed or over-exposed images.
본 명세서에서 설명된 구현은, 예컨대, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 단일 형태의 구현의 맥락에서만 논의(예컨대, 방법으로서만 논의)되었더라도, 논의된 특징의 구현은 또한 다른 형태(예컨대, 장치 또는 프로그램)로도 구현될 수 있다. 장치는 적절한 하드웨어, 소프트웨어 및 펌웨어 등으로 구현될 수 있다. 방법은, 예컨대, 컴퓨터, 마이크로프로세서, 집적 회로 또는 프로그래밍 가능한 로직 디바이스 등을 포함하는 프로세싱 디바이스를 일반적으로 지칭하는 프로세서 등과 같은 장치에서 구현될 수 있다. 프로세서는 또한 최종-사용자 사이에 정보의 통신을 용이하게 하는 컴퓨터, 셀 폰, 휴대용/개인용 정보 단말기(personal digital assistant: "PDA") 및 다른 디바이스 등과 같은 통신 디바이스를 포함한다.Implementations described herein may be implemented, for example, as a method or process, device, software program, data stream, or signal. Although discussed only in the context of a single form of implementation (eg, only as a method), implementations of the features discussed may also be implemented in other forms (eg, devices or programs). The device may be implemented with appropriate hardware, software, firmware, etc. The method may be implemented in a device such as a processor, which generally refers to a processing device including a computer, microprocessor, integrated circuit, or programmable logic device. Processors also include communication devices such as computers, cell phones, portable/personal digital assistants (“PDAs”) and other devices that facilitate communication of information between end-users.
본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. The present invention has been described with reference to the embodiments shown in the drawings, but these are merely exemplary, and those skilled in the art will recognize that various modifications and other equivalent embodiments are possible therefrom. You will understand.
따라서 본 발명의 진정한 기술적 보호범위는 아래의 청구범위에 의해서 정하여져야 할 것이다.Therefore, the true technical protection scope of the present invention should be determined by the claims below.
10 : 입력부 20 : 복원영역 설정부
30 : 정합 모듈 40 : 복사 모듈
50 : 복구 모듈 60 : 영상 출력부10: input unit 20: restoration area setting unit
30: Matching module 40: Copying module
50: Recovery module 60: Video output unit
Claims (12)
상기 입력부로 입력된 상기 비디오 영상에 복원영역을 설정하는 복원영역 설정부;
상기 비디오 영상에서 복원할 대상 프레임과 참조 프레임을 딥러닝 기반으로 정합하는 정합 모듈;
상기 정합 모듈에서 정합된 상기 참조 프레임으로부터 상기 대상 프레임의 상기 복원영역에 대한 복원정보를 딥러닝 기반으로 복사하는 복사 모듈;
상기 복사 모듈에서 복사한 상기 복원정보를 상기 대상 프레임의 상기 복원영역에 붙여넣기 하여 복원하는 복구 모듈; 및
상기 복구 모듈에서 복원된 상기 비디오 영상을 출력하는 영상 출력부;를 포함하되,
상기 복사 모듈은, 특징 공간(feature space)에서 상기 참조 프레임 간 유사도를 기반으로 마스크드 소프트맥스(Masked Softmax)를 통해 구한 가중치를 부여하여 상기 복원영역에 대한 상기 복원정보를 복사하는 것을 특징으로 하는 인접 프레임 정보를 이용한 영상 복원 장치.
An input unit that receives a video image to be restored;
a restoration area setting unit that sets a restoration area in the video image input to the input unit;
a matching module that matches a target frame to be restored from the video image and a reference frame based on deep learning;
a copy module that copies restoration information about the restoration area of the target frame from the reference frame matched by the matching module based on deep learning;
a recovery module for restoring the restoration information by pasting the restoration information copied from the copy module into the restoration area of the target frame; and
Including a video output unit that outputs the video image restored in the recovery module,
The copy module is characterized in that it copies the restoration information for the restoration area by assigning a weight obtained through Masked Softmax based on the similarity between the reference frames in feature space. Image restoration device using adjacent frame information.
The image restoration device according to claim 1, wherein the restoration area setting unit sets an area of an obstacle set in the video image as the restoration area.
The image restoration device according to claim 1, wherein the restoration area setting unit recognizes an obstacle object set in the video image and sets it as the restoration area.
The method of claim 1, wherein the matching module extracts features from the target frame and the reference frame, extracts an affine transformation matrix, and performs matching through a deep learning-based self-supervised learning network. An image restoration device using adjacent frame information.
The image restoration using adjacent frame information according to claim 1, wherein the copy module assigns the weight based on similarity between the reference frames through context matching in feature space. Device.
The image restoration apparatus according to claim 1, wherein the recovery module restores the target frame and then updates the target frame with the reference frame.
정합 모듈이 상기 비디오 영상에서 복원할 대상 프레임과 참조 프레임을 딥러닝 기반으로 정합하는 단계;
복사 모듈이 상기 정합 모듈에서 정합된 상기 참조 프레임으로부터 상기 대상 프레임의 상기 복원영역에 대한 복원정보를 딥러닝 기반으로 복사하는 단계; 및
복구 모듈이 상기 복사 모듈에서 복사한 상기 복원정보를 상기 대상 프레임의 상기 복원영역에 붙여넣기 하여 복구하는 단계;를 포함하되,
상기 복사하는 단계는, 특징 공간(feature space)에서 상기 참조 프레임 간 유사도를 기반으로 마스크드 소프트맥스(Masked Softmax)를 통해 구한 가중치를 부여하여 상기 복원영역에 대한 복원정보를 복사하는 것을 특징으로 하는 인접 프레임 정보를 이용한 영상 복원 방법.
A restoration area setting unit setting a restoration area on a video image to be restored input from an input unit;
A matching module matching a target frame to be restored and a reference frame from the video image based on deep learning;
A copying module copying restoration information about the restoration area of the target frame from the reference frame matched by the matching module based on deep learning; and
Comprising: a step of restoration by a restoration module pasting the restoration information copied from the copy module into the restoration area of the target frame;
The copying step is characterized in that copying the restoration information for the restoration area by assigning a weight obtained through Masked Softmax based on the similarity between the reference frames in feature space. Image restoration method using adjacent frame information.
The method of claim 7, wherein in the setting of the restoration area, the restoration area setting unit sets an obstacle set in the video image as the restoration area.
The image restoration method according to claim 7, wherein in the step of setting the restoration area, the restoration area setting unit recognizes an obstacle object set in the video image and sets it as the restoration area.
The method of claim 7, wherein in the matching step, the matching module extracts features from the target frame and the reference frame and extracts an affine transformation matrix to create a deep learning-based self-supervised learning network. An image restoration method using adjacent frame information, characterized by matching through.
The image using adjacent frame information according to claim 7, wherein the copying step assigns the weight based on similarity between the reference frames through context matching in feature space. How to restore.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020190163940A KR102584695B1 (en) | 2019-12-10 | 2019-12-10 | Apparatus for inpainting video using reference frame information and method thereof |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020190163940A KR102584695B1 (en) | 2019-12-10 | 2019-12-10 | Apparatus for inpainting video using reference frame information and method thereof |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20210073284A KR20210073284A (en) | 2021-06-18 |
| KR102584695B1 true KR102584695B1 (en) | 2023-10-05 |
Family
ID=76623712
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020190163940A Active KR102584695B1 (en) | 2019-12-10 | 2019-12-10 | Apparatus for inpainting video using reference frame information and method thereof |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102584695B1 (en) |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20110103644A1 (en) * | 2009-10-30 | 2011-05-05 | Zoran Corporation | Method and apparatus for image detection with undesired object removal |
-
2019
- 2019-12-10 KR KR1020190163940A patent/KR102584695B1/en active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20110103644A1 (en) * | 2009-10-30 | 2011-05-05 | Zoran Corporation | Method and apparatus for image detection with undesired object removal |
Non-Patent Citations (3)
| Title |
|---|
| Dahun Kim ET AL: "Deep Video Inpainting", Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 16-20 June 2019, pp. 5792-5801(2019.06.16.) 1부.* |
| Huifang Li ET AL: "Spatial alignment network for facial landmark localization", World Wide Web, volume 22, pages 1481-1498, 7 Aug. 2018(2018.08.07.) 1부.* |
| Yinan Zhao ET AL: "Guided Image Inpainting: Replacing an Image Region by Pulling Content From Another Image", 2019 IEEE Winter Conference on Applications of Computer Vision (WACV), 7-11 Jan. 2019(2019.01.07.) 1부.* |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20210073284A (en) | 2021-06-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP3798975B1 (en) | Method and apparatus for detecting subject, electronic device, and computer readable storage medium | |
| CN109493350B (en) | Portrait segmentation method and device | |
| CN109753971B (en) | Correction method and device for distorted text lines, character recognition method and device | |
| WO2022062346A1 (en) | Image enhancement method and apparatus, and electronic device | |
| JP6688277B2 (en) | Program, learning processing method, learning model, data structure, learning device, and object recognition device | |
| CN112435278B (en) | A visual SLAM method and device based on dynamic target detection | |
| CN110335216B (en) | Image processing method, image processing apparatus, terminal device, and readable storage medium | |
| CN105519092A (en) | Apparatus and method for image stabilization using image blur correction | |
| US20170351932A1 (en) | Method, apparatus and computer program product for blur estimation | |
| WO2022160857A1 (en) | Image processing method and apparatus, and computer-readable storage medium and electronic device | |
| CN107610149B (en) | Image segmentation result edge optimization processing method and device and computing equipment | |
| Im et al. | Single image-based ghost-free high dynamic range imaging using local histogram stretching and spatially-adaptive denoising | |
| CN110766611A (en) | Image processing method, image processing device, storage medium and electronic equipment | |
| CN115761389A (en) | Image sample amplification method and device, electronic device and storage medium | |
| US12131447B2 (en) | System and process for repainting of planar objects in video | |
| US10586099B2 (en) | Information processing apparatus for tracking processing | |
| WO2022206679A1 (en) | Image processing method and apparatus, computer device and storage medium | |
| CN116452426B (en) | Panorama stitching method and device | |
| CN113724143A (en) | Method and device for image restoration | |
| KR102584695B1 (en) | Apparatus for inpainting video using reference frame information and method thereof | |
| CN113592922A (en) | Image registration processing method and device | |
| CN114066731A (en) | Method, apparatus, electronic device and storage medium for generating panoramic images | |
| CN109816709A (en) | Monocular camera-based depth estimation method, device and equipment | |
| CN116342992B (en) | Image processing method and electronic device | |
| CN116664604A (en) | Image processing method and device, storage medium and electronic equipment |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R13-asn-PN2301 St.27 status event code: A-3-3-R10-R11-asn-PN2301 |
|
| R17-X000 | Change to representative recorded |
St.27 status event code: A-3-3-R10-R17-oth-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-3-3-R10-R18-oth-X000 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R13-asn-PN2301 St.27 status event code: A-3-3-R10-R11-asn-PN2301 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |