[go: up one dir, main page]

KR20090055803A - 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법 - Google Patents

다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법 Download PDF

Info

Publication number
KR20090055803A
KR20090055803A KR1020070122629A KR20070122629A KR20090055803A KR 20090055803 A KR20090055803 A KR 20090055803A KR 1020070122629 A KR1020070122629 A KR 1020070122629A KR 20070122629 A KR20070122629 A KR 20070122629A KR 20090055803 A KR20090055803 A KR 20090055803A
Authority
KR
South Korea
Prior art keywords
depth
camera
image
cameras
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
KR1020070122629A
Other languages
English (en)
Inventor
호요성
이은경
김성열
Original Assignee
광주과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광주과학기술원 filed Critical 광주과학기술원
Priority to KR1020070122629A priority Critical patent/KR20090055803A/ko
Priority to US12/745,099 priority patent/US20100309292A1/en
Priority to PCT/KR2008/007027 priority patent/WO2009069958A2/en
Publication of KR20090055803A publication Critical patent/KR20090055803A/ko
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

다시점 깊이맵 생성 방법 및 장치, 그리고 다시점 영상에서의 변이값 생성 방법이 개시된다. 본 발명에 따른 다시점 깊이맵 생성 방법은 (a) 복수 개의 카메라를 이용하여 복수 개의 영상들로 구성되는 다시점 영상을 획득하는 단계; (b) 깊이 카메라를 이용하여 영상과 깊이 정보를 획득하는 단계; (c) 상기 획득된 깊이 정보를 이용하여, 공간 상의 동일한 점에 대한 상기 복수 개의 영상들 각각에서의 좌표를 추정하는 단계; (d) 상기 추정된 좌표 주변의 소정 영역을 탐색함으로써 상기 동일한 점에 대한 상기 복수 개의 영상들 각각에서의 변이값을 구하는 단계; 및 (e) 상기 구해진 변이값을 이용하여 다시점 깊이맵을 생성하는 단계를 포함하는 것을 특징으로 한다. 이러한 본 발명에 의하면, 보다 빠른 시간에 다시점 깊이맵을 생성할 수 있으며, 일반적인 스테레오 매칭을 이용하여 생성되는 다시점 깊이맵보다 품질 면에서 향상된 다시점 깊이맵을 생성할 수 있다.
다시점 깊이맵, 스테레오 매칭, 다시점 카메라, 깊이 카메라

Description

다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의 변이값 생성 방법{Method and apparatus for generating multi-viewpoint depth map, method for generating disparity of multi-viewpoint image}
본 발명은 다시점 깊이맵 생성 방법 및 장치, 그리고 다시점 영상에서의 변이값 생성 방법에 관한 것으로, 보다 상세하게는 깊이 카메라에 의해 획득된 깊이 정보를 이용하여 보다 빠른 시간에 고품질의 다시점 깊이맵을 생성할 수 있는 다시점 깊이맵 생성 방법 및 장치, 그리고 다시점 영상에서의 변이값 생성 방법에 관한 것이다.
피사체로부터 3차원 정보를 획득하는 방법은 크게 능동적 방법과 수동적 방법으로 구분할 수 있다. 능동적 방법은 3차원 스캐너를 이용한 방법, 구조화된 광선 패턴을 이용한 방법, 깊이 카메라 등의 능동적인 방법 등이 있다. 이 경우 실시간으로 3차원 정보를 비교적 정확하게 획득할 수 있지만, 장비가 고가이고 깊이 카메라를 제외하고는 동적 객체나 장면의 모델링이 불가능하다는 문제가 있었다.
수동적인 방법으로는 양안식 스테레오 영상을 이용하는 스테레오 매칭(Stereo Matching) 방법과 실루엣 기반 방법, 부피 기반 모델링 방법인 복셀 컬 러링 방법(Voxel Coloring), 카메라 이동에 의해 촬영된 여러 시점의 정적 객체에 대한 3차원 정보를 계산하는 움직임 기반 모양 추정 방법(Shape from Motion), 음영 정보를 이용한 모양 추정 방법(Shape from Shading) 등이 있다.
특히, 스테레오 매칭 방법은 스테레오 영상으로부터 3차원 이미지를 얻기 위해 이용되는 기술로서, 동일 피사체에 대하여 동일선상의 서로 다른 촬영 위치에서 촬영된 다수의 2차원 영상으로부터 3차원 영상을 얻기 위해 이용된다. 스테레오 영상은 이처럼 피사체에 대하여 서로 다른 촬영 위치에서 촬영된 다수의 2차원 영상, 즉 서로 짝(pair) 관계에 있는 다수의 2차원 영상을 의미한다.
일반적으로 2차원 영상으로부터 3차원 영상을 생성하기 위해서는 2차원 영상의 수직, 수평의 위치 정보인 x,y 좌표에 더하여 깊이 정보인 z 좌표를 필요로 한다. z 좌표를 구하기 위해서는 스테레오 영상의 변이 정보를 필요로 하는데, 스테레오 매칭은 이러한 변이를 얻기 위해 사용되는 기술이다. 예를 들어 스테레오 영상이 두 대의 좌,우 카메라에 의해 촬영된 좌,우 영상라면, 좌,우 영상 중에 하나를 기준 영상으로, 다른 하나를 탐색 영상으로 정한다. 이러한 경우에 공간상의 동일한 한 점에 대한 기준 영상과 탐색 영상 간의 거리, 즉 좌표의 차이를 변이라고 하는데, 스테레오 매칭 기술을 이용하여 변이를 얻는다.
이러한 수동적 방법은 여러 시점의 광학 카메라로부터 얻어진 영상을 이용하여 3차원 정보를 생성하는 것으로 능동적 방법에 비하여 저가의 비용으로 3차원 정보를 얻을 수 있고, 해상도가 높은 장점이 있다. 그러나 3차원 정보를 계산하는 데 걸리는 시간이 오래 걸리고, 영상의 특성 즉 조명 조건의 변화, 텍스처, 차폐 영역 의 존재로 인하여 깊이 정보의 정확도가 능동적 방법에 비하여 낮은 단점이 있다.
본 발명이 이루고자 하는 기술적 과제는 보다 빠른 시간에 다시점 깊이맵을 생성할 수 있으며, 일반적인 스테레오 매칭을 이용하여 생성되는 다시점 깊이맵보다 품질 면에서 향상된 다시점 깊이맵을 생성할 수 있는 다시점 깊이맵 생성 방법 및 장치를 제공하는 데 있다.
상기 기술적 과제를 해결하기 위하여 본 발명에 따른 다시점 깊이맵 생성 방법은, (a) 복수 개의 카메라를 이용하여 복수 개의 영상들로 구성되는 다시점 영상을 획득하는 단계; (b) 깊이 카메라를 이용하여 영상과 깊이 정보를 획득하는 단계; (c) 상기 획득된 깊이 정보를 이용하여, 공간 상의 동일한 점에 대한 상기 복수 개의 영상들 각각에서의 좌표를 추정하는 단계; (d) 상기 추정된 좌표 주변의 소정 영역을 탐색함으로써 상기 동일한 점에 대한 상기 복수 개의 영상들 각각에서의 변이값을 구하는 단계; 및 (e) 상기 구해진 변이값을 이용하여 다시점 깊이맵을 생성하는 단계를 포함하는 것을 특징으로 한다.
여기서, 상기 (b) 단계는, 상기 획득된 깊이 정보로부터 상기 공간 상의 동일한 점에 대한 상기 복수 개의 영상들 각각에서의 변이값을 추정하고, 상기 추정된 변이값에 따라 상기 좌표를 구할 수 있다. 이때, 상기 변이값은 다음 수학식을 이용하여 추정될 수 있다. 다음 수학식에서 dx는 상기 변이값, f는 상기 복수 개의 카메라 중 해당 카메라의 초점 거리, B는 상기 해당 카메라와 상기 깊이 카메라의 간격, 그리고 Z는 상기 깊이 정보를 의미한다.
Figure 112007086089990-PAT00001
.
또한, 상기 (d) 단계는, (d1) 상기 깊이 카메라에 의해 획득된 영상에서의 상기 동일한 점에 대한 좌표에 대응하는 일정 크기의 윈도우를 설정하는 단계; (d2) 상기 일정 크기의 윈도우에 포함된 화소들과 상기 소정 영역에서의 동일한 크기의 윈도우에 포함된 화소들 간의 유사도를 구하는 단계; 및 (d3) 상기 소정 영역에서 상기 유사도가 가장 큰 윈도우에 대응하는 화소의 좌표를 이용하여 상기 변이값을 구하는 단계를 포함할 수 있다.
또한, 상기 소정 영역은 상기 추정된 좌표를 중심으로 상기 추정된 좌표에 소정 값을 가감한 좌표에 따라 정해지는 영역일 수 있다.
또한, 상기 깊이 카메라와 상기 복수 개의 카메라가 해상도가 같은 경우, 상기 깊이 카메라는 상기 복수 개의 카메라의 배열 가운데에 두 카메라 사이에 배치될 수 있다.
또한, 상기 깊이 카메라와 상기 복수 개의 카메라가 해상도가 다른 경우, 상기 깊이 카메라는 상기 복수 개의 카메라의 배열 가운데에 위치하는 카메라와 인접하게 배치될 수 있다.
또한, 상기 다시점 깊이맵 생성 방법은 (b2) 상기 깊이 카메라에 의해 획득 된 영상 및 깊이 정보를 상기 깊이 카메라와 인접한 상기 카메라에 대응하는 영상 및 깊이 정보로 변환하는 단계를 더 포함하고, 상기 (c) 단계는, 상기 변환된 깊이 정보를 이용하여 상기 좌표를 추정할 수 있다. 이때, 상기 (b2) 단계는, 상기 깊이 카메라와, 상기 깊이 카메라에 인접한 상기 카메라의 내부 및 외부 파라미터를 이용하여 상기 대응하는 영상 및 깊이 정보로 변환할 수 있다.
상기 다른 기술적 과제를 해결하기 위하여 본 발명에 따른 다시점 영상에서의 변이값 생성 방법은, (a) 복수 개의 카메라를 이용하여 복수 개의 영상들로 구성되는 다시점 영상을 획득하는 단계; (b) 깊이 카메라를 이용하여 영상과 깊이 정보를 획득하는 단계; (c) 상기 획득된 깊이 정보를 이용하여, 공간 상의 동일한 점에 대한 상기 복수 개의 영상들 각각에서의 좌표를 추정하는 단계; 및 (d) 상기 추정된 좌표 주변의 소정 영역을 탐색함으로써 상기 동일한 점에 대한 상기 복수 개의 영상들 각각에서의 변이값을 구하는 단계를 포함하는 것을 특징으로 한다.
상기 또 다른 기술적 과제를 해결하기 위하여 본 발명에 따른 다시점 깊이맵 생성 장치는, 복수 개의 카메라를 이용하여 복수 개의 영상들로 구성되는 다시점 영상을 획득하는 제1 영상 획득부; 깊이 카메라를 이용하여 영상과 깊이 정보를 획득하는 제2 영상 획득부; 상기 획득된 깊이 정보를 이용하여, 공간 상의 동일한 점에 대한 상기 복수 개의 영상들 각각에서의 좌표를 추정하는 좌표 추정부; 및 상기 추정된 좌표 주변의 소정 영역을 탐색함으로써 상기 공간 상의 동일한 점에 대한 상기 복수 개의 영상들 각각에서의 변이값을 구하는 변이값 생성부; 및 상기 생성된 변이값을 이용하여 다시점 깊이맵을 생성하는 깊이맵 생성부를 포함하는 것을 특징으로 한다.
여기서, 상기 좌표 추정부는, 상기 획득된 깊이 정보로부터 상기 공간 상의 동일한 점에 대한 상기 복수 개의 영상들 각각에서의 변이값을 추정하고, 상기 추정된 변이값에 따라 상기 좌표를 구할 수 있다.
또한, 상기 변이값 생성부는, 상기 깊이 카메라에 의해 획득된 영상에서의 상기 동일한 점에 대한 좌표에 대응하는 윈도우에 포함된 화소들과, 상기 소정 영역에서의 윈도우에 포함된 화소들 간의 유사도에 따라서, 상기 유사도가 가장 큰 상기 소정 영역에서의 윈도우에 대응하는 화소의 좌표를 이용하여 상기 변이값을 구할 수 있다.
또한, 상기 깊이 카메라와 상기 복수 개의 카메라가 해상도가 같은 경우, 상기 깊이 카메라는 상기 복수 개의 카메라의 배열 가운데에 두 카메라 사이에 배치될 수 있다.
또한, 상기 깊이 카메라와 상기 복수 개의 카메라가 해상도가 다른 경우, 상기 깊이 카메라는 상기 복수 개의 카메라의 배열 가운데에 위치하는 카메라와 인접하게 배치될 수 있다.
또한, 상기 다시점 깊이맵 생성 장치는 상기 깊이 카메라에 의해 획득된 영상 및 깊이 정보를 상기 깊이 카메라와 인접한 상기 카메라에 대응하는 영상 및 깊이 정보로 변환하는 영상 변환부를 더 포함하고, 상기 좌표 추정부는 상기 변환된 깊이 정보를 이용하여 상기 좌표를 추정할 수 있다. 이때, 상기 영상 변환부는, 상기 깊이 카메라와, 상기 깊이 카메라에 인접한 상기 카메라의 내부 및 외부 파라미 터를 이용하여 상기 대응하는 영상 및 깊이 정보로 변환할 수 있다.
상기 또 다른 기술적 과제를 해결하기 위하여 상기된 본 발명에 따른 다시점 깊이맵 생성 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공한다.
상술한 본 발명에 의하면, 보다 빠른 시간에 다시점 깊이맵을 생성할 수 있으며, 일반적인 스테레오 매칭을 이용하여 생성되는 다시점 깊이맵보다 품질 면에서 향상된 다시점 깊이맵을 생성할 수 있다.
이하에서는 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 이하 설명 및 첨부된 도면들에서 실질적으로 동일한 구성요소들은 각각 동일한 부호들로 나타냄으로써 중복 설명을 생략하기로 한다. 또한 본 발명을 설명함에 있어 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략하기로 한다.
도 1은 본 발명의 일 실시예에 따른 다시점 깊이맵 생성 장치의 블록도이다. 도 1을 참조하면, 본 실시예에 따른 다시점 깊이맵 생성 장치는 제1 영상 획득부(110), 제2 영상 획득부(120), 좌표 추정부(130), 변이값 생성부(141), 깊이맵 생성부(150)를 포함하여 이루어진다.
제1 영상 획득부(110)는 복수 개의 카메라들(111-1 내지 111-n)을 이용하여 복수 개의 영상들로 구성되는 다시점 영상을 획득한다. 도 1에 도시된 바와 같이, 제1 영상 획득부(110)는 복수 개의 카메라들(111-1 내지 111-n), 동기화부(112) 및 제1 영상 저장부(113)를 포함한다. 복수 개의 카메라들(111-1 내지 111-n) 각각과 촬영 대상이 이루는 시점(viewpoint)은 카메라의 위치에 따라 서로 다르며, 이와 같이 서로 다른 시점을 갖는 복수 개의 영상들을 다시점 영상이라 한다. 제 1 영상 획득부(110)를 통해 얻어진 다시점 영상은 그 영상을 이루는 2차원상의 픽셀별 색상 정보를 포함하지만, 3차원 상의 깊이 정보는 포함하지 않는다.
동기화부(112)는 연속적인 동기화 신호를 생성하여, 복수 개의 카메라들(111-1 내지 111-n)과 후술하는 깊이 카메라(121) 사이의 동기(synchronization) 를 제어한다. 제1 영상 저장부(113)는 복수 개의 카메라들(111-1 내지 111-n)에 의해 획득되는 다시점 영상을 저장한다.
제2 영상 획득부(120)는 깊이 카메라(121)를 이용하여 하나의 영상과 3차원 상의 깊이 정보를 획득한다. 도 1에 도시된 바와 같이 제2 영상 획득부(120)는 깊이 카메라(121), 제2 영상 저장부(122) 및 깊이 정보 저장부(123)를 포함한다. 여기에서 깊이 카메라(121)는 레이저나 적외선을 객체나 대상 영역에 비추고, 되돌아 오는 광선을 취득하여 깊이 정보를 실시간으로 얻을 수 있는 장치로서, 촬영 대상으로부터 색상에 대한 영상을 획득하는 색상 카메라(미도시)와, 적외선을 통해 깊이 정보를 센싱하는 깊이 센서(미도시)를 구비한다. 따라서 깊이 카메라(121)는 2차원 상의 픽셀별 색상 정보를 포함하는 하나의 영상과 깊이 정보를 얻는다. 이하에서는 깊이 카메라(121)에 의해 획득된 영상을 제1 영상 획득부(110)에서 얻어진 복수 개의 영상들과 구별하기 위하여 제2 영상이라 부르기로 한다. 깊이 카메라(121)를 통해 획득된 제2 영상은 제2 영상 저장부(122)에 저장되고, 깊이 정보는 깊이 정보 저장부(123)에 저장된다. 깊이 카메라(121)를 통해 획득된 깊이 정보에도 물리적 잡음과 왜곡은 존재할 수 있다. 이러한 물리적 잡음과 왜곡은 소정의 전처리를 통해 완화될 수 있다. 전처리와 관련된 논문으로는 김승만 외 3인의 "Depth video enhancement of haptic interaction using a smooth surface reconstruction"이 있다.
좌표 추정부(130)는 제2 영상과 깊이 정보를 이용하여 공간 상의 동일한 점에 대한 다시점 영상에서의, 즉 제1 영상 획득부(110)에 의해 획득된 복수 개의 영 상들 각각에서의 좌표를 추정한다. 다시 말하면, 제2 영상의 임의의 점에 대하여 복수 개의 카메라들(111-1 내지 111-n)에 의해 얻어진 영상들 각각에서의 그 점에 해당하는 좌표를 추정한다. 이하에서는 좌표 추정부(130)에 의해 추정된 상기 좌표를 편의상 초기 좌표값이라 부르기로 한다.
도 2는 좌표 추정부(130)에 의해 각 영상에서 초기 좌표값이 추정된 결과를 설명하기 위한 도면이다. 도 2를 참조하면, 상단에 깊이 카메라(121)에서 획득된 깊이 정보가 나타나 있는 깊이맵과 색상 영상이 도시되어 있으며, 하단에 제1 영상 획득부(110)의 각 카메라에서 획득된 색상 영상이 도시되어 있다. 그리고, 깊이 카메라(121)에 의해 획득된 색상 영상의 한 점(붉은색)에 상응하는 각 카메라에서의 초기 좌표값들이 각각 (100, 100), (110, 100), …, (150, 100)으로 추정된 결과가 나타나 있다.
좌표 추정부(130)가 초기 좌표값을 추정하는 방법의 일 실시예로는, 공간 상의 동일한 점에 대한 다시점 영상에서의 변이값(이하, 초기 변이값)을 추정하고, 이 초기 변이값에 따라 초기 좌표값을 구할 수 있다. 초기 변이값은 다음 수학식을 이용하여 추정될 수 있다.
Figure 112007086089990-PAT00002
여기서, dx는 초기 변이값, f는 대상 카메라의 초점 거리, B는 기준 카메라(깊이 카메라)와 대상 카메라의 간격(베이스라인 길이), Z는 거리 단위로 주어지는 깊이 정보이다. 변이값은 공간 상의 동일한 점에 대한 두 영상에서의 좌표값의 차이이므로, 초기 좌표값은 해당하는 점의 기준 카메라(깊이 카메라)에서의 좌표에 초기 변이값을 더함으로써 구해진다.
다시 도 1을 참조하면, 변이값 생성부(140)는 좌표 추정부(130)에서 추정된 초기 좌표값 주변의 소정 영역을 탐색함으로써 공간 상의 동일한 점에 대한 다시점 영상, 즉 복수 개의 영상들 각각에서의 변이값을 구한다. 좌표 추정부(130)에서 얻어지는 초기 좌표값 또는 초기 변이값은 깊이 카메라(121)에 의해 얻어진 영상과 깊이 정보에 근거하여 추정된 값으로써 실제의 값과는 유사하나, 정확한 값이 되지는 못한다. 따라서 변이값 생성부(140)는 추정된 초기 좌표값을 근거로, 주변의 소정 영역을 탐색함으로써 정확한 최종의 변이값을 구한다.
도 1에 도시된 바와 같이, 변이값 생성부(140)는, 윈도우 설정부(141), 영역 탐색부(142) 및 변이값 계산부(143)를 포함한다. 도 3은 변이값 생성부(140)에 의해 상기 최종의 변이값이 구해지는 과정을 설명하기 위한 도면이다. 이하에서 도 3을 함께 참조하여 설명한다.
윈도우 설정부(141)는 도 3의 (a)에 도시된 바와 같이, 깊이 카메라(121)에 의해 얻어진 제2 영상의 임의의 점에 대하여 상기 점을 중심으로 하는 일정 크기의 윈도우를 설정한다. 영역 탐색부(142)는 도 3의 (b)에 도시된 바와 같이 다시점 영상을 구성하는 영상들 각각에 대하여 좌표 추정부(130)에서 추정된 초기 좌표값 주변의 소정 영역을 탐색 영역으로 설정한다. 여기서, 탐색 영역은 예를 들어 추정된 초기 좌표값을 중심으로, 초기 좌표값에 소정 값이 가감된 각 좌표값 사이로 설정 될 수 있다. 도 3의 (b)를 참조하면, 가감되는 소정 값을 5로 하여, 초기 좌표값이 100인 경우 좌표값 95에서 105 사이, 초기 좌표값이 110인 경우 좌표값 110에서 115 사이로 설정되는 모습이 나타나 있다. 그리고 이 탐색 영역 내에서 제2 영상에 설정된 윈도우와 동일한 크기의 윈도우를 설정하고 이를 이동시켜 가면서 각 윈도우에 포함된 화소들과 제2 영상에 설정된 윈도우에 포함된 화소들과의 유사도를 비교한다. 여기서, 유사도는 예를 들어 각 윈도우 내의 화소들과 제2 영상의 색상 차이값의 합을 비교하여 구할 수 있다. 그리고 이 유사도가 가장 큰 윈도우, 즉 색상 차이값의 합이 가장 작은 위치의 중심 화소 좌표를 상응점의 최종 좌표로서 구한다. 도 3의 (c)를 참조하면, 상응점의 최종 좌표로서, 각 영상에 대하여 103과 107이 구해진 결과가 나타나 있다.
변이값 계산부(143)는 제2 영상의 임의의 점의 좌표와 상기 구해진 상응점의 좌표의 차이를 최종 변이값으로 결정한다.
여기서, 탐색 영역은 예를 들어 추정된 초기 좌표값을 중심으로, 초기 좌표값에 소정 값이 가감된 각 좌표값 사이로 설정될 수 있다. 도 3의 (b)를 참조하면, 가감되는 소정 값을 5로 하여, 초기 좌표값이 100인 경우 좌표값 95에서 105 사이, 초기 좌표값이 110인 경우 좌표값 110에서 115 사이로 설정되는 모습이 나타나 있다.
다시 도 1을 참조하면, 깊이맵 생성부(150)는 변이값 생성부(141)에서 생성된 각 영상에서의 변이값을 이용하여 다시점 깊이맵을 생성한다. 생성된 변이값을 dx라고 하면, 깊이값 Z는 다음 수학식을 이용하여 구할 수 있다.
Figure 112007086089990-PAT00003
여기서, f는 대상 카메라의 초점 거리, b는 기준 카메라(깊이 카메라)와 대상 카메라의 간격(베이스라인 길이)을 의미한다.
도 4a는 본 발명의 일 실시예에 따라 제1 영상 획득부(110)에 포함되는 다시점 카메라, 즉 복수 개의 카메라들과 제2 영상 획득부(120)에 포함되는 깊이 카메라가 배치된 예를 나타내는 도면이다. 다시점 카메라와 깊이 카메라의 해상도가 같은 경우에 도 1에 도시된 바와 같이, 다시점 카메라와 깊이 카메라가 일렬로 배열되고, 깊이 카메라는 다시점 카메라의 배열 가운데에 두 카메라 사이에 배치되는 것이 바람직하다. 다시점 카메라와 깊이 카메라의 해상도가 같은 경우는 예를 들면, 다시점 카메라와 깊이 카메라 모두 해상도가 SD급이거나, 모두 HD급, 또는 모두 UD급인 경우를 들 수 있다.
도 5는 본 발명의 다른 실시예에 따른 깊이맵 생성 장치의 블록도로서, 다시점 카메라와 깊이 카메라의 해상도가 다른 경우에 적용된다. 다시점 카메라와 깊이 카메라의 해상도가 다른 경우는 예를 들면 해상도가 각각 HD, SD급이거나 UD, SD급, 또는 UD, HD급인 경우를 들 수 있다. 본 실시예의 경우에 깊이 카메라와 다시점 카메라의 배치는 도 4a에서와 같이 함께 일렬로 배치되지 않고, 깊이 카메라가 복수 개의 카메라의 배열 가운데에 위치하는 카메라와 인접하게 배치되는 것이 바 람직하다. 도 4b는 본 발명의 다른 실시예에 따라 제1 영상 획득부(110)에 포함되는 다시점 카메라, 즉 복수 개의 카메라들(111-1 내지 111-n)과 제2 영상 획득부(120)에 포함되는 깊이 카메라(121)가 배치된 예를 나타내는 도면이다. 도 4b를 참조하면, 제1 영상 획득부(110)에 포함되는 복수 개의 카메라들이 일렬로 배열되어 있고, 가운데의 카메라와 인접한 위치, 예를 들면 가운데 카메라의 하단에 깊이 카메라가 놓여질 수 있다. 또한, 깊이 카메라는 가운데 카메라의 상단에 놓여질 수도 있음은 물론이다.
도 1과 비교할 때 도 5에서 새로 추가된 구성 요소인 영상 변환부(160)를 제외한 다른 구성 요소들은 도 1에 관하여 설명된 내용과 동일하므로, 그 설명은 생략하기로 한다. 본 실시예에서, 깊이 카메라(121)의 해상도가 복수 개의 카메라들(111-1 내지 111-n)과 다르므로 깊이 카메라에 의해 획득된 깊이 정보를 직접 이용하여 좌표를 추정할 수 없다. 따라서 영상 변환부(160)는 깊이 카메라(121)에 의해 획득된 영상 및 깊이 정보를 깊이 카메라(121)와 인접한 카메라에 대응하는 영상 및 깊이 정보로 변환한다. 여기서, 편의상 깊이 카메라(121)와 인접한 카메라를 '인접 카메라'라고 표현하기로 한다. 변환 결과 깊이 카메라(121)에 의해 획득된 영상과 인접 카메라에 의해 획득된 영상은 서로 매칭되며, 따라서 인접 카메라의 자리에 깊이 카메라가 존재했더라면 얻어졌을 영상과 깊이 정보가 얻어지게 된다. 이러한 변환은 획득된 영상을 깊이 카메라와 인접 카메라의 해상도 차이를 고려하여 스케일링(scaling)하고, 스케일링된 영상을 깊이 카메라(121)와, 인접 카메라의 내부 및 외부 파라미터를 이용하여 워핑(warping)에 의해 수행할 수 있다.
도 6은 워핑에 의해, 깊이 카메라(121)에 의해 획득된 영상 및 깊이 정보가 인접 카메라에 대응하는 영상 및 깊이 정보로 변환되는 과정을 나타낸 개념도이다. 카메라는 일반적으로 카메라 고유의 특성인 내부 파라미터와 외부 파라미터를 가지고 있다. 내부 파라미터는 카메라의 초점거리와 이미지 중점 좌표값을 의미하고, 외부 파라미터는 타 카메라에 대한 자신의 이동(translation)과 회전(rotation)을 의미한다.
내부 파라미터와 외부 파라미터에 따른 카메라의 기반 행렬 Pn은 다음 수학식에 의해 구해진다.
Figure 112007086089990-PAT00004
여기서, 우변의 첫 번째 행렬은 내부 파라미터로 이루어지는 행렬이고, 두 번째 행렬은 외부 파라미터로 이루어지는 행렬이다.
도 6에 도시된 바와 같이 공간 상의 동일한 점에 대한 기준 카메라(깊이 카메라와 대상 카메라(인접 카메라)에서의 좌표/깊이값을 각각 p1(x1, y1, z1), p2(x2, y2, z2)라 하면, 대상 카메라에서의 좌표값은 다음 수학식을 이용하여 구할 수 있다.
Figure 112007086089990-PAT00005
즉, 기준 카메라의 좌표/깊이값에 기준 카메라의 기반 행렬의 역행렬과 대상 카메라의 기반 행렬을 곱하게 되면 대상 카메라에서의 좌표값과 깊이값을 구할 수 있다. 따라서 인접 카메라에 대응하는 영상 및 깊이 정보가 얻어지게 된다.
본 실시예서 좌표값 추정부(130)는 영상 변환부(160)에서 변화된 영상 및 깊이 정보를 이용하여 도 1에 관하여 설명된 내용과 마찬가지로 공간 상의 동일한 점에 대한 다시점 영상에서의, 즉 제1 영상 획득부(110)에 의해 획득된 복수 개의 영상들 각각에서의 좌표를 추정한다. 또한, 윈도우 설정부(141)에서 윈도우를 설정하는 기준이 되는 영상은 물론 영상 변환부(160)에 의해 변환된 영상이 된다.
도 7은 본 발명의 일 실시예에 따른 다시점 깊이맵 생성 방법의 흐름도로써 깊이 카메라와 다시점 카메라의 해상도가 동일한 경우의 흐름도이다. 도 8a은 본 실시예에 따라 다시점 깊이맵을 생성하는 방법을 나타낸 개념도이다. 본 실시예에 따른 다시점 깊이맵 생성 방법은 도 1에 관하여 설명된 다시점 깊이맵 생성 장치에서 처리되는 단계들로 구성된다. 따라서 이하 생략된 내용이라 하더라도 도 1에 관하여 기술된 내용은 본 실시예에 따른 다시점 깊이맵 생성 방법에도 적용된다.
다시점 깊이맵 생성 장치는 710단계에서 복수 개의 카메라를 이용하여 복수 개의 영상들로 구성되는 다시점 영상을 획득하고, 720단계에서 깊이 카메라를 이용하여 하나의 영상과 깊이 정보를 획득한다.
그리고 730단계에서, 다시점 깊이맵 생성 장치는 상기 720단계에서 획득된 깊이 정보를 이용하여 공간 상의 동일한 점에 대하여 상기 710단계에서 획득된 복수 개의 영상들 각각에서의 초기 좌표값을 추정한다.
740단계에서 다시점 깊이맵 생성 장치는 상기 730단계에서 추정된 초기 좌표값 주변의 소정 영역을 탐색함으로써 710단계에서 획득된 복수 개의 영상들 각각에서의 최종 변이값을 구한다.
750단계에서 다시점 깊이맵 생성 장치는 740단계에서 구해진 최종 변이값을 이용하여 다시점 깊이맵을 생성한다.
도 9는 본 발명의 일 실시예에 따라 도 7의 740단계, 즉 최종 변이값을 구하는 방법을 보다 상세히 나타낸 흐름도이다. 본 실시예에 따른 방법은 도 1에 관하여 설명된 다시점 깊이맵 생성 장치의 변이값 생성부(140)에서 처리되는 단계들로 구성된다. 따라서 이하 생략된 내용이라 하더라도 도 1의 변이값 생성부(140)에 관하여 기술된 내용은 본 실시예에 따라 최종 변이값을 구하는 방법에도 적용된다.
910단계에서, 깊이 카메라에 의해 획득된 영상에서의 임의의 점에 대한 좌표에 대응하는 일정 크기의 윈도우를 설정한다.
920단계에서, 상기 910단계에서 설정된 윈도우에 포함된 화소들과 초기 좌표값 주변의 소정 영역에서 동일한 크기의 윈도우에 포함된 화소들 간의 유사도를 구한다.
930단계에서, 초기 좌표값 주변의 소정 영역의 각 윈도우 중 유사도가 가장 큰 윈도우에 대응하는 화소의 좌표값을 최종 좌표값으로 구하고, 최종 좌표값을 이 용하여 최종 변이값을 구한다.
도 10은 본 발명의 다른 실시예에 따른 다시점 깊이맵 생성 방법의 흐름도로써 깊이 카메라와 다시점 카메라의 해상도가 다른 경우의 흐름도이다. 도 8b는 본 실시예에 따라 다시점 깊이맵을 생성하는 방법을 나타낸 개념도이다. 본 실시예에 따른 다시점 깊이맵 생성 방법은 도 6에 관하여 설명된 다시점 깊이맵 생성 장치에서 처리되는 단계들로 구성된다. 따라서 이하 생략된 내용이라 하더라도 도 6에 관하여 기술된 내용은 본 실시예에 따른 다시점 깊이맵 생성 방법에도 적용된다.
한편, 도 10에서 1010단계, 1020단계, 1040단계 및 1050단계는 도 7에서 설명된 710단계, 720단계, 740단계 및 750단계와 동일하므로 설명은 생략하기로 한다.
1020단계 다음, 1025단계에서 다시점 깊이맵 생성 장치는 깊이 카메라에 의해 획득된 영상 및 깊이 정보를 깊이 카메라와 인접한 카메라에 대응하는 영상 및 깊이 정보로 변환한다.
1030단계에서 다시점 깊이맵 생성 장치는 상기 1025단계에서 변환된 깊이 정보를 이용하여 공간 상의 동일한 점에 대한 복수 개의 영상들 각각에서의 좌표를 추정한다.
또한, 본 실시예에서 상기된 1040단계의 구체적인 실시예는 도 9에 나타난 바와 실질적으로 동일하며, 다만 상기된 910단계에서 윈도우가 설정되는 기준 영상이 깊이 카메라에 의해 획득된 영상이 아니라, 상기된 1025단계에서 변환된 영상에서 윈도우가 설정된다.
상술한 본 발명에 의하면, 공간 상의 동일한 점에 대하여 추정된 초기 좌표값을 기준으로 하는 소정 영역만을 탐색하여 변이값을 구하기 때문에 보다 빠른 시간에 다시점 깊이맵을 생성할 수 있다. 또한, 초기 좌표값은 깊이 카메라를 통하여 얻어진 정확한 깊이 정보를 이용하여 추정된 값이므로 일반적인 스테레오 매칭을 이용하여 생성되는 다시점 깊이맵보다 품질면에서 향상된 다시점 깊이맵을 생성할 수 있다. 또한, 깊이 카메라와 다시점 카메라의 해상도가 다른 경우에 깊이 카메라와 인접한 카메라에 대응하는 영상 및 깊이 정보로 변환하고, 이 변환된 깊이 정보와 영상에 따라서 초기 좌표값을 추정함으로써 깊이 카메라와 다시점 카메라의 해상도가 다르더라도, 다시점 카메라와 같은 해상도를 가지는 다시점 깊이맵을 생성할 수 있다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장매체를 포함한다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관 점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
도 1은 본 발명의 일 실시예에 따른 다시점 깊이맵 생성 장치의 블록도이다.
도 2는 좌표 추정부에 의해 각 영상에서 초기 좌표값이 추정된 결과를 설명하기 위한 도면이다.
도 3은 변이값 생성부에 의해 상기 최종의 변이값이 구해지는 과정을 설명하기 위한 도면이다.
도 4a는 본 발명의 일 실시예에 따라 제1 영상 획득부에 포함되는 다시점 카메라와 제2 영상 획득부에 포함되는 깊이 카메라가 배치된 예를 나타내는 도면이다.
도 4b는 본 발명의 다른 실시예에 따라 제1 영상 획득부에 포함되는 다시점 카메라와 제2 영상 획득부에 포함되는 깊이 카메라가 배치된 예를 나타내는 도면이다.
도 5는 본 발명의 다른 실시예에 따른 깊이맵 생성 장치의 블록도이다.
도 6은 기준 카메라의 영상 및 깊이 정보가 대상 카메라에 대응하는 영상 및 깊이 정보로 변환되는 과정을 나타내는 개념도이다.
도 7은 본 발명의 일 실시예에 따른 다시점 깊이맵 생성 방법의 흐름도이다.
도 8a은 도 7의 실시예에 따라 다시점 깊이맵을 생성하는 방법을 나타낸 개념도이다.
도 8b는 도 10의 실시예에 따라 다시점 깊이맵을 생성하는 방법을 나타낸 개념도이다.
도 9는 본 발명의 일 실시예에 따라 도 7의 740단계, 즉 최종 변이값을 구하는 방법을 보다 상세히 나타낸 흐름도이다.
도 10은 본 발명의 다른 실시예에 따른 다시점 깊이맵 생성 방법의 흐름도이다.

Claims (20)

  1. (a) 복수 개의 카메라를 이용하여 복수 개의 영상들로 구성되는 다시점 영상을 획득하는 단계;
    (b) 깊이 카메라를 이용하여 영상과 깊이 정보를 획득하는 단계;
    (c) 상기 획득된 깊이 정보를 이용하여, 공간 상의 동일한 점에 대한 상기 복수 개의 영상들 각각에서의 좌표를 추정하는 단계;
    (d) 상기 추정된 좌표 주변의 소정 영역을 탐색함으로써 상기 동일한 점에 대한 상기 복수 개의 영상들 각각에서의 변이값을 구하는 단계; 및
    (e) 상기 구해진 변이값을 이용하여 다시점 깊이맵을 생성하는 단계를 포함하는 것을 특징으로 하는 다시점 깊이맵 생성 방법.
  2. 제1항에 있어서,
    상기 (b) 단계는, 상기 획득된 깊이 정보로부터 상기 공간 상의 동일한 점에 대한 상기 복수 개의 영상들 각각에서의 변이값을 추정하고, 상기 추정된 변이값에 따라 상기 좌표를 구하는 것을 특징으로 하는 다시점 깊이맵 생성 방법.
  3. 제2항에 있어서,
    상기 변이값은 다음 수학식을 이용하여 추정되는 것을 특징으로 하는 다시점 깊이맵 생성 방법.
    Figure 112007086089990-PAT00006
    .
    여기서, dx는 상기 변이값, f는 상기 복수 개의 카메라 중 해당 카메라의 초점 거리, B는 상기 해당 카메라와 상기 깊이 카메라의 간격, 그리고 Z는 상기 깊이 정보를 의미한다.
  4. 제1항에 있어서, 상기 (d) 단계는,
    (d1) 상기 깊이 카메라에 의해 획득된 영상에서의 상기 동일한 점에 대한 좌표에 대응하는 일정 크기의 윈도우를 설정하는 단계;
    (d2) 상기 일정 크기의 윈도우에 포함된 화소들과 상기 소정 영역에서의 동일한 크기의 윈도우에 포함된 화소들 간의 유사도를 구하는 단계; 및
    (d3) 상기 소정 영역에서 상기 유사도가 가장 큰 윈도우에 대응하는 화소의 좌표를 이용하여 상기 변이값을 구하는 단계를 포함하는 것을 특징을 하는 다시점 깊이맵 생성 방법.
  5. 제1항에 있어서,
    상기 소정 영역은 상기 추정된 좌표를 중심으로 상기 추정된 좌표에 소정 값을 가감한 좌표에 따라 정해지는 영역인 것을 특징으로 하는 다시점 깊이맵 생성 방법.
  6. 제1항에 있어서,
    상기 깊이 카메라와 상기 복수 개의 카메라가 해상도가 같은 경우, 상기 깊이 카메라는 상기 복수 개의 카메라의 배열 가운데에 두 카메라 사이에 배치되는 것을 특징으로 하는 다시점 깊이맵 생성 방법.
  7. 제1항에 있어서,
    상기 깊이 카메라와 상기 복수 개의 카메라가 해상도가 다른 경우, 상기 깊이 카메라는 상기 복수 개의 카메라의 배열 가운데에 위치하는 카메라와 인접하게 배치되는 것을 특징으로 하는 다시점 깊이맵 생성 방법.
  8. 제7항에 있어서,
    (b2) 상기 깊이 카메라에 의해 획득된 영상 및 깊이 정보를 상기 깊이 카메라에 인접한 상기 카메라에 대응하는 영상 및 깊이 정보로 변환하는 단계를 더 포함하고,
    상기 (c) 단계는, 상기 변환된 깊이 정보를 이용하여 상기 좌표를 추정하는 것을 특징으로 하는 다시점 깊이맵 생성 방법.
  9. 제8항에 있어서,
    상기 (b2) 단계는, 상기 깊이 카메라와, 상기 깊이 카메라에 인접한 상기 카메라의 내부 및 외부 파라미터를 이용하여 상기 대응하는 영상 및 깊이 정보로 변 환하는 것을 특징으로 하는 다시점 깊이맵 생성 방법.
  10. 제1항 내지 제10항 중 어느 한 항에 기재된 다시점 깊이맵 생성 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
  11. (a) 복수 개의 카메라를 이용하여 복수 개의 영상들로 구성되는 다시점 영상을 획득하는 단계;
    (b) 깊이 카메라를 이용하여 영상과 깊이 정보를 획득하는 단계;
    (c) 상기 획득된 깊이 정보를 이용하여, 공간 상의 동일한 점에 대한 상기 복수 개의 영상들 각각에서의 좌표를 추정하는 단계; 및
    (d) 상기 추정된 좌표 주변의 소정 영역을 탐색함으로써 상기 동일한 점에 대한 상기 복수 개의 영상들 각각에서의 변이값을 구하는 단계를 포함하는 것을 특징으로 하는 다시점 영상에서의 변이값 생성 방법.
  12. 복수 개의 카메라를 이용하여 복수 개의 영상들로 구성되는 다시점 영상을 획득하는 제1 영상 획득부;
    깊이 카메라를 이용하여 영상과 깊이 정보를 획득하는 제2 영상 획득부;
    상기 획득된 깊이 정보를 이용하여, 공간 상의 동일한 점에 대한 상기 복수 개의 영상들 각각에서의 좌표를 추정하는 좌표 추정부; 및
    상기 추정된 좌표 주변의 소정 영역을 탐색함으로써 상기 공간 상의 동일한 점에 대한 상기 복수 개의 영상들 각각에서의 변이값을 구하는 변이값 생성부; 및
    상기 생성된 변이값을 이용하여 다시점 깊이맵을 생성하는 깊이맵 생성부를 포함하는 것을 특징으로 하는 다시점 깊이맵 생성 장치.
  13. 제12항에 있어서,
    상기 좌표 추정부는, 상기 획득된 깊이 정보로부터 상기 공간 상의 동일한 점에 대한 상기 복수 개의 영상들 각각에서의 변이값을 추정하고, 상기 추정된 변이값에 따라 상기 좌표를 구하는 것을 특징으로 하는 다시점 깊이맵 생성 장치.
  14. 제13항에 있어서,
    상기 변이값은 다음 수학식을 이용하여 추정되는 것을 특징으로 하는 다시점 깊이맵 생성 장치.
    Figure 112007086089990-PAT00007
    .
    여기서, dx는 상기 변이값, f는 상기 복수 개의 카메라 중 해당 카메라의 초점 거리, B는 상기 해당 카메라와 상기 깊이 카메라의 간격, 그리고 Z는 상기 깊이 정보를 의미한다.
  15. 제12항에 있어서,
    상기 변이값 생성부는, 상기 깊이 카메라에 의해 획득된 영상에서의 상기 동 일한 점에 대한 좌표에 대응하는 윈도우에 포함된 화소들과, 상기 소정 영역에서의 윈도우에 포함된 화소들 간의 유사도에 따라서, 상기 유사도가 가장 큰 상기 소정 영역에서의 윈도우에 대응하는 화소의 좌표를 이용하여 상기 변이값을 구하는 것을 특징으로 하는 다시점 깊이맵 생성 장치.
  16. 제12항에 있어서,
    상기 소정 영역은 상기 추정된 좌표를 중심으로 상기 추정된 좌표에 소정 값을 가감한 좌표에 따라 정해지는 영역인 것을 특징으로 하는 다시점 깊이맵 생성 장치.
  17. 제12항에 있어서,
    상기 깊이 카메라와 상기 복수 개의 카메라가 해상도가 같은 경우, 상기 깊이 카메라는 상기 복수 개의 카메라의 배열 가운데에 두 카메라 사이에 배치되는 것을 특징으로 하는 다시점 깊이맵 생성 장치.
  18. 제12항에 있어서,
    상기 깊이 카메라와 상기 복수 개의 카메라가 해상도가 다른 경우, 상기 깊이 카메라는 상기 복수 개의 카메라의 배열 가운데에 위치하는 카메라와 인접하게 배치되는 것을 특징으로 하는 다시점 깊이맵 생성 장치.
  19. 제18항에 있어서,
    상기 깊이 카메라에 의해 획득된 영상 및 깊이 정보를 상기 깊이 카메라와 인접한 상기 카메라에 대응하는 영상 및 깊이 정보로 변환하는 영상 변환부를 더 포함하고,
    상기 좌표 추정부는 상기 변환된 깊이 정보를 이용하여 상기 좌표를 추정하는 것을 특징으로 하는 다시점 깊이맵 생성 장치.
  20. 제19항에 있어서,
    상기 영상 변환부는, 상기 깊이 카메라와, 상기 깊이 카메라에 인접한 상기 카메라의 내부 및 외부 파라미터를 이용하여 상기 대응하는 영상 및 깊이 정보로 변환하는 것을 특징으로 하는 다시점 깊이맵 생성 장치.
KR1020070122629A 2007-11-29 2007-11-29 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법 Ceased KR20090055803A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020070122629A KR20090055803A (ko) 2007-11-29 2007-11-29 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법
US12/745,099 US20100309292A1 (en) 2007-11-29 2008-11-28 Method and apparatus for generating multi-viewpoint depth map, method for generating disparity of multi-viewpoint image
PCT/KR2008/007027 WO2009069958A2 (en) 2007-11-29 2008-11-28 Method and apparatus for generating multi-viewpoint depth map, method for generating disparity of multi-viewpoint image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070122629A KR20090055803A (ko) 2007-11-29 2007-11-29 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법

Publications (1)

Publication Number Publication Date
KR20090055803A true KR20090055803A (ko) 2009-06-03

Family

ID=40679143

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070122629A Ceased KR20090055803A (ko) 2007-11-29 2007-11-29 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법

Country Status (3)

Country Link
US (1) US20100309292A1 (ko)
KR (1) KR20090055803A (ko)
WO (1) WO2009069958A2 (ko)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8432181B2 (en) 2008-07-25 2013-04-30 Thomson Licensing Method and apparatus for reconfigurable at-speed test clock generator
CN103460705A (zh) * 2011-03-30 2013-12-18 英特尔公司 利用立体对应性的实时深度提取
KR101358430B1 (ko) * 2012-06-25 2014-02-05 인텔렉추얼디스커버리 주식회사 깊이 영상 생성 방법 및 시스템
US8787656B2 (en) 2011-03-16 2014-07-22 Electronics And Telecommunications Research Institute Method and apparatus for feature-based stereo matching
US8913105B2 (en) 2009-01-07 2014-12-16 Thomson Licensing Joint depth estimation
US9135744B2 (en) 2010-12-28 2015-09-15 Kt Corporation Method for filling hole-region and three-dimensional video system using the same
US9179153B2 (en) 2008-08-20 2015-11-03 Thomson Licensing Refined depth map
WO2021167167A1 (ko) * 2020-02-21 2021-08-26 엘지전자 주식회사 이동 단말기
WO2023231700A1 (zh) * 2022-05-31 2023-12-07 京东方科技集团股份有限公司 一种显示装置的驱动方法、装置及显示设备

Families Citing this family (121)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8384803B2 (en) * 2007-12-13 2013-02-26 Keigo Iizuka Camera system and method for amalgamating images to create an omni-focused image
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
EP2289235A4 (en) 2008-05-20 2011-12-28 Pelican Imaging Corp RECORDING AND PROCESSING IMAGES BY MONOLITHIC CAMERA ARRANGEMENT WITH HETEROGENIC IMAGE TRANSFORMER
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
JP5035195B2 (ja) * 2008-09-25 2012-09-26 Kddi株式会社 画像生成装置及びプログラム
US8427424B2 (en) 2008-09-30 2013-04-23 Microsoft Corporation Using physical objects in conjunction with an interactive surface
JP5415170B2 (ja) * 2009-07-21 2014-02-12 富士フイルム株式会社 複眼撮像装置
US9380292B2 (en) 2009-07-31 2016-06-28 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene
RU2423018C2 (ru) * 2009-08-04 2011-06-27 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ и система для преобразования стереоконтента
JP2011060216A (ja) * 2009-09-14 2011-03-24 Fujifilm Corp 画像処理装置および画像処理方法
US8643701B2 (en) 2009-11-18 2014-02-04 University Of Illinois At Urbana-Champaign System for executing 3D propagation for depth image-based rendering
EP2502115A4 (en) 2009-11-20 2013-11-06 Pelican Imaging Corp RECORDING AND PROCESSING IMAGES THROUGH A MONOLITHIC CAMERA ARRAY WITH HETEROGENIC IMAGE CONVERTER
US8687044B2 (en) * 2010-02-02 2014-04-01 Microsoft Corporation Depth camera compatibility
US8730309B2 (en) 2010-02-23 2014-05-20 Microsoft Corporation Projectors and depth cameras for deviceless augmented reality and interaction
WO2011143501A1 (en) 2010-05-12 2011-11-17 Pelican Imaging Corporation Architectures for imager arrays and array cameras
US20120019688A1 (en) * 2010-07-20 2012-01-26 Research In Motion Limited Method for decreasing depth of field of a camera having fixed aperture
US20120050480A1 (en) * 2010-08-27 2012-03-01 Nambi Seshadri Method and system for generating three-dimensional video utilizing a monoscopic camera
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
US10200671B2 (en) 2010-12-27 2019-02-05 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US8274552B2 (en) * 2010-12-27 2012-09-25 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US9329469B2 (en) 2011-02-17 2016-05-03 Microsoft Technology Licensing, Llc Providing an interactive experience using a 3D depth camera and a 3D projector
US9480907B2 (en) 2011-03-02 2016-11-01 Microsoft Technology Licensing, Llc Immersive display with peripheral illusions
TWI419078B (zh) * 2011-03-25 2013-12-11 Univ Chung Hua 即時立體影像產生裝置與方法
CN103477186B (zh) * 2011-04-07 2016-01-27 松下知识产权经营株式会社 立体摄像装置
WO2012155119A1 (en) 2011-05-11 2012-11-15 Pelican Imaging Corporation Systems and methods for transmitting and receiving array camera image data
US9536312B2 (en) 2011-05-16 2017-01-03 Microsoft Corporation Depth reconstruction using plural depth capture units
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
US9300946B2 (en) 2011-07-08 2016-03-29 Personify, Inc. System and method for generating a depth map and fusing images from a camera array
US8928737B2 (en) * 2011-07-26 2015-01-06 Indiana University Research And Technology Corp. System and method for three dimensional imaging
US20130070060A1 (en) 2011-09-19 2013-03-21 Pelican Imaging Corporation Systems and methods for determining depth from multiple views of a scene that include aliasing using hypothesized fusion
CN104081414B (zh) 2011-09-28 2017-08-01 Fotonation开曼有限公司 用于编码和解码光场图像文件的系统及方法
EP2777273B1 (en) * 2011-11-11 2019-09-04 GE Video Compression, LLC Efficient multi-view coding using depth-map estimate for a dependent view
KR101662918B1 (ko) 2011-11-11 2016-10-05 지이 비디오 컴프레션, 엘엘씨 깊이-맵 추정 및 업데이트를 사용한 효율적인 멀티-뷰 코딩
EP3739886A1 (en) 2011-11-18 2020-11-18 GE Video Compression, LLC Multi-view coding with efficient residual handling
WO2013126578A1 (en) 2012-02-21 2013-08-29 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
KR101975971B1 (ko) 2012-03-19 2019-05-08 삼성전자주식회사 깊이 카메라, 다중 깊이 카메라 시스템, 그리고 그것의 동기 방법
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
KR102009292B1 (ko) 2012-05-11 2019-08-12 한국전자통신연구원 다중 카메라 기반 삼차원 얼굴 복원 장치 및 방법
US9571818B2 (en) * 2012-06-07 2017-02-14 Nvidia Corporation Techniques for generating robust stereo images from a pair of corresponding stereo images captured with and without the use of a flash device
EP2873028A4 (en) 2012-06-28 2016-05-25 Pelican Imaging Corp SYSTEMS AND METHOD FOR DETECTING DEFECTIVE CAMERA ARRAYS, OPTICAL ARRAYS AND SENSORS
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
DK4296963T3 (da) 2012-08-21 2025-03-03 Adeia Imaging Llc Metode til dybdedetektion i billeder optaget med array-kameraer
CN104685513B (zh) 2012-08-23 2018-04-27 派力肯影像公司 根据使用阵列源捕捉的低分辨率图像的基于特征的高分辨率运动估计
US9275302B1 (en) * 2012-08-24 2016-03-01 Amazon Technologies, Inc. Object detection and identification
EP2893702A4 (en) 2012-09-10 2016-06-08 Aemass Inc MULTI-DIMENSIONAL DATA ACQUISITION OF AN ENVIRONMENT WITH MULTIPLE DEVICES
US9214013B2 (en) 2012-09-14 2015-12-15 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
EP2901671A4 (en) 2012-09-28 2016-08-24 Pelican Imaging Corp GENERATING IMAGES FROM LIGHT FIELDS USING VIRTUAL VIEWPOINTS
US9625994B2 (en) 2012-10-01 2017-04-18 Microsoft Technology Licensing, Llc Multi-camera depth imaging
KR102367210B1 (ko) 2012-10-01 2022-02-24 지이 비디오 컴프레션, 엘엘씨 공간적 인트라 예측 파라미터들의 인터-레이어 예측을 이용한 스케일러블 비디오 코딩
US9143711B2 (en) 2012-11-13 2015-09-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
WO2014133974A1 (en) 2013-02-24 2014-09-04 Pelican Imaging Corporation Thin form computational and modular array cameras
US9638883B1 (en) 2013-03-04 2017-05-02 Fotonation Cayman Limited Passive alignment of array camera modules constructed from lens stack arrays and sensors based upon alignment information obtained during manufacture of array camera modules using an active alignment process
WO2014138695A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for measuring scene information while capturing images using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
US9519972B2 (en) 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
WO2014164550A2 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation System and methods for calibration of an array camera
WO2014153098A1 (en) 2013-03-14 2014-09-25 Pelican Imaging Corporation Photmetric normalization in array cameras
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9497370B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Array camera architecture implementing quantum dot color filters
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US10122993B2 (en) * 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
DK2973476T3 (da) * 2013-03-15 2025-05-19 Adeia Imaging Llc Systemer og fremgangsmåder til stereobilleddannelse med kamerarækker
JP6154075B2 (ja) * 2013-08-19 2017-06-28 ノキア テクノロジーズ オーユー オブジェクト検出及び分割の方法,装置,コンピュータプログラム製品
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
US9264592B2 (en) 2013-11-07 2016-02-16 Pelican Imaging Corporation Array camera modules incorporating independently aligned lens stacks
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US9426361B2 (en) * 2013-11-26 2016-08-23 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
EP2887311B1 (en) * 2013-12-20 2016-09-14 Thomson Licensing Method and apparatus for performing depth estimation
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
WO2015183824A1 (en) * 2014-05-26 2015-12-03 Pelican Imaging Corporation Autofocus system for a conventional camera that uses depth information from an array camera
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
US20150381965A1 (en) * 2014-06-27 2015-12-31 Qualcomm Incorporated Systems and methods for depth map extraction using a hybrid algorithm
KR20170063827A (ko) 2014-09-29 2017-06-08 포토네이션 케이맨 리미티드 어레이 카메라들의 동적 교정을 위한 시스템들 및 방법들
US9772405B2 (en) * 2014-10-06 2017-09-26 The Boeing Company Backfilling clouds of 3D coordinates
EP3265866B1 (en) * 2015-03-05 2022-12-28 Magic Leap, Inc. Systems and methods for augmented reality
US10838207B2 (en) 2015-03-05 2020-11-17 Magic Leap, Inc. Systems and methods for augmented reality
US10180734B2 (en) 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
US10432842B2 (en) * 2015-04-06 2019-10-01 The Texas A&M University System Fusion of inertial and depth sensors for movement measurements and recognition
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
CN108604383A (zh) 2015-12-04 2018-09-28 奇跃公司 重新定位系统和方法
WO2017136833A1 (en) * 2016-02-05 2017-08-10 Magic Leap, Inc. Systems and methods for augmented reality
US20170302908A1 (en) * 2016-04-19 2017-10-19 Motorola Mobility Llc Method and apparatus for user interaction for virtual measurement using a depth camera system
KR102442594B1 (ko) * 2016-06-23 2022-09-13 한국전자통신연구원 조명기를 구비한 스테레오 매칭 시스템에서의 코스트 볼륨 연산장치 및 그 방법
US10107617B2 (en) 2016-07-04 2018-10-23 Beijing Qingying Machine Visual Technology Co., Ltd. Feature point matching method of planar array of four-camera group and measuring method based on the same
JP6972105B2 (ja) 2016-08-02 2021-11-24 マジック リープ, インコーポレイテッドMagic Leap, Inc. 固定距離の仮想現実システムおよび拡張現実システムならびに方法
US10812936B2 (en) 2017-01-23 2020-10-20 Magic Leap, Inc. Localization determination for mixed reality systems
CN117197403B (zh) 2017-03-17 2025-02-25 奇跃公司 混合现实系统及使用该系统生成虚拟内容的方法
AU2018236457B2 (en) 2017-03-17 2021-04-29 Magic Leap, Inc. Mixed reality system with virtual content warping and method of generating virtual content using same
KR102841075B1 (ko) 2017-03-17 2025-07-30 매직 립, 인코포레이티드 컬러 가상 콘텐츠 워핑을 갖는 혼합 현실 시스템 및 이를 사용하여 가상 콘텐츠를 생성하는 방법
CN110462685B (zh) 2017-05-10 2022-12-16 上海科技大学 三维模型重建方法和系统
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US10706505B2 (en) * 2018-01-24 2020-07-07 GM Global Technology Operations LLC Method and system for generating a range image using sparse depth data
CN112513712B (zh) 2018-07-23 2023-05-09 奇跃公司 具有虚拟内容翘曲的混合现实系统和使用该系统生成虚拟内容的方法
WO2020023523A1 (en) 2018-07-23 2020-01-30 Magic Leap, Inc. Intra-field sub code timing in field sequential displays
CN110322518B (zh) * 2019-07-05 2021-12-17 深圳市道通智能航空技术股份有限公司 立体匹配算法的评价方法、评价系统及测试设备
EP3821267A4 (en) 2019-09-17 2022-04-13 Boston Polarimetrics, Inc. SYSTEMS AND METHODS FOR SURFACE MODELING USING POLARIZATION TRIGGERS
JP2022552833A (ja) 2019-10-07 2022-12-20 ボストン ポーラリメトリックス,インコーポレイティド 偏光による面法線計測のためのシステム及び方法
US11302012B2 (en) 2019-11-30 2022-04-12 Boston Polarimetrics, Inc. Systems and methods for transparent object segmentation using polarization cues
US11450018B1 (en) 2019-12-24 2022-09-20 X Development Llc Fusing multiple depth sensing modalities
EP4081933A4 (en) 2020-01-29 2024-03-20 Intrinsic Innovation LLC Systems and methods for characterizing object pose detection and measurement systems
CN115428028A (zh) 2020-01-30 2022-12-02 因思创新有限责任公司 用于合成用于在包括偏振图像的不同成像模态下训练统计模型的数据的系统和方法
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
CN112686937B (zh) * 2020-12-25 2024-05-31 杭州海康威视数字技术股份有限公司 一种深度图像的生成方法、装置及设备
US12069227B2 (en) 2021-03-10 2024-08-20 Intrinsic Innovation Llc Multi-modal and multi-spectral stereo camera arrays
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US12067746B2 (en) 2021-05-07 2024-08-20 Intrinsic Innovation Llc Systems and methods for using computer vision to pick up small objects
CN113344010A (zh) * 2021-06-17 2021-09-03 华南理工大学 一种参数化视角学习的三维立体形状识别方法
US12175741B2 (en) 2021-06-22 2024-12-24 Intrinsic Innovation Llc Systems and methods for a vision guided end effector
US12340538B2 (en) 2021-06-25 2025-06-24 Intrinsic Innovation Llc Systems and methods for generating and using visual datasets for training computer vision models
US12172310B2 (en) 2021-06-29 2024-12-24 Intrinsic Innovation Llc Systems and methods for picking objects using 3-D geometry and segmentation
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
US12293535B2 (en) 2021-08-03 2025-05-06 Intrinsic Innovation Llc Systems and methods for training pose estimators in computer vision
US20240312038A1 (en) * 2023-03-13 2024-09-19 Qualcomm Incorporated Multi-mode stereo matching for determining depth information

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5577130A (en) * 1991-08-05 1996-11-19 Philips Electronics North America Method and apparatus for determining the distance between an image and an object
JP3077745B2 (ja) * 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
KR100513055B1 (ko) * 2003-12-11 2005-09-06 한국전자통신연구원 변이지도 및 깊이지도의 융합을 통한 3차원 장면 모델생성 장치 및 그 방법
US7330584B2 (en) * 2004-10-14 2008-02-12 Sony Corporation Image processing apparatus and method
JP4762994B2 (ja) * 2004-10-26 2011-08-31 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 視差マップ
KR100603601B1 (ko) * 2004-11-08 2006-07-24 한국전자통신연구원 다시점 콘텐츠 생성 장치 및 그 방법
KR100776649B1 (ko) * 2004-12-06 2007-11-19 한국전자통신연구원 깊이 정보 기반 스테레오/다시점 영상 정합 장치 및 방법
KR100793076B1 (ko) * 2005-12-08 2008-01-10 한국전자통신연구원 에지 적응형 스테레오/다시점 영상 정합 장치 및 그 방법
DE102006055641B4 (de) * 2006-11-22 2013-01-31 Visumotion Gmbh Anordnung und Verfahren zur Aufnahme und Wiedergabe von Bildern einer Szene und/oder eines Objektes
US8223192B2 (en) * 2007-10-31 2012-07-17 Technion Research And Development Foundation Ltd. Free viewpoint video

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8432181B2 (en) 2008-07-25 2013-04-30 Thomson Licensing Method and apparatus for reconfigurable at-speed test clock generator
US9179153B2 (en) 2008-08-20 2015-11-03 Thomson Licensing Refined depth map
US8913105B2 (en) 2009-01-07 2014-12-16 Thomson Licensing Joint depth estimation
US9135744B2 (en) 2010-12-28 2015-09-15 Kt Corporation Method for filling hole-region and three-dimensional video system using the same
US8787656B2 (en) 2011-03-16 2014-07-22 Electronics And Telecommunications Research Institute Method and apparatus for feature-based stereo matching
CN103460705A (zh) * 2011-03-30 2013-12-18 英特尔公司 利用立体对应性的实时深度提取
CN103460705B (zh) * 2011-03-30 2016-12-07 英特尔公司 利用立体对应性的实时深度提取
KR101358430B1 (ko) * 2012-06-25 2014-02-05 인텔렉추얼디스커버리 주식회사 깊이 영상 생성 방법 및 시스템
WO2021167167A1 (ko) * 2020-02-21 2021-08-26 엘지전자 주식회사 이동 단말기
KR20210106809A (ko) * 2020-02-21 2021-08-31 엘지전자 주식회사 이동 단말기
US11425236B2 (en) 2020-02-21 2022-08-23 Lg Electronics Inc. Mobile terminal
WO2023231700A1 (zh) * 2022-05-31 2023-12-07 京东方科技集团股份有限公司 一种显示装置的驱动方法、装置及显示设备

Also Published As

Publication number Publication date
US20100309292A1 (en) 2010-12-09
WO2009069958A3 (en) 2009-08-20
WO2009069958A2 (en) 2009-06-04

Similar Documents

Publication Publication Date Title
KR20090055803A (ko) 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법
KR100891549B1 (ko) 깊이 카메라를 이용하여 보완한 깊이 정보 생성 방법 및장치, 그리고 그 방법을 수행하는 프로그램이 기록된 기록매체
US8433157B2 (en) System and method for three-dimensional object reconstruction from two-dimensional images
Scharstein et al. High-resolution stereo datasets with subpixel-accurate ground truth
CA2650557C (en) System and method for three-dimensional object reconstruction from two-dimensional images
JP2021535466A (ja) シーンの色及び深度の情報を再構成するための方法及びシステム
KR100776649B1 (ko) 깊이 정보 기반 스테레오/다시점 영상 정합 장치 및 방법
US20130335535A1 (en) Digital 3d camera using periodic illumination
WO2012096747A1 (en) Forming range maps using periodic illumination patterns
US20140300941A1 (en) Method and apparatus for generating hologram based on multi-view image
KR20120058828A (ko) 3차원 좌표 추출 시스템 및 그 방법
CN102036094B (zh) 一种基于数字分数延时技术的立体匹配方法
KR20120045269A (ko) 3d 메쉬 모델링 및 에볼루션에 기반한 홀로그램 생성 방법 및 장치
Shim et al. Time-of-flight sensor and color camera calibration for multi-view acquisition
Lee et al. Generation of high-quality depth maps using hybrid camera system for 3-D video
KR101086274B1 (ko) 깊이정보 추출 장치 및 추출 방법
KR100793076B1 (ko) 에지 적응형 스테레오/다시점 영상 정합 장치 및 그 방법
JP6285686B2 (ja) 視差画像生成装置
KR102327304B1 (ko) 깊이영상 카메라로부터 획득된 3d 영상의 품질 향상 방법
Walecki et al. Super-resolution 3-D laser scanning based on interval arithmetic
JP2001147110A (ja) ランダムパターン生成装置とその方法、距離画像生成装置とその方法、およびプログラム提供媒体
JP4337203B2 (ja) 距離画像生成装置および距離画像生成方法、並びにプログラム提供媒体
Jamwal et al. A survey on depth map estimation strategies
Orozco et al. HDR multiview image sequence generation: Toward 3D HDR video
CN114935316B (zh) 基于光学跟踪与单目视觉的标准深度图像生成方法

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20071129

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20090722

Patent event code: PE09021S01D

E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20091118

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20090722

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I