KR102361133B1 - 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법 및 이를 이용한 비전 장치 - Google Patents
이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법 및 이를 이용한 비전 장치 Download PDFInfo
- Publication number
- KR102361133B1 KR102361133B1 KR1020210126023A KR20210126023A KR102361133B1 KR 102361133 B1 KR102361133 B1 KR 102361133B1 KR 1020210126023 A KR1020210126023 A KR 1020210126023A KR 20210126023 A KR20210126023 A KR 20210126023A KR 102361133 B1 KR102361133 B1 KR 102361133B1
- Authority
- KR
- South Korea
- Prior art keywords
- main
- sub
- distance
- inverse
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H04N5/225—
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0092—Image segmentation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
Description
도 1은 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 종래 기술의 문제점을 설명하기 위한 것이며,
도 2는 본 발명의 일 실시예에 따른 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 비전 장치를 개략적으로 도시한 것이며,
도 3은 본 발명의 일 실시예에 따른 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법에 있어서, 복수의 카메라가 이동체에 상호 이격 배치된 모습을 개략적으로 도시한 것이며,
도 4는 본 발명의 일 실시예에 따른 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법에 있어서, 복수의 카메라의 촬상 범위를 개략적으로 도시한 것이며,
도 5는 본 발명의 일 실시예에 따른 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법에 있어서 카메라 캘리브레이션을 수행하는 프로세스를 개략적으로 도시한 것이며,
도 6은 본 발명의 일 실시예에 따른 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법에 있어서, 이미지 투영 모델을 개략적으로 도시한 것이며,
도 7은 본 발명의 일 실시예에 따른 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법에 있어서, 이미지 투영 모델을 이용한 결과로서의 스테레오 이미지를 개략적으로 도시한 것이며,
도 8은 본 발명의 일 실시예에 따른 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법에 있어서, 카메라 자세 추정 알고리즘을 개략적으로 도시한 것이며,
도 9는 본 발명의 일 실시예에 따른 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법에 있어서, 메인 기준 가상 입체 및 메인 가상 라운디드 큐보이드를 개략적으로 도시한 것이며,
도 10a 내지 도 10g는 본 발명의 일 실시예에 따른 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법에 있어서, 메인 기준 가상 입체의 제2 메인 기준점으로부터 메인 가상 라운디드 큐보이드 상의 특정 지점까지의 특정 거리 di를 계산하는 방법을 개략적으로 도시한 것이며,
도 11은, 본 발명의 일 실시예에 따른 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법에 있어서, 3차원 최종 메인 코스트 볼륨을 이용하여 제k 서브 코스트 볼륨을 생성하는 과정을 개략적으로 도시한 것이며,
도 12는 본 발명의 일 실시예에 따른 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법에 있어서, 물체에 대한 거리 정보를 출력하고 제k 카메라의 제k 이미지에 대응되는 제k 추정 세그멘테이션 결과를 출력하는 과정을 개략적으로 도시한 것이다.
Claims (20)
- 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법에 있어서,
(a) 제1 카메라 내지 제p 카메라 - 상기 제1 카메라 내지 상기 제p 카메라는 FOV(Field Of View)를 가지며 상기 제1 카메라 내지 상기 제p 카메라 각각의 FOV를 통해 이동체의 전방향(omni-direction)을 촬상함 - 가 상기 이동체에 상호 이격 배치된 상태에서, 상기 제1 카메라 내지 상기 제p 카메라에서 촬상된 제1 이미지 내지 제p 이미지가 수신되면, 비전 장치가, 상기 제1 이미지 내지 상기 제p 이미지를 스윕 네트워크에 입력하여, 상기 스윕 네트워크로 하여금, 상기 제1 이미지 내지 상기 제p 이미지 상의 복수의 픽셀들을 소정의 메인 기준점 또는 소정의 메인 기준 가상 입체를 기준으로 하여 형성되는 N개의 메인 가상 입체에 투영하여 복수의 메인 입체 이미지를 생성하도록 하고, 상기 복수의 메인 입체 이미지에 3차원 컨캐터네이션(concatenation) 연산을 적용하여 4차원 초기 코스트 볼륨을 생성하도록 하는 단계;
(b) 상기 비전 장치가, 상기 4차원 초기 코스트 볼륨을 복수의 3차원 컨벌루션 연산 레이어와 이에 대응되는 복수의 3차원 디컨벌루션 연산 레이어를 포함하는 코스트 볼륨 계산(cost volume computation) 네트워크에 입력하여 3차원 최종 메인 코스트 볼륨을 생성하는 단계; 및
(c) 상기 비전 장치가, (i) 상기 제1 카메라 내지 상기 제p 카메라 중 적어도 하나의 제k 카메라로부터 획득된 제k 이미지 상의 복수의 픽셀들을 소정의 제k 서브 기준점을 기준으로 하여 형성되는 M개의 제k 서브 가상 입체에 투영하여 복수의 제k 서브 입체 이미지를 생성하고, 상기 복수의 제k 서브 입체 이미지 상의 픽셀들 각각에 대한 위치를 상기 소정의 메인 기준점에 따라 변환한 제k 3차원 픽셀 좌표를 획득하며, 상기 제k 3차원 픽셀 좌표를 상기 3차원 최종 메인 코스트 볼륨에 적용하여 제k 서브 코스트 요소를 획득하고, 상기 제k 서브 코스트 요소를 이용하여 제k 서브 코스트 볼륨을 생성하며, 상기 제k 서브 코스트 볼륨을 이용하여 상기 제k 카메라의 상기 소정의 제k 서브 기준점으로부터 상기 M개의 제k 서브 가상 입체까지의 거리인 제k_1 서브 이격 거리 내지 제k_M 서브 이격 거리 중 적어도 하나에 대한 역수를 나타내는 적어도 하나의 제k 서브 인버스 거리에 대한 적어도 하나의 제k 서브 인버스 거리 인덱스를 생성하고, 상기 제k 서브 인버스 거리 인덱스로부터 추출한 상기 제k 서브 인버스 거리로부터 상기 제k_1 서브 이격 거리 내지 상기 제k_M 서브 이격 거리 중 적어도 하나를 획득하는 프로세스 및 (ii) 상기 3차원 최종 메인 코스트 볼륨을 이용하여 상기 소정의 메인 기준점 또는 상기 소정의 메인 기준 가상 입체로부터 상기 N개의 메인 가상 입체까지의 거리인 N개의 메인 이격 거리 중 적어도 하나에 대한 역수를 나타내는 적어도 하나의 메인 인버스 거리에 대한 적어도 하나의 메인 인버스 거리 인덱스를 생성하고, 상기 메인 인버스 거리 인덱스로부터 추출한 상기 메인 인버스 거리로부터 상기 N개의 메인 이격 거리 중 적어도 하나를 획득하는 프로세스를 수행한 후, 상기 N개의 메인 이격 거리 중 적어도 하나 및 상기 제k_1 서브 이격 거리 내지 상기 제k_M 서브 이격 거리 중 적어도 하나를 참조하여 상기 이동체의 전방향에 위치한 상기 적어도 하나의 물체에 대한 거리를 획득하는 단계;
를 포함하는 방법. - 제1항에 있어서,
상기 N개의 메인 가상 입체는, (i) 상기 제1 카메라 내지 상기 제p 카메라 각각의 위치인 제1 위치 내지 제p 위치를 참조로 하여 설정된 상기 소정의 메인 기준점으로서의 제1 메인 기준점을 중심으로 하며, (ii) 상기 N개의 메인 이격 거리로서 제1_1 메인 이격 거리 내지 제1_N 메인 이격 거리 각각을 반지름으로 하는 N개의 메인 가상 구에 해당하고,
상기 M개의 제k 서브 가상 입체는, (i) 상기 제k 카메라의 제k 위치를 기준으로 설정된 상기 소정의 제k 서브 기준점을 중심으로 하며, (ii) 상기 제k_1 서브 이격 거리 내지 상기 제k_M 서브 이격 거리 각각을 반지름으로 하는 M개의 제k 서브 가상 구에 해당하며,
상기 (c) 단계에서,
상기 비전 장치가, (i) 상기 제k 서브 코스트 볼륨을 이용하여 상기 소정의 제k 서브 기준점으로부터 상기 M개의 제k 서브 가상 구까지의 거리인 상기 제k_1 서브 이격 거리 내지 상기 제k_M 서브 이격 거리 중 적어도 하나에 대한 역수를 나타내는 적어도 하나의 제k 서브 인버스 뎁스에 대한 적어도 하나의 제k 서브 인버스 뎁스 인덱스를 생성하고, 상기 제k 서브 인버스 뎁스 인덱스로부터 추출한 상기 제k 서브 인버스 뎁스로부터 상기 제k_1 서브 이격 거리 내지 상기 제k_M 서브 이격 거리 중 적어도 하나를 획득하는 프로세스 및 (ii) 상기 3차원 최종 메인 코스트 볼륨을 이용하여 상기 제1 메인 기준점으로부터 상기 N개의 메인 가상 구까지의 거리인 상기 제1_1 메인 이격 거리 내지 상기 제1_N 메인 이격 거리 중 적어도 하나에 대한 역수를 나타내는 적어도 하나의 메인 인버스 뎁스에 대한 적어도 하나의 메인 인버스 뎁스 인덱스를 생성하고, 상기 메인 인버스 뎁스 인덱스로부터 추출한 상기 메인 인버스 뎁스로부터 상기 제1_1 메인 이격 거리 내지 상기 제1_N 메인 이격 거리 중 적어도 하나를 획득하는 프로세스를 수행한 후, 상기 제1_1 메인 이격 거리 내지 상기 제1_N 메인 이격 거리 중 적어도 하나 및 상기 제k_1 서브 이격 거리 내지 상기 제k_M 서브 이격 거리 중 적어도 하나를 참조하여 상기 이동체의 전방향에 위치한 상기 적어도 하나의 물체에 대한 거리를 획득하는 것을 특징으로 하는 방법. - 제1항에 있어서,
상기 N개의 메인 가상 입체는, 상기 메인 기준 가상 입체 - 상기 메인 기준 가상 입체는, 상기 제1 카메라 내지 상기 제p 카메라 각각의 위치인 제1 위치 내지 제p 위치를 참조로 하여 설정된 상기 소정의 메인 기준점으로서의 제2 메인 기준점을 중심으로 함 - 의 오소고널(orthogonal)한 세 개의 메인 기준 평면 각각으로부터 제2_1 메인 이격 거리 내지 제2_N 메인 이격 거리마다 각각 형성된 세 개의 메인 확장 평면을 포함하는 메인 확장 평면 세트 및 상기 메인 확장 평면 세트에 포함된 상기 세 개의 메인 확장 평면 사이를 연결하기 위한 메인 연결 곡면을 포함하는 N개의 메인 가상 라운디드 큐보이드(rounded cuboid)에 해당하고,
상기 M개의 제k 서브 가상 입체는, (i) 상기 제k 카메라의 제k 위치를 기준으로 설정된 상기 소정의 제k 서브 기준점을 중심으로 하며, (ii) 상기 제k_1 서브 이격 거리 내지 상기 제k_M 서브 이격 거리 각각을 반지름으로 하는 M개의 제k 서브 가상 구에 해당하며,
상기 (c) 단계에서,
상기 비전 장치가, (i) 상기 제k 서브 코스트 볼륨을 이용하여 상기 소정의 제k 서브 기준점으로부터 상기 M개의 제k 서브 가상 구까지의 거리인 상기 제k_1 서브 이격 거리 내지 상기 제k_M 서브 이격 거리 중 적어도 하나에 대한 역수를 나타내는 적어도 하나의 제k 서브 인버스 뎁스에 대한 적어도 하나의 제k 서브 인버스 뎁스 인덱스를 생성하고, 상기 제k 서브 인버스 뎁스 인덱스로부터 추출한 상기 제k 서브 인버스 뎁스로부터 상기 제k_1 서브 이격 거리 내지 상기 제k_M 서브 이격 거리 중 적어도 하나를 획득하는 프로세스 및 (ii) 상기 3차원 최종 메인 코스트 볼륨을 이용하여 상기 N개의 메인 가상 라운디드 큐보이드 각각의 상기 제2_1 메인 이격 거리 내지 상기 제2_N 메인 이격 거리 중 적어도 하나에 대한 역수를 나타내는 적어도 하나의 메인 인버스 라디우스에 대한 메인 인버스 라디우스 인덱스를 생성하고, 상기 메인 인버스 라디우스 인덱스로부터 추출한 상기 메인 인버스 라디우스로부터 상기 제2_1 메인 이격 거리 내지 상기 제2_N 메인 이격 거리 중 적어도 하나를 획득하는 프로세스를 수행한 후, 상기 제2_1 메인 이격 거리 내지 상기 제2_N 메인 이격 거리 중 적어도 하나 및 상기 제k_1 서브 이격 거리 내지 상기 제k_M 서브 이격 거리 중 적어도 하나를 참조하여 상기 이동체의 전방향에 위치한 상기 적어도 하나의 물체에 대한 거리를 획득하는 것을 특징으로 하는 방법. - 제3항에 있어서,
상기 (a) 단계에서,
상기 비전 장치가, 상기 스윕 네트워크로 하여금, 상기 메인 기준 가상 입체의 상기 제2 메인 기준점으로부터 제i - 상기 i은 1 이상 N 이하의 정수임 - 메인 가상 라운디드 큐보이드 상의 특정 지점까지의 특정 거리 di을 계산하도록 하고, 상기 di을 참조하여 상기 제1 이미지 내지 상기 제p 이미지 상의 상기 복수의 픽셀들을 상기 제i 메인 가상 라운디드 큐보이드에 투영하도록 하되,
상기 메인 기준 가상 입체의 상기 제2 메인 기준점으로부터 상기 제i 메인 가상 라운디드 큐보이드 상의 상기 특정 지점까지의 상기 특정 거리 di는 하기 수식에 따라 결정되며,
di = f(ri, θ, Ψ; w, h, l)
상기 수식에서, (i) 상기 ri은, 상기 메인 기준 가상 입체로부터 상기 제i 메인 가상 라운디드 큐보이드까지의 이격 거리이고, (ii) 상기 θ 및 Ψ 는, 상기 메인 기준 가상 입체의 상기 제2 메인 기준점을 원점으로 하는 구면 좌표계에서 상기 메인 기준 가상 입체의 상기 제2 메인 기준점과 상기 특정 지점을 연결하는 가상 선분의 방위각 및 극각이며, (iii) 상기 w, h 및 l 각각은 상기 메인 기준 가상 입체의 서로 직교하는 제1 모서리, 제2 모서리 및 제3 모서리 각각의 길이에 대응되는 것을 특징으로 하는 방법. - 제1항에 있어서,
(d) 상기 비전 장치가, 상기 제k 서브 인버스 거리 인덱스와 상기 제k 서브 인버스 거리 인덱스에 대응되는 제k 그라운드 트루스 서브 인버스 거리 인덱스를 참조하여 생성한 적어도 하나의 서브 거리 로스를 이용한 엔드 투 엔드 방식으로 상기 코스트 볼륨 계산 네트워크 및 상기 스윕 네트워크 중 적어도 일부를 학습하는 단계;
를 더 포함하는 것을 특징으로 하는 방법. - 제5항에 있어서,
상기 비전 장치가, 상기 메인 인버스 거리 인덱스와 상기 메인 인버스 거리 인덱스에 대응되는 그라운드 트루스 메인 인버스 거리 인덱스를 참조하여 생성한 적어도 하나의 메인 거리 로스를 추가로 이용하여 상기 엔드 투 엔드 방식으로 상기 코스트 볼륨 계산 네트워크 및 상기 스윕 네트워크 중 적어도 일부를 학습하는 것을 특징으로 하는 방법. - 제1항에 있어서,
상기 (a) 단계에서,
상기 제1 카메라 내지 상기 제p 카메라에서 촬상된 상기 제1 이미지 내지 상기 제p 이미지가 수신되면, 상기 비전 장치가, 상기 제1 이미지 내지 상기 제p 이미지를 복수의 2차원 컨벌루션 레이어에 입력하여 상기 제1 이미지 내지 상기 제p 이미지에 대응되는 제1 특징 맵 내지 제p 특징 맵을 생성하고, 상기 제1 특징 맵 내지 상기 제p 특징 맵으로부터 상기 복수의 메인 입체 이미지를 생성하는 것을 특징으로 하는 방법. - 제7항에 있어서,
(e) 상기 2차원 컨벌루션 레이어 중 특정 2차원 컨벌루션 레이어로부터 상기 제k 이미지에 대응되는 제k 특징 맵이 획득되면, 상기 비전 장치가, 2차원 디컨벌루션 레이어를 포함하는 세그멘테이션 네트워크에 (i) 상기 제k 특징 맵 및 (ii) 상기 제k 서브 코스트 볼륨을 입력하여, 상기 세그멘테이션 네트워크로 하여금 상기 2차원 디컨벌루션 레이어를 통해 상기 제k 이미지에 대응되는 제k 추정 세그멘테이션 결과를 출력하도록 하는 단계;
를 더 포함하는 것을 특징으로 하는 방법. - 제8항에 있어서,
(f) 상기 비전 장치가, (i) 상기 제k 서브 인버스 거리 인덱스와 상기 제k 서브 인버스 거리 인덱스에 대응되는 제k 그라운드 트루스 서브 인버스 거리 인덱스를 참조하여 생성한 적어도 하나의 서브 거리 로스를 이용한 엔드 투 엔드 방식으로 상기 코스트 볼륨 계산 네트워크 및 상기 스윕 네트워크 중 적어도 일부를 학습하고, (ii) 상기 제k 추정 세그멘테이션 결과 및 상기 제k 추정 세그멘테이션 결과에 대응되는 제k 그라운드 트루스 세그멘테이션 결과를 참조하여 생성한 적어도 하나의 세그멘테이션 로스를 이용한 엔드 투 엔드 방식으로 상기 세그멘테이션 네트워크를 학습하는 단계;
를 더 포함하는 것을 특징으로 하는 방법. - 제9항에 있어서,
상기 (f) 단계에서,
상기 비전 장치가, 상기 메인 인버스 거리 인덱스와 상기 메인 인버스 거리 인덱스에 대응되는 그라운드 트루스 메인 인버스 거리 인덱스를 참조하여 생성한 적어도 하나의 메인 거리 로스를 추가로 이용하여 상기 코스트 볼륨 계산 네트워크 및 상기 스윕 네트워크 중 적어도 일부를 학습하는 것을 특징으로 하는 방법. - 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 비전 장치에 있어서,
인스트럭션들을 저장하는 적어도 하나의 메모리; 및
상기 인스트럭션들을 실행하기 위해 구성된 적어도 하나의 프로세서를 포함하되,
상기 프로세서는, (1) 제1 카메라 내지 제p 카메라 - 상기 제1 카메라 내지 상기 제p 카메라는 FOV(Field Of View)를 가지며 상기 제1 카메라 내지 상기 제p 카메라 각각의 FOV를 통해 이동체의 전방향(omni-direction)을 촬상함 - 가 상기 이동체에 상호 이격 배치된 상태에서, 상기 제1 카메라 내지 상기 제p 카메라에서 촬상된 제1 이미지 내지 제p 이미지가 수신되면, 상기 제1 이미지 내지 상기 제p 이미지를 스윕 네트워크에 입력하여, 상기 스윕 네트워크로 하여금, 상기 제1 이미지 내지 상기 제p 이미지 상의 복수의 픽셀들을 소정의 메인 기준점 또는 소정의 메인 기준 가상 입체를 기준으로 하여 형성되는 N개의 메인 가상 입체에 투영하여 복수의 메인 입체 이미지를 생성하도록 하고, 상기 복수의 메인 입체 이미지에 3차원 컨캐터네이션(concatenation) 연산을 적용하여 4차원 초기 코스트 볼륨을 생성하도록 하는 프로세스, (2) 상기 4차원 초기 코스트 볼륨을 복수의 3차원 컨벌루션 연산 레이어와 이에 대응되는 복수의 3차원 디컨벌루션 연산 레이어를 포함하는 코스트 볼륨 계산(cost volume computation) 네트워크에 입력하여 3차원 최종 메인 코스트 볼륨을 생성하는 프로세스 및 (3) (i) 상기 제1 카메라 내지 상기 제p 카메라 중 적어도 하나의 제k 카메라로부터 획득된 제k 이미지 상의 복수의 픽셀들을 소정의 제k 서브 기준점을 기준으로 하여 형성되는 M개의 제k 서브 가상 입체에 투영하여 복수의 제k 서브 입체 이미지를 생성하고, 상기 복수의 제k 서브 입체 이미지 상의 픽셀들 각각에 대한 위치를 상기 소정의 메인 기준점에 따라 변환한 제k 3차원 픽셀 좌표를 획득하며, 상기 제k 3차원 픽셀 좌표를 상기 3차원 최종 메인 코스트 볼륨에 적용하여 제k 서브 코스트 요소를 획득하고, 상기 제k 서브 코스트 요소를 이용하여 제k 서브 코스트 볼륨을 생성하며, 상기 제k 서브 코스트 볼륨을 이용하여 상기 제k 카메라의 상기 소정의 제k 서브 기준점으로부터 상기 M개의 제k 서브 가상 입체까지의 거리인 제k_1 서브 이격 거리 내지 제k_M 서브 이격 거리 중 적어도 하나에 대한 역수를 나타내는 적어도 하나의 제k 서브 인버스 거리에 대한 적어도 하나의 제k 서브 인버스 거리 인덱스를 생성하고, 상기 제k 서브 인버스 거리 인덱스로부터 추출한 상기 제k 서브 인버스 거리로부터 상기 제k_1 서브 이격 거리 내지 상기 제k_M 서브 이격 거리 중 적어도 하나를 획득하는 프로세스 및 (ii) 상기 3차원 최종 메인 코스트 볼륨을 이용하여 상기 소정의 메인 기준점 또는 소정의 메인 기준 가상 입체로부터 상기 N개의 메인 가상 입체까지의 거리인 N개의 메인 이격 거리 중 적어도 하나에 대한 역수를 나타내는 적어도 하나의 메인 인버스 거리에 대한 적어도 하나의 메인 인버스 거리 인덱스를 생성하고, 상기 메인 인버스 거리 인덱스로부터 추출한 상기 메인 인버스 거리로부터 상기 N개의 메인 이격 거리 중 적어도 하나를 획득하는 프로세스를 수행한 후, 상기 N개의 메인 이격 거리 중 적어도 하나 및 상기 제k_1 서브 이격 거리 내지 상기 제k_M 서브 이격 거리 중 적어도 하나를 참조하여 상기 이동체의 전방향에 위치한 상기 적어도 하나의 물체에 대한 거리를 획득하는 프로세스를 수행하는 비전 장치. - 제11항에 있어서,
상기 N개의 메인 가상 입체는, (i) 상기 제1 카메라 내지 상기 제p 카메라 각각의 위치인 제1 위치 내지 제p 위치를 참조로 하여 설정된 상기 소정의 메인 기준점으로서의 제1 메인 기준점을 중심으로 하며, (ii) 상기 N개의 메인 이격 거리로서 제1_1 메인 이격 거리 내지 제1_N 메인 이격 거리 각각을 반지름으로 하는 N개의 메인 가상 구에 해당하고,
상기 M개의 제k 서브 가상 입체는, (i) 상기 제k 카메라의 제k 위치를 기준으로 설정된 상기 소정의 제k 서브 기준점을 중심으로 하며, (ii) 상기 제k_1 서브 이격 거리 내지 상기 제k_M 서브 이격 거리 각각을 반지름으로 하는 M개의 제k 서브 가상 구에 해당하며,
상기 프로세서는,
상기 (3) 프로세스에서,
(i) 상기 제k 서브 코스트 볼륨을 이용하여 상기 소정의 제k 서브 기준점으로부터 상기 M개의 제k 서브 가상 구까지의 거리인 상기 제k_1 서브 이격 거리 내지 상기 제k_M 서브 이격 거리 중 적어도 하나에 대한 역수를 나타내는 적어도 하나의 제k 서브 인버스 뎁스에 대한 적어도 하나의 제k 서브 인버스 뎁스 인덱스를 생성하고, 상기 제k 서브 인버스 뎁스 인덱스로부터 추출한 상기 제k 서브 인버스 뎁스로부터 상기 제k_1 서브 이격 거리 내지 상기 제k_M 서브 이격 거리 중 적어도 하나를 획득하는 프로세스 및 (ii) 상기 3차원 최종 메인 코스트 볼륨을 이용하여 상기 제1 메인 기준점으로부터 상기 N개의 메인 가상 구까지의 거리인 상기 제1_1 메인 이격 거리 내지 상기 제1_N 메인 이격 거리 중 적어도 하나에 대한 역수를 나타내는 적어도 하나의 메인 인버스 뎁스에 대한 적어도 하나의 메인 인버스 뎁스 인덱스를 생성하고, 상기 메인 인버스 뎁스 인덱스로부터 추출한 상기 메인 인버스 뎁스로부터 상기 제1_1 메인 이격 거리 내지 상기 제1_N 메인 이격 거리 중 적어도 하나를 획득하는 프로세스를 수행한 후, 상기 제1_1 메인 이격 거리 내지 상기 제1_N 메인 이격 거리 중 적어도 하나 및 상기 제k_1 서브 이격 거리 내지 상기 제k_M 서브 이격 거리 중 적어도 하나를 참조하여 상기 이동체의 전방향에 위치한 상기 적어도 하나의 물체에 대한 거리를 획득하는 것을 특징으로 하는 비전 장치. - 제11항에 있어서,
상기 N개의 메인 가상 입체는, 상기 메인 기준 가상 입체 - 상기 메인 기준 가상 입체는, 상기 제1 카메라 내지 상기 제p 카메라 각각의 위치인 제1 위치 내지 제p 위치를 참조로 하여 설정된 상기 소정의 메인 기준점으로서의 제2 메인 기준점을 중심으로 함 - 의 오소고널(orthogonal)한 세 개의 메인 기준 평면 각각으로부터 제2_1 메인 이격 거리 내지 제2_N 메인 이격 거리마다 각각 형성된 세 개의 메인 확장 평면을 포함하는 메인 확장 평면 세트 및 상기 메인 확장 평면 세트에 포함된 상기 세 개의 메인 확장 평면 사이를 연결하기 위한 메인 연결 곡면을 포함하는 N개의 메인 가상 라운디드 큐보이드(rounded cuboid)에 해당하고,
상기 M개의 제k 서브 가상 입체는, (i) 상기 제k 카메라의 제k 위치를 기준으로 설정된 상기 소정의 제k 서브 기준점을 중심으로 하며, (ii) 상기 제k_1 서브 이격 거리 내지 상기 제k_M 서브 이격 거리 각각을 반지름으로 하는 M개의 제k 서브 가상 구에 해당하며,
상기 프로세서는,
상기 (3) 프로세스에서,
(i) 상기 제k 서브 코스트 볼륨을 이용하여 상기 소정의 제k 서브 기준점으로부터 상기 M개의 제k 서브 가상 구까지의 거리인 상기 제k_1 서브 이격 거리 내지 상기 제k_M 서브 이격 거리 중 적어도 하나에 대한 역수를 나타내는 적어도 하나의 제k 서브 인버스 뎁스에 대한 적어도 하나의 제k 서브 인버스 뎁스 인덱스를 생성하고, 상기 제k 서브 인버스 뎁스 인덱스로부터 추출한 상기 제k 서브 인버스 뎁스로부터 상기 제k_1 서브 이격 거리 내지 상기 제k_M 서브 이격 거리 중 적어도 하나를 획득하는 프로세스 및 (ii) 상기 3차원 최종 메인 코스트 볼륨을 이용하여 상기 N개의 메인 가상 라운디드 큐보이드 각각의 상기 제2_1 메인 이격 거리 내지 상기 제2_N 메인 이격 거리 중 적어도 하나에 대한 역수를 나타내는 적어도 하나의 메인 인버스 라디우스에 대한 적어도 하나의 메인 인버스 라디우스 인덱스를 생성하고, 상기 메인 인버스 라디우스 인덱스로부터 추출한 상기 메인 인버스 라디우스로부터 상기 제2_1 메인 이격 거리 내지 상기 제2_N 메인 이격 거리 중 적어도 하나를 획득하는 프로세스를 수행한 후, 상기 제2_1 메인 이격 거리 내지 상기 제2_N 메인 이격 거리 중 적어도 하나 및 상기 제k_1 서브 이격 거리 내지 상기 제k_M 서브 이격 거리 중 적어도 하나를 참조하여 상기 이동체의 전방향에 위치한 상기 적어도 하나의 물체에 대한 거리를 획득하는 것을 특징으로 하는 비전 장치. - 제13항에 있어서,
상기 프로세서는,
상기 (1) 프로세스에서,
상기 스윕 네트워크로 하여금, 상기 메인 기준 가상 입체의 상기 제2 메인 기준점으로부터 제i - 상기 i은 1 이상 N 이하의 정수임 - 메인 가상 라운디드 큐보이드 상의 특정 지점까지의 특정 거리 di을 계산하도록 하고, 상기 di을 참조하여 상기 제1 이미지 내지 상기 제p 이미지 상의 상기 복수의 픽셀들을 상기 제i 메인 가상 라운디드 큐보이드에 투영하도록 하되,
상기 메인 기준 가상 입체의 상기 제2 메인 기준점으로부터 상기 제i 메인 가상 라운디드 큐보이드 상의 상기 특정 지점까지의 상기 특정 거리 di는 하기 수식에 따라 결정되며,
di = f(ri, θ, Ψ; w, h, l)
상기 수식에서, (i) 상기 ri은, 상기 메인 기준 가상 입체로부터 상기 제i 메인 가상 라운디드 큐보이드까지의 이격 거리이고, (ii) 상기 θ 및 Ψ 는, 상기 메인 기준 가상 입체의 상기 제2 메인 기준점을 원점으로 하는 구면 좌표계에서 상기 메인 기준 가상 입체의 상기 제2 메인 기준점과 상기 특정 지점을 연결하는 가상 선분의 방위각 및 극각이며, (iii) 상기 w, h 및 l 각각은 상기 메인 기준 가상 입체의 서로 직교하는 제1 모서리, 제2 모서리 및 제3 모서리 각각의 길이에 대응되는 것을 특징으로 하는 비전 장치. - 제11항에 있어서,
상기 프로세서는, (4) 상기 제k 서브 인버스 거리 인덱스와 상기 제k 서브 인버스 거리 인덱스에 대응되는 제k 그라운드 트루스 서브 인버스 거리 인덱스를 참조하여 생성한 적어도 하나의 서브 거리 로스를 이용한 엔드 투 엔드 방식으로 상기 코스트 볼륨 계산 네트워크 및 상기 스윕 네트워크 중 적어도 일부를 학습하는 프로세스를 더 수행하는 것을 특징으로 하는 비전 장치. - 제15항에 있어서,
상기 프로세서는, 상기 메인 인버스 거리 인덱스와 상기 메인 인버스 거리 인덱스에 대응되는 그라운드 트루스 메인 인버스 거리 인덱스를 참조하여 생성한 적어도 하나의 메인 거리 로스를 추가로 이용하여 상기 엔드 투 엔드 방식으로 상기 코스트 볼륨 계산 네트워크 및 상기 스윕 네트워크 중 적어도 일부를 학습하는 것을 특징으로 하는 비전 장치. - 제11항에 있어서,
상기 프로세서는,
상기 (1) 프로세스에서,
상기 제1 카메라 내지 상기 제p 카메라에서 촬상된 상기 제1 이미지 내지 상기 제p 이미지가 수신되면, 상기 제1 이미지 내지 상기 제p 이미지를 복수의 2차원 컨벌루션 레이어에 입력하여 상기 제1 이미지 내지 상기 제p 이미지에 대응되는 제1 특징 맵 내지 제p 특징 맵을 생성하고, 상기 제1 특징 맵 내지 상기 제p 특징 맵으로부터 상기 복수의 메인 입체 이미지를 생성하는 것을 특징으로 하는 비전 장치. - 제17항에 있어서,
상기 프로세서는, (5) 상기 2차원 컨벌루션 레이어 중 특정 2차원 컨벌루션 레이어로부터 상기 제k 이미지에 대응되는 제k 특징 맵이 획득되면, 2차원 디컨벌루션 레이어를 포함하는 세그멘테이션 네트워크에 (i) 상기 제k 특징 맵 및 (ii) 상기 제k 서브 코스트 볼륨을 입력하여, 상기 세그멘테이션 네트워크로 하여금 상기 2차원 디컨벌루션 레이어를 통해 상기 제k 이미지에 대응되는 제k 추정 세그멘테이션 결과를 출력하도록 하는 프로세스를 더 수행하는 것을 특징으로 하는 비전 장치. - 제18항에 있어서,
상기 프로세서는, (6) (i) 상기 제k 서브 인버스 거리 인덱스와 상기 제k 서브 인버스 거리 인덱스에 대응되는 제k 그라운드 트루스 서브 인버스 거리 인덱스를 참조하여 생성한 적어도 하나의 서브 거리 로스를 이용한 엔드 투 엔드 방식으로 상기 코스트 볼륨 계산 네트워크 및 상기 스윕 네트워크 중 적어도 일부를 학습하고, (ii) 상기 제k 추정 세그멘테이션 결과 및 상기 제k 추정 세그멘테이션 결과에 대응되는 제k 그라운드 트루스 세그멘테이션 결과를 참조하여 생성한 적어도 하나의 세그멘테이션 로스를 이용한 엔드 투 엔드 방식으로 상기 세그멘테이션 네트워크를 학습하는 프로세스를 더 수행하는 것을 특징으로 하는 비전 장치. - 제19항에 있어서,
상기 프로세서는,
상기 (6) 프로세스에서,
상기 메인 인버스 거리 인덱스와 상기 메인 인버스 거리 인덱스에 대응되는 그라운드 트루스 메인 인버스 거리 인덱스를 참조하여 생성한 적어도 하나의 메인 거리 로스를 추가로 이용하여 상기 코스트 볼륨 계산 네트워크 및 상기 스윕 네트워크 중 적어도 일부를 학습하는 것을 특징으로 하는 비전 장치.
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020210126023A KR102361133B1 (ko) | 2021-09-23 | 2021-09-23 | 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법 및 이를 이용한 비전 장치 |
| US17/865,855 US11704825B2 (en) | 2021-09-23 | 2022-07-15 | Method for acquiring distance from moving body to at least one object located in any direction of moving body by utilizing camera-view depth map and image processing device using the same |
| PCT/KR2022/010970 WO2023048380A1 (ko) | 2021-09-23 | 2022-07-26 | 카메라뷰 뎁스맵을 활용하여 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법 및 이를 이용한 이미지 처리 장치 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020210126023A KR102361133B1 (ko) | 2021-09-23 | 2021-09-23 | 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법 및 이를 이용한 비전 장치 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR102361133B1 true KR102361133B1 (ko) | 2022-02-14 |
Family
ID=80254166
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020210126023A Active KR102361133B1 (ko) | 2021-09-23 | 2021-09-23 | 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법 및 이를 이용한 비전 장치 |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US11704825B2 (ko) |
| KR (1) | KR102361133B1 (ko) |
| WO (1) | WO2023048380A1 (ko) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2023048380A1 (ko) * | 2021-09-23 | 2023-03-30 | 주식회사 멀티플아이 | 카메라뷰 뎁스맵을 활용하여 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법 및 이를 이용한 이미지 처리 장치 |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20230158335A (ko) * | 2022-05-11 | 2023-11-20 | 현대자동차주식회사 | 차량 및 그 제어 방법 |
| CN117455927B (zh) * | 2023-12-21 | 2024-03-15 | 万灵帮桥医疗器械(广州)有限责任公司 | 光斑阵列分割与光斑偏移量计算方法、装置、设备及存储介质 |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20170017700A (ko) * | 2015-08-07 | 2017-02-15 | 삼성전자주식회사 | 360도 3d 입체 영상을 생성하는 전자 장치 및 이의 방법 |
| KR20210049581A (ko) * | 2019-10-25 | 2021-05-06 | 주식회사 멀티플아이 | 이동체의 전방향에 대한 거리 취득 장치 및 방법 |
Family Cites Families (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101915843B1 (ko) * | 2016-06-29 | 2018-11-08 | 한국과학기술원 | 복굴절 매질을 이용한 영상 깊이 추정 방법 및 장치 |
| US10467768B2 (en) * | 2017-04-07 | 2019-11-05 | Intel Corporation | Optical flow estimation using 4-dimensional cost volume processing |
| US10957009B2 (en) * | 2017-05-04 | 2021-03-23 | Electronics And Telecommunications Research Institute | Image processing apparatus and method |
| US11080590B2 (en) * | 2018-03-21 | 2021-08-03 | Nvidia Corporation | Stereo depth estimation using deep neural networks |
| GB201807392D0 (en) * | 2018-05-04 | 2018-06-20 | Five Ai Ltd | Method and image processing system for extracting depth information |
| US11237572B2 (en) * | 2018-12-27 | 2022-02-01 | Intel Corporation | Collision avoidance system, depth imaging system, vehicle, map generator and methods thereof |
| US10839543B2 (en) * | 2019-02-26 | 2020-11-17 | Baidu Usa Llc | Systems and methods for depth estimation using convolutional spatial propagation networks |
| KR20210025942A (ko) * | 2019-08-28 | 2021-03-10 | 성균관대학교산학협력단 | 종단간 컨볼루셔널 뉴럴 네트워크를 이용한 스테레오 매칭 방법 |
| GB202005538D0 (en) * | 2020-04-16 | 2020-06-03 | Five Ai Ltd | Stereo depth estimation |
| KR102361133B1 (ko) * | 2021-09-23 | 2022-02-14 | 주식회사 멀티플아이 | 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법 및 이를 이용한 비전 장치 |
-
2021
- 2021-09-23 KR KR1020210126023A patent/KR102361133B1/ko active Active
-
2022
- 2022-07-15 US US17/865,855 patent/US11704825B2/en active Active
- 2022-07-26 WO PCT/KR2022/010970 patent/WO2023048380A1/ko not_active Ceased
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20170017700A (ko) * | 2015-08-07 | 2017-02-15 | 삼성전자주식회사 | 360도 3d 입체 영상을 생성하는 전자 장치 및 이의 방법 |
| KR20210049581A (ko) * | 2019-10-25 | 2021-05-06 | 주식회사 멀티플아이 | 이동체의 전방향에 대한 거리 취득 장치 및 방법 |
Non-Patent Citations (2)
| Title |
|---|
| End-to-End Learning for Omnidirectional Stereo Matching with Uncertainty Prior, IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020.05. * |
| ocalization and 3D Scene Perception for an Autonomous Vehicle with a Multi-camera System, arXiv:1809.05477v1.2018.09. * |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2023048380A1 (ko) * | 2021-09-23 | 2023-03-30 | 주식회사 멀티플아이 | 카메라뷰 뎁스맵을 활용하여 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법 및 이를 이용한 이미지 처리 장치 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20230086983A1 (en) | 2023-03-23 |
| US11704825B2 (en) | 2023-07-18 |
| WO2023048380A1 (ko) | 2023-03-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Won et al. | Sweepnet: Wide-baseline omnidirectional depth estimation | |
| CN110853075B (zh) | 一种基于稠密点云与合成视图的视觉跟踪定位方法 | |
| RU2713611C2 (ru) | Способ моделирования трехмерного пространства | |
| KR102295809B1 (ko) | 이동체의 전방향에 대한 거리 취득 장치 및 방법 | |
| JP5991952B2 (ja) | 周囲状況に対するカメラの姿勢を求めるための方法 | |
| JP5992184B2 (ja) | 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム | |
| KR102361133B1 (ko) | 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법 및 이를 이용한 비전 장치 | |
| US10878595B2 (en) | Dual model for fisheye lens distortion and an algorithm for calibrating model parameters | |
| Lagisetty et al. | Object detection and obstacle avoidance for mobile robot using stereo camera | |
| JP2023505891A (ja) | 環境のトポグラフィを測定するための方法 | |
| Honegger et al. | Embedded real-time multi-baseline stereo | |
| CN112700486B (zh) | 对图像中路面车道线的深度进行估计的方法及装置 | |
| US20200294269A1 (en) | Calibrating cameras and computing point projections using non-central camera model involving axial viewpoint shift | |
| Dimitrievski et al. | Robust Matching of Occupancy Maps for Odometry in Autonomous Vehicles. | |
| CN120266160A (zh) | 基于神经网络的定位 | |
| KR102372298B1 (ko) | 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법 및 이를 이용한 비전 장치 | |
| CN117111040A (zh) | 基于lm算法的三维激光雷达与相机联合标定外参优化方法 | |
| JP2009186287A (ja) | 平面パラメータ推定装置、平面パラメータ推定方法及び平面パラメータ推定プログラム | |
| Ohnishi et al. | Featureless robot navigation using optical flow | |
| Raposo et al. | Extrinsic calibration of multi-modal sensor arrangements with non-overlapping field-of-view | |
| CN119832151A (zh) | 开放式三维重建方法、自动深度定位方法、设备及机器人 | |
| CN113048985B (zh) | 已知相对旋转角度条件下的像机相对运动估计方法 | |
| JP2005063012A (ja) | 全方位カメラ運動と3次元情報の復元方法とその装置及びプログラム並びにこれを記録した記録媒体 | |
| Yaqoob et al. | Performance evaluation of mobile stereonet for real time navigation in autonomous mobile robots | |
| Huang et al. | Wide-angle vision for road views |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| PA0302 | Request for accelerated examination |
St.27 status event code: A-1-2-D10-D17-exm-PA0302 St.27 status event code: A-1-2-D10-D16-exm-PA0302 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R11-asn-PN2301 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R14-asn-PN2301 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 4 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 5 |
|
| U11 | Full renewal or maintenance fee paid |
Free format text: ST27 STATUS EVENT CODE: A-4-4-U10-U11-OTH-PR1001 (AS PROVIDED BY THE NATIONAL OFFICE) Year of fee payment: 5 |