[go: up one dir, main page]

KR20110119933A - Image recognition device and method using stereo camera - Google Patents

Image recognition device and method using stereo camera Download PDF

Info

Publication number
KR20110119933A
KR20110119933A KR1020100039366A KR20100039366A KR20110119933A KR 20110119933 A KR20110119933 A KR 20110119933A KR 1020100039366 A KR1020100039366 A KR 1020100039366A KR 20100039366 A KR20100039366 A KR 20100039366A KR 20110119933 A KR20110119933 A KR 20110119933A
Authority
KR
South Korea
Prior art keywords
central axis
image
stereo camera
length
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020100039366A
Other languages
Korean (ko)
Other versions
KR101139389B1 (en
Inventor
강인배
Original Assignee
주식회사 아이티엑스시큐리티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이티엑스시큐리티 filed Critical 주식회사 아이티엑스시큐리티
Priority to KR1020100039366A priority Critical patent/KR101139389B1/en
Priority to PCT/KR2010/002673 priority patent/WO2011136407A1/en
Publication of KR20110119933A publication Critical patent/KR20110119933A/en
Application granted granted Critical
Publication of KR101139389B1 publication Critical patent/KR101139389B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30172Centreline of tubular or elongated structure

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

스테레오 카메라를 이용한 영상인식장치 및 방법이 개시된다. 본 발명의 영상처리장치는 영상으로부터 움직이는 객체를 추출하고, 해당 객체의 중심축과 객체를 대표하는 길이를 구하여 기 설정된 값이나 패턴 마스크와 비교하는 방법으로 해당 객체를 인식한다. 여기서, 객체를 대표하는 실제 길이는 두 개의 카메라를 이용하여 획득한 3차원 심도 맵(Depth Map) 데이터를 이용하여 구할 수 있다. Disclosed are an image recognition apparatus and method using a stereo camera. The image processing apparatus of the present invention recognizes the object by extracting a moving object from the image, obtaining a central axis of the object and a length representing the object, and comparing the object with a preset value or a pattern mask. Here, the actual length representing the object may be obtained using 3D depth map data acquired using two cameras.

Description

스테레오 카메라를 이용한 영상인식장치 및 방법{Video Analysing Apparatus and Method Using Stereo Cameras}Video Analysing Apparatus and Method Using Stereo Cameras

본 발명은, 2개의 카메라를 이용하여 획득한 3차원 심도 맵(Depth Map) 데이터를 기반으로 사물을 인식할 수 있는, 스테레오 카메라를 이용한 영상인식장치 및 방법에 관한 것이다.
The present invention relates to an image recognition apparatus and method using a stereo camera that can recognize an object based on three-dimensional depth map data acquired using two cameras.

영상으로부터 3차원 공간상의 심도 정보(Depth Map), 다시 말해 3차원 공간상의 피사체와의 거리를 얻기 위한 방법에는, 스테레오 카메라를 이용하는 방법, 레이저 스캔을 이용하는 방법, TOF(Time of Flight)를 이용하는 방법 등이 알려지고 있다. In order to obtain a depth map on a three-dimensional space from an image, that is, a distance from a subject in a three-dimensional space, a method of using a stereo camera, a method of using a laser scan, or a method of using a time of flight (TOF) The back is known.

이 중에서, 스테레오 카메라를 이용하는 스테레오 정합(Stereo Matching)은, 사람이 두 눈을 이용하여 입체를 인지하는 과정을 하드웨어적으로 구현한 것으로서, 동일한 피사체를 두 개의 카메라로 촬영하여 획득한 한 쌍의 이미지에 대한 해석과정을 통해 공간에서의 깊이(또는 거리)에 대한 정보를 추출하는 방법이다. 이를 위해, 두 개의 카메라로부터 획득한 영상의 동일한 에피폴라 선(Epipolar Line)상의 양안차를 계산한다. 양안차는 거리 정보를 포함하며, 이러한 양안차로부터 계산된 기하학적 특성이 깊이(depth)가 된다. 입력 영상으로부터 실시간으로 양안차값을 계산하면 관측 공간의 삼차원 거리 정보 등을 측정할 수 있다.Among these, stereo matching using a stereo camera is a hardware implementation of a process of recognizing a stereoscopic object using two eyes, and a pair of images obtained by photographing the same subject with two cameras. It is a method of extracting information about depth (or distance) in space through the interpretation process of. To this end, binocular differences on the same Epipolar Line of images obtained from two cameras are calculated. The binocular difference includes distance information, and the geometrical characteristic calculated from the binocular difference becomes the depth. When the binocular difference value is calculated in real time from the input image, three-dimensional distance information of the observation space can be measured.

스테레오 정합 알고리즘으로 알려진 것에는, 예컨대, 대한민국 등록특허 제0517876호의 "복수 영상 라인을 이용한 영상 정합 방법"이나, 대한민국 등록특허 제0601958호의 "3차원 객체 인식을 위한 양안차 추정방법"이 있다.
Known as a stereo matching algorithm, for example, "image matching method using a plurality of image lines" of the Republic of Korea Patent No. 0517876 or "binocular difference estimation method for three-dimensional object recognition" of the Republic of Korea Patent No. 0601958.

본 발명의 목적은 2개의 카메라를 이용하여 획득한 3D 심도 맵 데이터를 기반으로 피사체를 인식할 수 있는, 스테레오 카메라를 이용한 영상인식장치 및 방법을 제공함에 있다.
An object of the present invention is to provide an image recognition apparatus and method using a stereo camera, which can recognize a subject based on 3D depth map data acquired using two cameras.

상기 목적을 달성하기 위한 본 발명의 스테레오 카메라를 이용한 영상인식방법은, 동일한 영역을 촬영하는 두 개의 카메라를 이용하여, 한 쌍의 디지털 영상을 생성하는 단계, 상기 변환된 한 쌍의 디지털 영상을 이용하여 3차원 심도 맵 데이터를 계산하는 단계, 상기 디지털 영상 중 하나를 기준 배경영상과 비교하여 움직이는 객체의 영역을 추출하는 단계, 상기 추출된 객체의 중심축을 추출하는 단계, 상기 심도 맵 데이터로부터 확인한 상기 객체까지의 거리정보를 기초로 상기 객체를 대표하는 실제 길이인 대표 길이를 계산하는 단계, 및 상기 계산된 객체의 대표 길이가 제1 범위 내에 속하는 경우, 제1 범위에 매핑된 복수 개의 패턴 마스크와 상기 추출된 객체의 중심축을 비교하는 방법으로 상기 객체를 인식하는 단계를 포함한다. In order to achieve the above object, an image recognition method using a stereo camera of the present invention includes generating a pair of digital images using two cameras photographing the same region, and using the converted pair of digital images. Calculating 3D depth map data, extracting a region of a moving object by comparing one of the digital images with a reference background image, extracting a central axis of the extracted object, and identifying the depth map data Calculating a representative length which is an actual length representing the object based on distance information to the object, and when the representative length of the calculated object is within a first range, a plurality of pattern masks mapped to the first range; Recognizing the object by a method of comparing the central axis of the extracted object.

여기서, 상기 객체의 대표 길이는, 상기 중심축의 실제 길이, 상기 객체의 실제 폭 및 상기 객체의 실제 높이 중 어느 하나인 것이 바람직하다. Here, the representative length of the object is preferably any one of the actual length of the central axis, the actual width of the object and the actual height of the object.

실시 예에 따라, 본 발명의 영상처리방법은, 상기 계산된 객체의 대표 길이가 상기 제1 범위와 다른 제2 범위 내에 속하는 경우, 제2 범위에 매핑된 복수 개의 패턴 마스크와 상기 추출된 객체의 중심축을 비교하는 방법으로 상기 객체를 인식하는 단계를 더 포함할 수 있다.According to an embodiment, in the image processing method of the present invention, when the representative length of the calculated object is within a second range different from the first range, the plurality of pattern masks mapped to the second range and the extracted object The method may further include recognizing the object by a method of comparing the central axes.

본 발명의 다른 실시 예에 따른 스테레오 카메라를 이용한 영상인식장치는, 스테레오카메라부, 거리정보계산부, 객체추출부, 중심축추출부 및 객체인식부를 포함한다. Image recognition apparatus using a stereo camera according to another embodiment of the present invention, a stereo camera unit, a distance information calculation unit, an object extraction unit, a central axis extraction unit and an object recognition unit.

스테레오카메라부는 동일한 영역을 촬영하는 두 개의 카메라를 구비하여, 한 쌍의 디지털 영상을 생성하고, 거리정보계산부는 상기 스테레오카메라부에서 생성한 한 쌍의 디지털 영상을 이용하여 3차원 심도 맵 데이터를 계산한다.The stereo camera unit includes two cameras for capturing the same area, and generates a pair of digital images, and the distance information calculator calculates 3D depth map data using the pair of digital images generated by the stereo camera unit. do.

객체추출부는 상기 스테레오카메라부에서 생성한 디지털 영상 중 하나를 기준 배경영상과 비교하여 움직이는 객체의 영역을 추출하고, 중심축추출부 상기 추출된 객체의 중심축을 추출한다.The object extractor extracts an area of the moving object by comparing one of the digital images generated by the stereo camera unit with a reference background image, and extracts a central axis of the extracted object.

객체인식부는 상기 심도 맵 데이터로부터 확인한 상기 객체까지의 거리정보를 기초로 상기 객체를 대표하는 실제 길이인 대표 길이를 계산하고, 상기 계산된 객체의 대표 길이가 제1 범위 내에 속하는 경우 제1 범위에 매핑된 복수 개의 패턴 마스크와 상기 추출된 객체의 중심축을 비교하는 방법으로 상기 객체를 인식한다.
The object recognition unit calculates a representative length which is an actual length representing the object based on the distance information to the object identified from the depth map data, and if the calculated representative length of the object falls within the first range, The object is recognized by comparing a plurality of mapped pattern masks with a central axis of the extracted object.

본 발명의 영상인식장치는 촬영 영역에서 움직이는 객체를 보다 간단한 방법으로 인식할 수 있다. 이러한 방법은, 두 개의 카메라를 이용하여 생성한 영상을 처리하는 대신에, 2차원 이미지 처리에 비해 그 인식 알고리즘이 상대적으로 간단하여 인식 속도와 효율이 개선되며, 무엇보다 인식률이 뛰어난 특징이 있다.
The image recognition device of the present invention can recognize a moving object in the photographing area in a simpler method. In this method, the recognition algorithm is relatively simple compared to the two-dimensional image processing, instead of processing the image generated using the two cameras, the recognition speed and efficiency is improved, and above all, the recognition rate is excellent.

도 1은 본 발명의 일 실시 예에 따른 3차원 영상인식장치의 블록도,
도 2는 본 발명의 3차원 영상인식과정의 설명에 제공되는 흐름도,
도 3은 영상으로부터 객체영역을 추출하는 단계에서의 영상처리 결과를 도시한 도면,
도 4는 객체의 중심축의 추출방법의 설명에 제공되는 도면, 그리고
도 5는 객체의 대표길이를 계산하는 방법의 설명에 제공되는 도면이다.
1 is a block diagram of a 3D image recognition device according to an embodiment of the present invention;
2 is a flowchart provided to explain a three-dimensional image recognition process of the present invention;
3 is a view showing an image processing result in the step of extracting an object region from an image;
4 is a view provided for explaining a method of extracting a central axis of an object; and
5 is a diagram provided to explain a method of calculating a representative length of an object.

이하 도면을 참조하여 본 발명을 더욱 상세히 설명한다.BEST MODE FOR CARRYING OUT THE INVENTION The present invention will be described in more detail with reference to the drawings.

도 1을 참조하면, 본 발명의 영상인식장치(100)는 스테레오카메라부(110) 및 영상처리부(130)를 포함하여 3차원 공간상의 피사체를 인식하게 된다. Referring to FIG. 1, the image recognition device 100 of the present invention includes a stereo camera unit 110 and an image processor 130 to recognize a subject in a three-dimensional space.

스테레오카메라부(110)는 제1 카메라(111), 제2 카메라(113) 및 영상수신부(115)를 포함한다. The stereo camera unit 110 includes a first camera 111, a second camera 113, and an image receiver 115.

제1 카메라(111) 및 제2 카메라(113)는 동일한 영역을 촬영하도록 상호 이격되어 설치된 한 쌍의 카메라들로서, 소위 스테레오 카메라라고 한다. 제1 카메라(111) 및 제2 카메라(113)는 영역을 촬영한 아날로그 영상신호를 영상수신부(115)로 출력한다. The first camera 111 and the second camera 113 are a pair of cameras spaced apart from each other to photograph the same area, and are called a stereo camera. The first camera 111 and the second camera 113 output an analog image signal photographing an area to the image receiver 115.

영상수신부(115)는 제1 카메라(111) 및 제2 카메라(113)에서 입력되는 연속적인 프레임의 영상신호(또는 이미지)를 디지털 영상으로 변환하고, 그 프레임 동기를 맞추어 영상처리부(130)에게 제공한다. The image receiver 115 converts a video signal (or image) of a continuous frame input from the first camera 111 and the second camera 113 into a digital image and synchronizes the frame to the image processor 130 in synchronization with the frame. to provide.

실시 예에 따라, 스테레오카메라부(110)의 제1 카메라(111)와 제2 카메라(113)는 아날로그 영상이 아닌 디지털 영상신호를 생성하는 카메라일 수 있으며, 이 경우 영상수신부(115)는 다른 변환처리없이 영상처리부(130)와의 인터페이스를 제공하며 한 쌍의 영상의 프레임 동기를 맞추는 역할을 한다.According to an exemplary embodiment, the first camera 111 and the second camera 113 of the stereo camera unit 110 may be a camera that generates a digital video signal instead of an analog image. In this case, the image receiver 115 may be different. It provides an interface with the image processor 130 without conversion processing and serves to match frame synchronization of a pair of images.

또한, 스테레오카메라부(110)는 IP(Internet Protocol) 망을 통해 영상처리부(130)에 연결되기 위한 유선 또는 무선 인터페이스를 더 포함할 수 있다. In addition, the stereo camera unit 110 may further include a wired or wireless interface for connecting to the image processing unit 130 through an IP (Internet Protocol) network.

영상처리부(130)는 스테레오카메라부(110)로부터 출력되는 한 쌍의 디지털 영상 프레임으로부터 촬영영역 상에서 움직이는 객체의 영역을 추출하여 해당 객체가 관심 사물인지를 판단하며, 스테레오카메라부(110)로부터 연속적으로 입력되는 영상(동영상)의 모든 프레임에 대해 실시간으로 이상의 판단과정을 수행할 수 있다.The image processor 130 extracts an area of an object moving on the shooting area from the pair of digital image frames output from the stereo camera unit 110 to determine whether the object is an object of interest, and continuously from the stereo camera unit 110. The above determination process may be performed in real time on all frames of the image (video) that is input to the image.

이상의 처리를 위해, 영상처리부(130)는 거리정보계산부(131), 객체추출부(133) 및 객체인식부(137)를 포함한다. 이하에서는, 도 2를 참조하여 거리정보계산부(131), 객체추출부(133), 중심축추출부(135) 및 객체인식부(137)의 동작을 설명한다. For the above process, the image processor 130 includes a distance information calculator 131, an object extractor 133, and an object recognizer 137. Hereinafter, operations of the distance information calculator 131, the object extractor 133, the central axis extractor 135, and the object recognizer 137 will be described with reference to FIG. 2.

먼저, 제1 카메라(111) 및 제2 카메라(113)가 아날로그 영상신호를 생성하면, 영상수신부(115)가 해당 아날로그 영상신호를 디지털 영상신호로 변환한 다음 프레임 동기를 맞추어 영상처리부(130)에게 제공한다(S201 단계).
First, when the first camera 111 and the second camera 113 generates an analog video signal, the image receiver 115 converts the analog video signal into a digital video signal and then synchronizes the frame to the image processor 130. Provided to (step S201).

<심도 맵 데이터 계산: S203 단계>Depth Map Data Calculation: Step S203

거리정보계산부(131)는 영상수신부(115)로부터 실시간으로 입력받는 한 쌍의 디지털 영상으로부터 각 픽셀의 거리정보를 포함하는 3차원 심도 맵(3D Depth Map) 데이터를 계산한다. The distance information calculator 131 calculates 3D depth map data including distance information of each pixel from a pair of digital images received in real time from the image receiver 115.

여기서, 각 픽셀의 거리 정보는 종래기술에서 설명한 스테레오 정합방법에 의해 구해지는 양안차 정보로서, 대한민국 등록특허 제0517876호의 "복수 영상 라인을 이용한 영상 정합 방법"이나 대한민국 등록특허 제0601958호의 "3차원 객체 인식을 위한 양안차 추정방법에 제시된 그래프 컷(Graph Cut) 알고리즘 등을 이용하여 계산할 수 있다. 따라서, 거리정보계산부(131)에서 계산한 심도 맵 데이터에는 각 픽셀에 대한 거리정보가 포함된다.
Here, the distance information of each pixel is binocular difference information obtained by the stereo matching method described in the prior art, and the "three-dimensional image matching method using a plurality of image lines" of the Republic of Korea Patent No. 0517876 or the Republic of Korea Patent No. 0601958 The depth map data calculated by the distance information calculator 131 may include distance information about each pixel. .

<움직이는 객체의 영역 추출: S205 단계><Extract region of moving object: step S205>

객체추출부(133)는 영상수신부(115)를 통해 입력되는 한 쌍의 디지털 이미지 중 하나의 이미지로부터 움직이는 객체의 영역을 추출한다. 여기서, 움직이는 객체라 함은, 카메라의 촬영 영역 내에 존재한 객체로서 그 위치나 동작이 변경된 객체 또는 촬영 영역 내로 새롭게 진입한 객체를 말한다. The object extractor 133 extracts a region of the moving object from one image of the pair of digital images input through the image receiver 115. Here, the moving object refers to an object existing in the photographing area of the camera and an object whose position or motion is changed or newly entered into the photographing area.

이러한 움직이는 객체의 영역을 추출하는 방법은 다양하게 이루어질 수 있다. 예컨대, 본 발명의 객체추출부(133)는 입력된 영상 프레임에서 기 보유한 배경영상을 빼는 방법(Background Subtraction)으로 움직이는 객체의 영역을 추출한다. 여기서, 뺄셈 연산은 대응되는 두 개 영상 프레임의 각 픽셀의 화소 값을 빼는 방법으로 이루어진다. 또한, 기준 배경영상은 움직이는 객체가 없다고 설정한 경우의 영상으로서, 객체추출부(133)는 저장매체(미도시)에 기준 배경영상을 저장해 두었다가 사용할 수 있다.The method of extracting the area of the moving object may be variously performed. For example, the object extracting unit 133 of the present invention extracts a region of a moving object by a method of subtracting a background image previously held from an input image frame. Here, the subtraction operation is performed by subtracting pixel values of each pixel of two corresponding image frames. In addition, the reference background image is an image in which no moving object is set, and the object extractor 133 may store and use the reference background image in a storage medium (not shown).

나아가, 객체 영역이 아닌 배경부분에서도 카메라 잡음이나 촬영영역에 대한 조명의 변화에 의한 차 영상(Difference Image)이 발생할 수 있으므로, 객체추출부(133)는 뺄셈 연산의 결과영상에 대하여 가우시안 분포(Gaussian Distribution)처리 등을 적용하는 배경 모델링(Background Modeling)을 통해 잡음이나 조명의 변화 등에 대응할 수 있다. Furthermore, since a difference image may be generated due to camera noise or a change in illumination of the photographing area, the object extractor 133 may perform a Gaussian distribution on the result of the subtraction operation. Background Modeling, which applies the Distribution process, can cope with noise or light changes.

도 3을 참조하면, (a)는 영상수신부(115)로부터 입력된 영상, (b)는 기본 배경영상, 그리고 (c)는 뺄셈연산의 결과영상이다. 도 3의 (c)를 참조하면, 영상수신부(115)로부터 입력된 영상에서 움직이는 객체의 영역이 추출되었음을 알 수 있다.
Referring to FIG. 3, (a) is an image input from the image receiver 115, (b) is a basic background image, and (c) is a result image of a subtraction operation. Referring to FIG. 3C, it can be seen that a region of a moving object is extracted from an image input from the image receiver 115.

<움직이는 객체의 외곽선 검출: S207 단계><Detect Edge of Moving Object: Step S207>

객체추출부(133)는 S207 단계의 뺄셈 연산의 결과영상에서 외곽선 검출을 수행하여 움직이는 객체의 외곽선을 검출한다. 외곽선 검출은 객체의 경계선 넓이와 형태에 따라 여러 종류의 형태의 에지를 사용하여 처리된다. The object extractor 133 detects an outline of a moving object by performing outline detection on the resultant image of the subtraction operation of step S207. Edge detection is handled using different types of edges, depending on the borderline width and shape of the object.

객체추출부(133)는 외곽선 검출을 위해, 뺄셈 영상에 모폴로지(Morphology) 연산을 적용하여 잡음을 제거하고, 외각선이나 골격선을 간단하게 할 수 있다. 모폴로지 연산에는 기본적으로 잡음을 제거하는 침식(Erosion) 연산과 객체 내의 작은 구멍을 메우는 팽창(Dilation) 연산이 사용될 수 있다.
The object extractor 133 may remove a noise by applying a morphology operation to a subtraction image and simplify an outline or a skeleton line to detect an outline. The morphology operation can basically use erosion operation to remove noise and dilation operation to fill small holes in an object.

<움직이는 객체의 중심축 추출: S209 단계><Extract central axis of moving object: step S209>

중심축추출부(135)는 객체추출부(133)가 추출한 객체에 대해 골격화 또는 세선화 알고리즘을 적용하여 1 픽셀의 폭을 가지는 객체의 중심축(Medial Axis}을 추출한다. 골격화 알고리즘에는 외곽선을 이용하는 중심축변환(MAT: Medial Axis Transform)알고리즘 또는 Zhang Suen 알고리즘과 같이 기 알려진 다양한 방식을 적용할 수 있다. The central axis extractor 135 extracts a media axis of an object having a width of 1 pixel by applying a skeletonization or thinning algorithm to the object extracted by the object extractor 133. Various known methods can be applied, such as the Medial Axis Transform (MAT) algorithm using the outline or Zhang Suen algorithm.

예컨대, 중심축 변환에 의할 경우, 객체의 중심축(a)은 도 4에서처럼 객체(R) 내의 각 점(또는 픽셀)들 중에서 복수 개의 경계점을 가지는 점들의 집합이다. 여기서, 경계점은 외곽선(B) 상의 점들 중에서 객체 내의 해당 점과의 거리가 가장 가까운 점을 말하는 것으로, 외곽선상의 점 b1, b2는 객체(R) 내의 점 P1의 경계점이 된다. 따라서, 중심축 알고리즘은 경계점이 복수 개인 점들을 추출하는 과정이 되며 다음의 수학식 1과 같이 표현될 수 있다.For example, when the central axis is transformed, the central axis a of the object is a set of points having a plurality of boundary points among the respective points (or pixels) in the object R as shown in FIG. 4. Here, the boundary point refers to a point closest to the point in the object among the points on the outline B, and the points b1 and b2 on the outline become the boundary point of the point P1 in the object R. Therefore, the central axis algorithm is a process of extracting points having a plurality of boundary points and may be expressed as in Equation 1 below.

Figure pat00001
Figure pat00001

여기서, Pma는 x의 집합으로 표시되는 중심축이고, x는 객체(R)내에 존재하는 점, bmin(x)는 점 x의 경계점의 수이다. 따라서, 중심축은 경계점의 수가 1보다 큰 점 x들의 집합이 된다. 여기서, 경계점을 계산하기 위해, 내부의 점 x에서 외곽선상의 임의의 픽셀까지의 거리를 구하는 방법(예컨대, 4-Distance, 8-Distance, Euclidean Distance 등)에 따라, 골격의 구조가 다소 바뀔 수 있다. Where P ma is a central axis represented by a set of x, x is a point present in the object R, and b min (x) is the number of boundary points of the point x. Thus, the central axis is a set of points x whose number of boundary points is greater than one. Here, in order to calculate the boundary point, the structure of the skeleton may change somewhat according to a method of obtaining a distance from an internal point x to an arbitrary pixel on the outline (for example, 4-Distance, 8-Distance, Euclidean Distance, etc.). .

그 밖에도, 객체가 비교적 간단한 형태의 것인 경우, 객체에 대한 가우시안 값의 피크값을 추출하는 방법으로 중심선을 추출할 수 있으며, 이러한 알고리즘에 의할 경우 S207 단계의 외곽선 검출단계는 생략될 수도 있다.
In addition, when the object is of a relatively simple form, the center line may be extracted by extracting a peak value of the Gaussian value for the object, and in this case, the edge detection step of step S207 may be omitted. .

<움직이는 객체의 대표 길이 계산: S211 단계><Calculation of representative length of moving object: step S211>

객체인식부(137)는 S205 단계에서 구한 심도 맵 데이터를 이용하여, S207 또는 S209 단계에서 추출한 객체의 대표 길이를 구한다. The object recognition unit 137 obtains the representative length of the object extracted in the step S207 or S209 using the depth map data obtained in the step S205.

객체의 대표 길이는 객체를 대표하는 것으로 설정된 객체의 실제 길이로서 영상으로부터 계산된 값이며, 중심축의 실제 길이, 객체의 실제 폭 또는 객체의 실제높이 등이 해당할 수 있다. 다만, 객체의 대표 길이는 카메라의 위치, 촬영각도 및 촬영영역의 특성 등에 따라 영향을 받게 된다. The representative length of the object is a value calculated from an image as an actual length of an object set to represent the object, and may correspond to an actual length of a central axis, an actual width of an object, or an actual height of an object. However, the representative length of the object is affected by the position of the camera, the shooting angle, and the characteristics of the shooting area.

나아가, 객체의 실제길이의 계산은, S205 단계에서 추출된 객체가 위치한 거리(do)에서의 픽셀 당 실제 길이(이하, 픽셀의 '단위 길이'라 함)를 구한 다음, 해당 객체를 대표하는 픽셀의 수를 곱하는 방법으로 이루어진다. 여기서, 객체를 대표하는 픽셀의 수는 앞서 중심축을 형성하는 픽셀의 수, 해당 객체의 폭이나 높이가 되는 픽셀의 수 등이 해당될 수 있다. Further, the calculation of the actual length of the object, after calculating the actual length per pixel (hereinafter referred to as the 'unit length' of the pixel) at the distance (do) where the object extracted in step S205 is located, the pixel representing the object This is done by multiplying the number of. Here, the number of pixels representing the object may correspond to the number of pixels forming the central axis, the number of pixels to be the width or height of the object.

객체를 대표하는 픽셀의 수로서의, 객체의 폭이나 높이는 객체 영역의 x축좌표의 범위 또는 y축좌표의 범위를 통해 구해질 수 있으며, 중심축의 길이는 예컨대 중심축에 포함된 픽셀의 수를 모두 더함으로써 구할 수 있다.The width or height of the object, as the number of pixels representing the object, can be obtained through the range of the x-axis coordinate or the y-axis coordinate of the object area, and the length of the central axis is, for example, the number of pixels included in the central axis. It can be obtained by adding.

특정 픽셀의 단위 길이는 픽셀마다(정확하게는 픽셀의 심도에 따라) 달라지며, 도 5를 참조하여 다음과 같이 구할 수 있다. 여기서, 설명의 편리를 위해, 영상 프레임의 크기를 720×640 픽셀이라 가정한다.The unit length of a particular pixel varies from pixel to pixel (exactly depending on the depth of the pixel), and can be obtained as follows with reference to FIG. 5. Here, for convenience of explanation, it is assumed that the size of the image frame is 720x640 pixels.

도 5에서, 기존 배경영상을 기준으로 최대 심도(D)에서의 전체 프레임의 세로축(또는 가로축)에 대응하는 실제길이 Lmax와, 추출된 객체의 위치 do에서의 전체 프레임의 세로축(또는 가로축)에 대응하는 실제길이 L(do)가 표시되어 있다. 먼저 해당 객체가 위치하는 심도 do에서의 프레임 전체의 세로축(또는 가로축)에 대응되는 실제길이 L(do)는 다음의 수학식 2와 같이 구할 수 있다. 5, the actual length Lmax corresponding to the vertical axis (or horizontal axis) of the entire frame at the maximum depth D based on the existing background image, and the vertical axis (or horizontal axis) of the entire frame at the position do of the extracted object. The corresponding actual length L (do) is indicated. First, the actual length L (do) corresponding to the vertical axis (or the horizontal axis) of the entire frame at the depth do where the object is located may be obtained as in Equation 2 below.

Figure pat00002
Figure pat00002

여기서, L(do)는 심도 do에서의 프레임 전체의 세로축(또는 가로축)에 대응되는 실제 길이이고, Lmax는 기존 배경영상을 기준으로 최대 거리(L)에서의 전체 프레임의 세로축(또는 가로축)에 대응되는 실제 길이이며, do는 객체의 심도, D는 최대 심도이다. Here, L (do) is the actual length corresponding to the vertical axis (or the horizontal axis) of the entire frame at the depth do, and Lmax is the vertical axis (or the horizontal axis) of the entire frame at the maximum distance L based on the existing background image. The corresponding actual length, do is the depth of the object, and D is the maximum depth.

다음으로, 객체가 위치하는 거리(do)에서의 전체 프레임의 세로축(또는 가로축)에 대응되는 실제 길이 L(do)을 프레임 전체의 세로축(또는 가로축)의 픽셀 수(Px, Py, 예에서 Px=720, Py=640)로 나눔으로써, 객체 영역에 포함된 픽셀의 단위 길이 Lp(do)을 다음의 수학식 3과 같이 구할 수 있다. Next, the actual length L (do) corresponding to the vertical axis (or horizontal axis) of the entire frame at the distance do is located, is the number of pixels Px, Py in the vertical axis (or horizontal axis) of the entire frame. = 720, Py = 640), the unit length L p (do) of the pixels included in the object region can be obtained as in Equation 3 below.

Figure pat00003
Figure pat00003

여기서, Lp(do)는 심도 do에 위치한 객체 영역에 포함된 픽셀의 단위 길이, Py는 프레임 전체의 세로축의 픽셀 수이다. 수학식 2에 의하면, Lp(do)은 3차원 심도 맵 데이터의 거리 정보로부터 확인한 해당 객체까지의 심도(do)와 맵 데이터 상의 최대 심도에 따라 달라짐을 알 수 있다.Here, L p (do) is the unit length of the pixels included in the object region located at the depth do, and Py is the number of pixels along the vertical axis of the entire frame. According to Equation 2, it can be seen that L p (do) depends on the depth to the corresponding object confirmed from the distance information of the 3D depth map data and the maximum depth on the map data.

픽셀의 단위 길이가 구해지면, 객체인식부(137)는 객체의 대표 길이를 구한다. 객체의 대표 길이는 픽셀의 단위 길이 Lp(do)에 해당 객체를 대표하는 픽셀의 수 po를 곱함으로써 다음의 수학식 4와 같이 구할 수 있다. When the unit length of the pixel is obtained, the object recognition unit 137 obtains the representative length of the object. The representative length of the object may be obtained by the following equation (4) by multiplying the unit length L p (do) of the pixel by the number po of pixels representing the object.

Figure pat00004
Figure pat00004

여기서, po는 해당 객체를 대표하는 픽셀의 수이다.
Here, po is the number of pixels representing the object.

<움직이는 객체의 골격패턴 및 크기로 객체 인식: S213 ~ S217 단계><Object Recognition by Skeleton Pattern and Size of Moving Object: Steps S213 to S217>

픽셀의 단위 길이가 구해지면, 객체인식부(137)는 객체의 대표길이와 객체의 골격을 이용하여 객체를 인식한다. When the unit length of the pixel is obtained, the object recognition unit 137 recognizes the object using the representative length of the object and the skeleton of the object.

먼저, 객체인식부(137)는 객체의 대표길이가 제1 범위 내에 속하는지를 1차 판단한다(S213). First, the object recognition unit 137 primarily determines whether the representative length of the object falls within the first range (S213).

여기서, 제1 범위는 검색하고자 하는 제1 사물(또는 1군의 사물들)의 대표 길이의 범위가 된다. 앞서 설명한 바와 같이, 객체를 대표 길이는 카메라의 위치, 촬영각도 및 촬영영역의 특성 등에 따라 영향을 받게 된다. 예컨대, 교차로에서 하방 45°의 각도로 도로를 촬영하는 카메라의 경우와 비교적 낮은 높이에서 밀폐 공간을 촬영하는 경우에 동일한 사물에 대한 대표 길이가 달라질 수 밖에 없다. 또한, 카메라의 위치에 따라, 같은 영상내에서 존재하는 각종 사물의 대표 길이도 그 형태적 특성에 따라 달라질 수 있다. 따라서 대표 길이는 이러한 점들을 고려하여 설정되어야 한다. Here, the first range is a range of a representative length of the first thing (or a group of things) to be searched. As described above, the representative length of the object is affected by the position of the camera, the shooting angle, and the characteristics of the shooting area. For example, in the case of a camera photographing a road at an angle of 45 ° downward from an intersection and a photograph of a closed space at a relatively low height, the representative length of the same object may be different. Also, depending on the position of the camera, the representative lengths of various objects existing in the same image may also vary according to their morphological characteristics. Therefore, the representative length should be set in consideration of these points.

만약, 객체의 대표길이가 제1 범위 내에 속하지 않으면, 객체인식부(137)는 객체의 대표길이가 제2 사물의 대표 길이에 해당하는 제2 범위에 속하는지를 다시 판단할 수 있다(S215). If the representative length of the object does not belong to the first range, the object recognition unit 137 may again determine whether the representative length of the object belongs to the second range corresponding to the representative length of the second object (S215).

객체인식부(137)는 객체의 대표길이가 제1 범위 내에 속하는 경우, 해당 객체의 중심축의 패턴이 제1군의 패턴 마스크들 중 하나와 일치하는지 여부를 2차 판단하여, 최종적으로 객체를 인식한다. 다시 말해, 제1 범위가 제1 사물 또는 제1군의 사물들에 대응되는 것처럼, 제1군의 패턴 마스크 역시 제1 사물 또는 제1군의 사물들에 대응될 수 있다. 여기서, 패턴이 일치한다 함은 용인 가능한 범위내에서의 일치를 의미할 수 있다. When the representative length of the object is within the first range, the object recognition unit 137 secondly determines whether the pattern of the central axis of the object matches one of the pattern masks of the first group, and finally recognizes the object. do. In other words, as the first range corresponds to the first object or the objects of the first group, the pattern mask of the first group may also correspond to the first object or the objects of the first group. Here, the coincidence of the pattern may mean a coincidence within an acceptable range.

이상의 과정을 통해 본 발명의 영상인식장치는 스테레오 카메라를 이용한 3차원 심도 맵 데이터를 구하고, 영상에 포착된 객체를 인식하게 된다.
Through the above process, the image recognition device of the present invention obtains 3D depth map data using a stereo camera and recognizes an object captured in the image.

여기에서 시계열적으로 선행하는 것처럼 설명되는 것과 달리, S203 단계의 심도 맵 데이터의 계산은 도 2에 도시된 것처럼 S205 및 S207 단계의 움직이는 객체의 추출과정과 병렬적으로 수행될 수 있을 뿐만 아니라, S205 및 S207 단계 후에 수행될 수도 있다.
Unlike what is described herein as time series preceding, the calculation of the depth map data of step S203 can be performed in parallel with the extraction process of the moving object of steps S205 and S207 as shown in FIG. And after step S207.

이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be construed as limiting the scope of the invention as defined by the appended claims. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention.

Claims (5)

동일한 영역을 촬영하는 두 개의 카메라를 이용하여, 한 쌍의 디지털 영상을 생성하는 단계;
상기 변환된 한 쌍의 디지털 영상을 이용하여 3차원 심도 맵 데이터를 계산하는 단계;
상기 디지털 영상 중 하나를 기준 배경영상과 비교하여 움직이는 객체의 영역을 추출하는 단계;
상기 추출된 객체의 중심축을 추출하는 단계;
상기 심도 맵 데이터로부터 확인한 상기 객체까지의 거리정보를 기초로 상기 객체를 대표하는 실제 길이인 대표 길이를 계산하는 단계: 및
상기 계산된 객체의 대표 길이가 제1 범위 내에 속하는 경우, 제1 범위에 매핑된 복수 개의 패턴 마스크와 상기 추출된 객체의 중심축을 비교하는 방법으로 상기 객체를 인식하는 단계를 포함하는 것을 특징으로 하는 스테레오 카메라를 이용한 영상인식방법.
Generating a pair of digital images using two cameras photographing the same area;
Calculating 3D depth map data using the converted pair of digital images;
Extracting an area of a moving object by comparing one of the digital images with a reference background image;
Extracting a central axis of the extracted object;
Calculating a representative length which is an actual length representing the object based on distance information to the object identified from the depth map data; and
If the representative length of the calculated object is within a first range, recognizing the object by comparing a plurality of pattern masks mapped to a first range with a central axis of the extracted object; Image recognition method using stereo camera.
제1항에 있어서,
상기 객체의 대표 길이는,
상기 중심축의 실제 길이, 상기 객체의 실제 폭 및 상기 객체의 실제 높이 중 어느 하나인 것을 특징으로 하는 스테레오 카메라를 이용한 영상인식방법.
The method of claim 1,
The representative length of the object is
The image recognition method using a stereo camera, characterized in that any one of the actual length of the central axis, the actual width of the object and the actual height of the object.
제1항에 있어서,
상기 계산된 객체의 대표 길이가 상기 제1 범위와 다른 제2 범위 내에 속하는 경우, 제2 범위에 매핑된 복수 개의 패턴 마스크와 상기 추출된 객체의 중심축을 비교하는 방법으로 상기 객체를 인식하는 단계를 포함하는 것을 특징으로 하는 스테레오 카메라를 이용한 영상인식방법.
The method of claim 1,
Recognizing the object by a method of comparing the central axis of the extracted object with a plurality of pattern masks mapped to the second range when the representative length of the calculated object falls within a second range different from the first range. Image recognition method using a stereo camera comprising a.
동일한 영역을 촬영하는 두 개의 카메라를 구비하여, 한 쌍의 디지털 영상을 생성하는 스테레오카메라부;
상기 스테레오카메라부에서 생성한 한 쌍의 디지털 영상을 이용하여 3차원 심도 맵 데이터를 계산하는 거리정보계산부;
상기 스테레오카메라부에서 생성한 디지털 영상 중 하나를 기준 배경영상과 비교하여 움직이는 객체의 영역을 추출하는 객체추출부;
상기 추출된 객체의 중심축을 추출하는 중심축추출부; 및
상기 심도 맵 데이터로부터 확인한 상기 객체까지의 거리정보를 기초로 상기 객체를 대표하는 실제 길이인 대표 길이를 계산하고, 상기 계산된 객체의 대표 길이가 제1 범위 내에 속하는 경우 제1 범위에 매핑된 복수 개의 패턴 마스크와 상기 추출된 객체의 중심축을 비교하는 방법으로 상기 객체를 인식하는 객체인식부를 포함하는 것을 특징으로 하는 스테레오 카메라를 이용한 영상인식장치.
A stereo camera unit having two cameras for capturing the same area and generating a pair of digital images;
A distance information calculator for calculating 3D depth map data using a pair of digital images generated by the stereo camera unit;
An object extracting unit extracting an area of a moving object by comparing one of the digital images generated by the stereo camera unit with a reference background image;
A central axis extracting unit extracting a central axis of the extracted object; And
A representative length that is an actual length representing the object is calculated based on the distance information to the object identified from the depth map data, and a plurality of mapped to the first range when the representative length of the calculated object falls within a first range And an object recognizing unit for recognizing the object by comparing two pattern masks with a central axis of the extracted object.
제4항에 있어서,
상기 객체의 대표 길이는,
상기 중심축의 실제 길이, 상기 객체의 실제 폭 및 상기 객체의 실제 높이 중 어느 하나인 것을 특징으로 하는 스테레오 카메라를 이용한 영상인식장치.
The method of claim 4, wherein
The representative length of the object is
And an actual length of the central axis, an actual width of the object, and an actual height of the object.
KR1020100039366A 2010-04-28 2010-04-28 Video Analysing Apparatus and Method Using Stereo Cameras Active KR101139389B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020100039366A KR101139389B1 (en) 2010-04-28 2010-04-28 Video Analysing Apparatus and Method Using Stereo Cameras
PCT/KR2010/002673 WO2011136407A1 (en) 2010-04-28 2010-04-28 Apparatus and method for image recognition using a stereo camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100039366A KR101139389B1 (en) 2010-04-28 2010-04-28 Video Analysing Apparatus and Method Using Stereo Cameras

Publications (2)

Publication Number Publication Date
KR20110119933A true KR20110119933A (en) 2011-11-03
KR101139389B1 KR101139389B1 (en) 2012-04-27

Family

ID=44861683

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100039366A Active KR101139389B1 (en) 2010-04-28 2010-04-28 Video Analysing Apparatus and Method Using Stereo Cameras

Country Status (2)

Country Link
KR (1) KR101139389B1 (en)
WO (1) WO2011136407A1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013157685A1 (en) * 2012-04-20 2013-10-24 (주)아이티엑스시큐리티 Three-dimensional motion detection apparatus and detection method using stereo camera
KR20130119288A (en) * 2012-04-23 2013-10-31 한국전자통신연구원 Apparatus and method for correcting information of position
KR101645451B1 (en) * 2015-04-14 2016-08-12 공간정보기술 주식회사 Spatial analysis system using stereo camera
KR20170129543A (en) * 2016-05-17 2017-11-27 에스케이텔레콤 주식회사 Method and Apparatus for Estimating Mounting Height of Camera
WO2018101603A1 (en) * 2016-12-02 2018-06-07 (주)비전에스티 Road object recognition method and device using stereo camera
KR20190120619A (en) * 2018-04-16 2019-10-24 주식회사 루씨드드림 Method And System for Rendering for Binocular Disparity Image
CN112686931A (en) * 2020-12-22 2021-04-20 北京百度网讯科技有限公司 Image recognition method, garbage dumping behavior detection method, equipment and medium
WO2024063242A1 (en) * 2022-09-20 2024-03-28 한화비전 주식회사 Apparatus and method for image analysis

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101758684B1 (en) 2012-07-23 2017-07-14 한화테크윈 주식회사 Apparatus and method for tracking object
KR102793522B1 (en) 2018-10-24 2025-04-09 삼성전자주식회사 Localization method based on images and map data and apparatus thereof

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3631541B2 (en) * 1995-11-29 2005-03-23 池上通信機株式会社 Object tracking method using stereo images
JP3643157B2 (en) * 1995-11-29 2005-04-27 池上通信機株式会社 Object height measurement method using stereo images
KR20000032853A (en) * 1998-11-18 2000-06-15 김운용 System and method for face recognition with three-dimensional masking method
KR100544677B1 (en) * 2003-12-26 2006-01-23 한국전자통신연구원 3D object tracking device and method using multiview image and depth information

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013157685A1 (en) * 2012-04-20 2013-10-24 (주)아이티엑스시큐리티 Three-dimensional motion detection apparatus and detection method using stereo camera
KR20130119288A (en) * 2012-04-23 2013-10-31 한국전자통신연구원 Apparatus and method for correcting information of position
KR101645451B1 (en) * 2015-04-14 2016-08-12 공간정보기술 주식회사 Spatial analysis system using stereo camera
KR20170129543A (en) * 2016-05-17 2017-11-27 에스케이텔레콤 주식회사 Method and Apparatus for Estimating Mounting Height of Camera
WO2018101603A1 (en) * 2016-12-02 2018-06-07 (주)비전에스티 Road object recognition method and device using stereo camera
KR20190120619A (en) * 2018-04-16 2019-10-24 주식회사 루씨드드림 Method And System for Rendering for Binocular Disparity Image
CN112686931A (en) * 2020-12-22 2021-04-20 北京百度网讯科技有限公司 Image recognition method, garbage dumping behavior detection method, equipment and medium
WO2024063242A1 (en) * 2022-09-20 2024-03-28 한화비전 주식회사 Apparatus and method for image analysis

Also Published As

Publication number Publication date
KR101139389B1 (en) 2012-04-27
WO2011136407A1 (en) 2011-11-03

Similar Documents

Publication Publication Date Title
KR101139389B1 (en) Video Analysing Apparatus and Method Using Stereo Cameras
CN111066065B (en) Systems and methods for hybrid deep regularization
KR101283262B1 (en) Method of image processing and device thereof
US6701005B1 (en) Method and apparatus for three-dimensional object segmentation
CN118424232B (en) An underwater structure ranging system based on computer vision
CN108876856B (en) Fire source identification and positioning method and system for large building
CN107392958B (en) Method and device for determining object volume based on binocular stereo camera
CN102567713A (en) Image processing apparatus
KR101148029B1 (en) Video Analysing Apparatus and Method Using 3D Camera
KR20150053438A (en) Stereo matching system and method for generating disparity map using the same
KR102110459B1 (en) Method and apparatus for generating three dimension image
CN111630569B (en) Binocular matching method, visual imaging device and device with storage function
KR100799990B1 (en) 3D image conversion device and method of 2D image
KR20170001448A (en) Apparatus for measuring position of camera using stereo camera and method using the same
KR100943635B1 (en) Method and apparatus for generating disparity map using digital camera image
WO2014092550A2 (en) Method for camera motion estimation with presence of moving object
KR101226668B1 (en) 3 Dimensional Motion Recognition System and Method Using Stereo Camera
JP2020006788A (en) Construction limit determination device
KR101281003B1 (en) Image processing system and method using multi view image
KR20160024419A (en) System and Method for identifying stereo-scopic camera in Depth-Image-Based Rendering
KR101581586B1 (en) Compensation method for noise of depth image
CN117841005A (en) A binocular vision positioning method for underwater robot target grasping
Jorissen et al. Multi-view wide baseline depth estimation robust to sparse input sampling
CN110473246B (en) A ranging method for multiple occlusion targets based on binocular vision
CN116520345A (en) Method and system for detecting and tracking depth information of laser radar and video target

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20100428

PA0201 Request for examination
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20111031

Patent event code: PE09021S01D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20120323

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20120417

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20120418

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20150507

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20150507

Start annual number: 4

End annual number: 4

FPAY Annual fee payment

Payment date: 20160425

Year of fee payment: 5

PR1001 Payment of annual fee

Payment date: 20160425

Start annual number: 5

End annual number: 5

FPAY Annual fee payment

Payment date: 20170407

Year of fee payment: 6

PR1001 Payment of annual fee

Payment date: 20170407

Start annual number: 6

End annual number: 6

FPAY Annual fee payment

Payment date: 20180402

Year of fee payment: 7

PR1001 Payment of annual fee

Payment date: 20180402

Start annual number: 7

End annual number: 7

FPAY Annual fee payment

Payment date: 20190401

Year of fee payment: 8

PR1001 Payment of annual fee

Payment date: 20190401

Start annual number: 8

End annual number: 8

PR1001 Payment of annual fee

Payment date: 20200416

Start annual number: 9

End annual number: 9

PR1001 Payment of annual fee

Payment date: 20210401

Start annual number: 10

End annual number: 10

PR1001 Payment of annual fee

Payment date: 20220916

Start annual number: 11

End annual number: 11

PR1001 Payment of annual fee

Payment date: 20230207

Start annual number: 12

End annual number: 12

PR1001 Payment of annual fee

Payment date: 20240326

Start annual number: 13

End annual number: 13

PR1001 Payment of annual fee

Payment date: 20250310

Start annual number: 14

End annual number: 14