KR20110119933A - Image recognition device and method using stereo camera - Google Patents
Image recognition device and method using stereo camera Download PDFInfo
- Publication number
- KR20110119933A KR20110119933A KR1020100039366A KR20100039366A KR20110119933A KR 20110119933 A KR20110119933 A KR 20110119933A KR 1020100039366 A KR1020100039366 A KR 1020100039366A KR 20100039366 A KR20100039366 A KR 20100039366A KR 20110119933 A KR20110119933 A KR 20110119933A
- Authority
- KR
- South Korea
- Prior art keywords
- central axis
- image
- stereo camera
- length
- range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30172—Centreline of tubular or elongated structure
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
스테레오 카메라를 이용한 영상인식장치 및 방법이 개시된다. 본 발명의 영상처리장치는 영상으로부터 움직이는 객체를 추출하고, 해당 객체의 중심축과 객체를 대표하는 길이를 구하여 기 설정된 값이나 패턴 마스크와 비교하는 방법으로 해당 객체를 인식한다. 여기서, 객체를 대표하는 실제 길이는 두 개의 카메라를 이용하여 획득한 3차원 심도 맵(Depth Map) 데이터를 이용하여 구할 수 있다. Disclosed are an image recognition apparatus and method using a stereo camera. The image processing apparatus of the present invention recognizes the object by extracting a moving object from the image, obtaining a central axis of the object and a length representing the object, and comparing the object with a preset value or a pattern mask. Here, the actual length representing the object may be obtained using 3D depth map data acquired using two cameras.
Description
본 발명은, 2개의 카메라를 이용하여 획득한 3차원 심도 맵(Depth Map) 데이터를 기반으로 사물을 인식할 수 있는, 스테레오 카메라를 이용한 영상인식장치 및 방법에 관한 것이다.
The present invention relates to an image recognition apparatus and method using a stereo camera that can recognize an object based on three-dimensional depth map data acquired using two cameras.
영상으로부터 3차원 공간상의 심도 정보(Depth Map), 다시 말해 3차원 공간상의 피사체와의 거리를 얻기 위한 방법에는, 스테레오 카메라를 이용하는 방법, 레이저 스캔을 이용하는 방법, TOF(Time of Flight)를 이용하는 방법 등이 알려지고 있다. In order to obtain a depth map on a three-dimensional space from an image, that is, a distance from a subject in a three-dimensional space, a method of using a stereo camera, a method of using a laser scan, or a method of using a time of flight (TOF) The back is known.
이 중에서, 스테레오 카메라를 이용하는 스테레오 정합(Stereo Matching)은, 사람이 두 눈을 이용하여 입체를 인지하는 과정을 하드웨어적으로 구현한 것으로서, 동일한 피사체를 두 개의 카메라로 촬영하여 획득한 한 쌍의 이미지에 대한 해석과정을 통해 공간에서의 깊이(또는 거리)에 대한 정보를 추출하는 방법이다. 이를 위해, 두 개의 카메라로부터 획득한 영상의 동일한 에피폴라 선(Epipolar Line)상의 양안차를 계산한다. 양안차는 거리 정보를 포함하며, 이러한 양안차로부터 계산된 기하학적 특성이 깊이(depth)가 된다. 입력 영상으로부터 실시간으로 양안차값을 계산하면 관측 공간의 삼차원 거리 정보 등을 측정할 수 있다.Among these, stereo matching using a stereo camera is a hardware implementation of a process of recognizing a stereoscopic object using two eyes, and a pair of images obtained by photographing the same subject with two cameras. It is a method of extracting information about depth (or distance) in space through the interpretation process of. To this end, binocular differences on the same Epipolar Line of images obtained from two cameras are calculated. The binocular difference includes distance information, and the geometrical characteristic calculated from the binocular difference becomes the depth. When the binocular difference value is calculated in real time from the input image, three-dimensional distance information of the observation space can be measured.
스테레오 정합 알고리즘으로 알려진 것에는, 예컨대, 대한민국 등록특허 제0517876호의 "복수 영상 라인을 이용한 영상 정합 방법"이나, 대한민국 등록특허 제0601958호의 "3차원 객체 인식을 위한 양안차 추정방법"이 있다.
Known as a stereo matching algorithm, for example, "image matching method using a plurality of image lines" of the Republic of Korea Patent No. 0517876 or "binocular difference estimation method for three-dimensional object recognition" of the Republic of Korea Patent No. 0601958.
본 발명의 목적은 2개의 카메라를 이용하여 획득한 3D 심도 맵 데이터를 기반으로 피사체를 인식할 수 있는, 스테레오 카메라를 이용한 영상인식장치 및 방법을 제공함에 있다.
An object of the present invention is to provide an image recognition apparatus and method using a stereo camera, which can recognize a subject based on 3D depth map data acquired using two cameras.
상기 목적을 달성하기 위한 본 발명의 스테레오 카메라를 이용한 영상인식방법은, 동일한 영역을 촬영하는 두 개의 카메라를 이용하여, 한 쌍의 디지털 영상을 생성하는 단계, 상기 변환된 한 쌍의 디지털 영상을 이용하여 3차원 심도 맵 데이터를 계산하는 단계, 상기 디지털 영상 중 하나를 기준 배경영상과 비교하여 움직이는 객체의 영역을 추출하는 단계, 상기 추출된 객체의 중심축을 추출하는 단계, 상기 심도 맵 데이터로부터 확인한 상기 객체까지의 거리정보를 기초로 상기 객체를 대표하는 실제 길이인 대표 길이를 계산하는 단계, 및 상기 계산된 객체의 대표 길이가 제1 범위 내에 속하는 경우, 제1 범위에 매핑된 복수 개의 패턴 마스크와 상기 추출된 객체의 중심축을 비교하는 방법으로 상기 객체를 인식하는 단계를 포함한다. In order to achieve the above object, an image recognition method using a stereo camera of the present invention includes generating a pair of digital images using two cameras photographing the same region, and using the converted pair of digital images. Calculating 3D depth map data, extracting a region of a moving object by comparing one of the digital images with a reference background image, extracting a central axis of the extracted object, and identifying the depth map data Calculating a representative length which is an actual length representing the object based on distance information to the object, and when the representative length of the calculated object is within a first range, a plurality of pattern masks mapped to the first range; Recognizing the object by a method of comparing the central axis of the extracted object.
여기서, 상기 객체의 대표 길이는, 상기 중심축의 실제 길이, 상기 객체의 실제 폭 및 상기 객체의 실제 높이 중 어느 하나인 것이 바람직하다. Here, the representative length of the object is preferably any one of the actual length of the central axis, the actual width of the object and the actual height of the object.
실시 예에 따라, 본 발명의 영상처리방법은, 상기 계산된 객체의 대표 길이가 상기 제1 범위와 다른 제2 범위 내에 속하는 경우, 제2 범위에 매핑된 복수 개의 패턴 마스크와 상기 추출된 객체의 중심축을 비교하는 방법으로 상기 객체를 인식하는 단계를 더 포함할 수 있다.According to an embodiment, in the image processing method of the present invention, when the representative length of the calculated object is within a second range different from the first range, the plurality of pattern masks mapped to the second range and the extracted object The method may further include recognizing the object by a method of comparing the central axes.
본 발명의 다른 실시 예에 따른 스테레오 카메라를 이용한 영상인식장치는, 스테레오카메라부, 거리정보계산부, 객체추출부, 중심축추출부 및 객체인식부를 포함한다. Image recognition apparatus using a stereo camera according to another embodiment of the present invention, a stereo camera unit, a distance information calculation unit, an object extraction unit, a central axis extraction unit and an object recognition unit.
스테레오카메라부는 동일한 영역을 촬영하는 두 개의 카메라를 구비하여, 한 쌍의 디지털 영상을 생성하고, 거리정보계산부는 상기 스테레오카메라부에서 생성한 한 쌍의 디지털 영상을 이용하여 3차원 심도 맵 데이터를 계산한다.The stereo camera unit includes two cameras for capturing the same area, and generates a pair of digital images, and the distance information calculator calculates 3D depth map data using the pair of digital images generated by the stereo camera unit. do.
객체추출부는 상기 스테레오카메라부에서 생성한 디지털 영상 중 하나를 기준 배경영상과 비교하여 움직이는 객체의 영역을 추출하고, 중심축추출부 상기 추출된 객체의 중심축을 추출한다.The object extractor extracts an area of the moving object by comparing one of the digital images generated by the stereo camera unit with a reference background image, and extracts a central axis of the extracted object.
객체인식부는 상기 심도 맵 데이터로부터 확인한 상기 객체까지의 거리정보를 기초로 상기 객체를 대표하는 실제 길이인 대표 길이를 계산하고, 상기 계산된 객체의 대표 길이가 제1 범위 내에 속하는 경우 제1 범위에 매핑된 복수 개의 패턴 마스크와 상기 추출된 객체의 중심축을 비교하는 방법으로 상기 객체를 인식한다.
The object recognition unit calculates a representative length which is an actual length representing the object based on the distance information to the object identified from the depth map data, and if the calculated representative length of the object falls within the first range, The object is recognized by comparing a plurality of mapped pattern masks with a central axis of the extracted object.
본 발명의 영상인식장치는 촬영 영역에서 움직이는 객체를 보다 간단한 방법으로 인식할 수 있다. 이러한 방법은, 두 개의 카메라를 이용하여 생성한 영상을 처리하는 대신에, 2차원 이미지 처리에 비해 그 인식 알고리즘이 상대적으로 간단하여 인식 속도와 효율이 개선되며, 무엇보다 인식률이 뛰어난 특징이 있다.
The image recognition device of the present invention can recognize a moving object in the photographing area in a simpler method. In this method, the recognition algorithm is relatively simple compared to the two-dimensional image processing, instead of processing the image generated using the two cameras, the recognition speed and efficiency is improved, and above all, the recognition rate is excellent.
도 1은 본 발명의 일 실시 예에 따른 3차원 영상인식장치의 블록도,
도 2는 본 발명의 3차원 영상인식과정의 설명에 제공되는 흐름도,
도 3은 영상으로부터 객체영역을 추출하는 단계에서의 영상처리 결과를 도시한 도면,
도 4는 객체의 중심축의 추출방법의 설명에 제공되는 도면, 그리고
도 5는 객체의 대표길이를 계산하는 방법의 설명에 제공되는 도면이다.1 is a block diagram of a 3D image recognition device according to an embodiment of the present invention;
2 is a flowchart provided to explain a three-dimensional image recognition process of the present invention;
3 is a view showing an image processing result in the step of extracting an object region from an image;
4 is a view provided for explaining a method of extracting a central axis of an object; and
5 is a diagram provided to explain a method of calculating a representative length of an object.
이하 도면을 참조하여 본 발명을 더욱 상세히 설명한다.BEST MODE FOR CARRYING OUT THE INVENTION The present invention will be described in more detail with reference to the drawings.
도 1을 참조하면, 본 발명의 영상인식장치(100)는 스테레오카메라부(110) 및 영상처리부(130)를 포함하여 3차원 공간상의 피사체를 인식하게 된다. Referring to FIG. 1, the
스테레오카메라부(110)는 제1 카메라(111), 제2 카메라(113) 및 영상수신부(115)를 포함한다. The
제1 카메라(111) 및 제2 카메라(113)는 동일한 영역을 촬영하도록 상호 이격되어 설치된 한 쌍의 카메라들로서, 소위 스테레오 카메라라고 한다. 제1 카메라(111) 및 제2 카메라(113)는 영역을 촬영한 아날로그 영상신호를 영상수신부(115)로 출력한다. The
영상수신부(115)는 제1 카메라(111) 및 제2 카메라(113)에서 입력되는 연속적인 프레임의 영상신호(또는 이미지)를 디지털 영상으로 변환하고, 그 프레임 동기를 맞추어 영상처리부(130)에게 제공한다. The
실시 예에 따라, 스테레오카메라부(110)의 제1 카메라(111)와 제2 카메라(113)는 아날로그 영상이 아닌 디지털 영상신호를 생성하는 카메라일 수 있으며, 이 경우 영상수신부(115)는 다른 변환처리없이 영상처리부(130)와의 인터페이스를 제공하며 한 쌍의 영상의 프레임 동기를 맞추는 역할을 한다.According to an exemplary embodiment, the
또한, 스테레오카메라부(110)는 IP(Internet Protocol) 망을 통해 영상처리부(130)에 연결되기 위한 유선 또는 무선 인터페이스를 더 포함할 수 있다. In addition, the
영상처리부(130)는 스테레오카메라부(110)로부터 출력되는 한 쌍의 디지털 영상 프레임으로부터 촬영영역 상에서 움직이는 객체의 영역을 추출하여 해당 객체가 관심 사물인지를 판단하며, 스테레오카메라부(110)로부터 연속적으로 입력되는 영상(동영상)의 모든 프레임에 대해 실시간으로 이상의 판단과정을 수행할 수 있다.The
이상의 처리를 위해, 영상처리부(130)는 거리정보계산부(131), 객체추출부(133) 및 객체인식부(137)를 포함한다. 이하에서는, 도 2를 참조하여 거리정보계산부(131), 객체추출부(133), 중심축추출부(135) 및 객체인식부(137)의 동작을 설명한다. For the above process, the
먼저, 제1 카메라(111) 및 제2 카메라(113)가 아날로그 영상신호를 생성하면, 영상수신부(115)가 해당 아날로그 영상신호를 디지털 영상신호로 변환한 다음 프레임 동기를 맞추어 영상처리부(130)에게 제공한다(S201 단계).
First, when the
<심도 맵 데이터 계산: S203 단계>Depth Map Data Calculation: Step S203
거리정보계산부(131)는 영상수신부(115)로부터 실시간으로 입력받는 한 쌍의 디지털 영상으로부터 각 픽셀의 거리정보를 포함하는 3차원 심도 맵(3D Depth Map) 데이터를 계산한다. The
여기서, 각 픽셀의 거리 정보는 종래기술에서 설명한 스테레오 정합방법에 의해 구해지는 양안차 정보로서, 대한민국 등록특허 제0517876호의 "복수 영상 라인을 이용한 영상 정합 방법"이나 대한민국 등록특허 제0601958호의 "3차원 객체 인식을 위한 양안차 추정방법에 제시된 그래프 컷(Graph Cut) 알고리즘 등을 이용하여 계산할 수 있다. 따라서, 거리정보계산부(131)에서 계산한 심도 맵 데이터에는 각 픽셀에 대한 거리정보가 포함된다.
Here, the distance information of each pixel is binocular difference information obtained by the stereo matching method described in the prior art, and the "three-dimensional image matching method using a plurality of image lines" of the Republic of Korea Patent No. 0517876 or the Republic of Korea Patent No. 0601958 The depth map data calculated by the
<움직이는 객체의 영역 추출: S205 단계><Extract region of moving object: step S205>
객체추출부(133)는 영상수신부(115)를 통해 입력되는 한 쌍의 디지털 이미지 중 하나의 이미지로부터 움직이는 객체의 영역을 추출한다. 여기서, 움직이는 객체라 함은, 카메라의 촬영 영역 내에 존재한 객체로서 그 위치나 동작이 변경된 객체 또는 촬영 영역 내로 새롭게 진입한 객체를 말한다. The
이러한 움직이는 객체의 영역을 추출하는 방법은 다양하게 이루어질 수 있다. 예컨대, 본 발명의 객체추출부(133)는 입력된 영상 프레임에서 기 보유한 배경영상을 빼는 방법(Background Subtraction)으로 움직이는 객체의 영역을 추출한다. 여기서, 뺄셈 연산은 대응되는 두 개 영상 프레임의 각 픽셀의 화소 값을 빼는 방법으로 이루어진다. 또한, 기준 배경영상은 움직이는 객체가 없다고 설정한 경우의 영상으로서, 객체추출부(133)는 저장매체(미도시)에 기준 배경영상을 저장해 두었다가 사용할 수 있다.The method of extracting the area of the moving object may be variously performed. For example, the
나아가, 객체 영역이 아닌 배경부분에서도 카메라 잡음이나 촬영영역에 대한 조명의 변화에 의한 차 영상(Difference Image)이 발생할 수 있으므로, 객체추출부(133)는 뺄셈 연산의 결과영상에 대하여 가우시안 분포(Gaussian Distribution)처리 등을 적용하는 배경 모델링(Background Modeling)을 통해 잡음이나 조명의 변화 등에 대응할 수 있다. Furthermore, since a difference image may be generated due to camera noise or a change in illumination of the photographing area, the
도 3을 참조하면, (a)는 영상수신부(115)로부터 입력된 영상, (b)는 기본 배경영상, 그리고 (c)는 뺄셈연산의 결과영상이다. 도 3의 (c)를 참조하면, 영상수신부(115)로부터 입력된 영상에서 움직이는 객체의 영역이 추출되었음을 알 수 있다.
Referring to FIG. 3, (a) is an image input from the
<움직이는 객체의 외곽선 검출: S207 단계><Detect Edge of Moving Object: Step S207>
객체추출부(133)는 S207 단계의 뺄셈 연산의 결과영상에서 외곽선 검출을 수행하여 움직이는 객체의 외곽선을 검출한다. 외곽선 검출은 객체의 경계선 넓이와 형태에 따라 여러 종류의 형태의 에지를 사용하여 처리된다. The
객체추출부(133)는 외곽선 검출을 위해, 뺄셈 영상에 모폴로지(Morphology) 연산을 적용하여 잡음을 제거하고, 외각선이나 골격선을 간단하게 할 수 있다. 모폴로지 연산에는 기본적으로 잡음을 제거하는 침식(Erosion) 연산과 객체 내의 작은 구멍을 메우는 팽창(Dilation) 연산이 사용될 수 있다.
The
<움직이는 객체의 중심축 추출: S209 단계><Extract central axis of moving object: step S209>
중심축추출부(135)는 객체추출부(133)가 추출한 객체에 대해 골격화 또는 세선화 알고리즘을 적용하여 1 픽셀의 폭을 가지는 객체의 중심축(Medial Axis}을 추출한다. 골격화 알고리즘에는 외곽선을 이용하는 중심축변환(MAT: Medial Axis Transform)알고리즘 또는 Zhang Suen 알고리즘과 같이 기 알려진 다양한 방식을 적용할 수 있다. The
예컨대, 중심축 변환에 의할 경우, 객체의 중심축(a)은 도 4에서처럼 객체(R) 내의 각 점(또는 픽셀)들 중에서 복수 개의 경계점을 가지는 점들의 집합이다. 여기서, 경계점은 외곽선(B) 상의 점들 중에서 객체 내의 해당 점과의 거리가 가장 가까운 점을 말하는 것으로, 외곽선상의 점 b1, b2는 객체(R) 내의 점 P1의 경계점이 된다. 따라서, 중심축 알고리즘은 경계점이 복수 개인 점들을 추출하는 과정이 되며 다음의 수학식 1과 같이 표현될 수 있다.For example, when the central axis is transformed, the central axis a of the object is a set of points having a plurality of boundary points among the respective points (or pixels) in the object R as shown in FIG. 4. Here, the boundary point refers to a point closest to the point in the object among the points on the outline B, and the points b1 and b2 on the outline become the boundary point of the point P1 in the object R. Therefore, the central axis algorithm is a process of extracting points having a plurality of boundary points and may be expressed as in Equation 1 below.
여기서, Pma는 x의 집합으로 표시되는 중심축이고, x는 객체(R)내에 존재하는 점, bmin(x)는 점 x의 경계점의 수이다. 따라서, 중심축은 경계점의 수가 1보다 큰 점 x들의 집합이 된다. 여기서, 경계점을 계산하기 위해, 내부의 점 x에서 외곽선상의 임의의 픽셀까지의 거리를 구하는 방법(예컨대, 4-Distance, 8-Distance, Euclidean Distance 등)에 따라, 골격의 구조가 다소 바뀔 수 있다. Where P ma is a central axis represented by a set of x, x is a point present in the object R, and b min (x) is the number of boundary points of the point x. Thus, the central axis is a set of points x whose number of boundary points is greater than one. Here, in order to calculate the boundary point, the structure of the skeleton may change somewhat according to a method of obtaining a distance from an internal point x to an arbitrary pixel on the outline (for example, 4-Distance, 8-Distance, Euclidean Distance, etc.). .
그 밖에도, 객체가 비교적 간단한 형태의 것인 경우, 객체에 대한 가우시안 값의 피크값을 추출하는 방법으로 중심선을 추출할 수 있으며, 이러한 알고리즘에 의할 경우 S207 단계의 외곽선 검출단계는 생략될 수도 있다.
In addition, when the object is of a relatively simple form, the center line may be extracted by extracting a peak value of the Gaussian value for the object, and in this case, the edge detection step of step S207 may be omitted. .
<움직이는 객체의 대표 길이 계산: S211 단계><Calculation of representative length of moving object: step S211>
객체인식부(137)는 S205 단계에서 구한 심도 맵 데이터를 이용하여, S207 또는 S209 단계에서 추출한 객체의 대표 길이를 구한다. The
객체의 대표 길이는 객체를 대표하는 것으로 설정된 객체의 실제 길이로서 영상으로부터 계산된 값이며, 중심축의 실제 길이, 객체의 실제 폭 또는 객체의 실제높이 등이 해당할 수 있다. 다만, 객체의 대표 길이는 카메라의 위치, 촬영각도 및 촬영영역의 특성 등에 따라 영향을 받게 된다. The representative length of the object is a value calculated from an image as an actual length of an object set to represent the object, and may correspond to an actual length of a central axis, an actual width of an object, or an actual height of an object. However, the representative length of the object is affected by the position of the camera, the shooting angle, and the characteristics of the shooting area.
나아가, 객체의 실제길이의 계산은, S205 단계에서 추출된 객체가 위치한 거리(do)에서의 픽셀 당 실제 길이(이하, 픽셀의 '단위 길이'라 함)를 구한 다음, 해당 객체를 대표하는 픽셀의 수를 곱하는 방법으로 이루어진다. 여기서, 객체를 대표하는 픽셀의 수는 앞서 중심축을 형성하는 픽셀의 수, 해당 객체의 폭이나 높이가 되는 픽셀의 수 등이 해당될 수 있다. Further, the calculation of the actual length of the object, after calculating the actual length per pixel (hereinafter referred to as the 'unit length' of the pixel) at the distance (do) where the object extracted in step S205 is located, the pixel representing the object This is done by multiplying the number of. Here, the number of pixels representing the object may correspond to the number of pixels forming the central axis, the number of pixels to be the width or height of the object.
객체를 대표하는 픽셀의 수로서의, 객체의 폭이나 높이는 객체 영역의 x축좌표의 범위 또는 y축좌표의 범위를 통해 구해질 수 있으며, 중심축의 길이는 예컨대 중심축에 포함된 픽셀의 수를 모두 더함으로써 구할 수 있다.The width or height of the object, as the number of pixels representing the object, can be obtained through the range of the x-axis coordinate or the y-axis coordinate of the object area, and the length of the central axis is, for example, the number of pixels included in the central axis. It can be obtained by adding.
특정 픽셀의 단위 길이는 픽셀마다(정확하게는 픽셀의 심도에 따라) 달라지며, 도 5를 참조하여 다음과 같이 구할 수 있다. 여기서, 설명의 편리를 위해, 영상 프레임의 크기를 720×640 픽셀이라 가정한다.The unit length of a particular pixel varies from pixel to pixel (exactly depending on the depth of the pixel), and can be obtained as follows with reference to FIG. 5. Here, for convenience of explanation, it is assumed that the size of the image frame is 720x640 pixels.
도 5에서, 기존 배경영상을 기준으로 최대 심도(D)에서의 전체 프레임의 세로축(또는 가로축)에 대응하는 실제길이 Lmax와, 추출된 객체의 위치 do에서의 전체 프레임의 세로축(또는 가로축)에 대응하는 실제길이 L(do)가 표시되어 있다. 먼저 해당 객체가 위치하는 심도 do에서의 프레임 전체의 세로축(또는 가로축)에 대응되는 실제길이 L(do)는 다음의 수학식 2와 같이 구할 수 있다. 5, the actual length Lmax corresponding to the vertical axis (or horizontal axis) of the entire frame at the maximum depth D based on the existing background image, and the vertical axis (or horizontal axis) of the entire frame at the position do of the extracted object. The corresponding actual length L (do) is indicated. First, the actual length L (do) corresponding to the vertical axis (or the horizontal axis) of the entire frame at the depth do where the object is located may be obtained as in Equation 2 below.
여기서, L(do)는 심도 do에서의 프레임 전체의 세로축(또는 가로축)에 대응되는 실제 길이이고, Lmax는 기존 배경영상을 기준으로 최대 거리(L)에서의 전체 프레임의 세로축(또는 가로축)에 대응되는 실제 길이이며, do는 객체의 심도, D는 최대 심도이다. Here, L (do) is the actual length corresponding to the vertical axis (or the horizontal axis) of the entire frame at the depth do, and Lmax is the vertical axis (or the horizontal axis) of the entire frame at the maximum distance L based on the existing background image. The corresponding actual length, do is the depth of the object, and D is the maximum depth.
다음으로, 객체가 위치하는 거리(do)에서의 전체 프레임의 세로축(또는 가로축)에 대응되는 실제 길이 L(do)을 프레임 전체의 세로축(또는 가로축)의 픽셀 수(Px, Py, 예에서 Px=720, Py=640)로 나눔으로써, 객체 영역에 포함된 픽셀의 단위 길이 Lp(do)을 다음의 수학식 3과 같이 구할 수 있다. Next, the actual length L (do) corresponding to the vertical axis (or horizontal axis) of the entire frame at the distance do is located, is the number of pixels Px, Py in the vertical axis (or horizontal axis) of the entire frame. = 720, Py = 640), the unit length L p (do) of the pixels included in the object region can be obtained as in Equation 3 below.
여기서, Lp(do)는 심도 do에 위치한 객체 영역에 포함된 픽셀의 단위 길이, Py는 프레임 전체의 세로축의 픽셀 수이다. 수학식 2에 의하면, Lp(do)은 3차원 심도 맵 데이터의 거리 정보로부터 확인한 해당 객체까지의 심도(do)와 맵 데이터 상의 최대 심도에 따라 달라짐을 알 수 있다.Here, L p (do) is the unit length of the pixels included in the object region located at the depth do, and Py is the number of pixels along the vertical axis of the entire frame. According to Equation 2, it can be seen that L p (do) depends on the depth to the corresponding object confirmed from the distance information of the 3D depth map data and the maximum depth on the map data.
픽셀의 단위 길이가 구해지면, 객체인식부(137)는 객체의 대표 길이를 구한다. 객체의 대표 길이는 픽셀의 단위 길이 Lp(do)에 해당 객체를 대표하는 픽셀의 수 po를 곱함으로써 다음의 수학식 4와 같이 구할 수 있다. When the unit length of the pixel is obtained, the
여기서, po는 해당 객체를 대표하는 픽셀의 수이다.
Here, po is the number of pixels representing the object.
<움직이는 객체의 골격패턴 및 크기로 객체 인식: S213 ~ S217 단계><Object Recognition by Skeleton Pattern and Size of Moving Object: Steps S213 to S217>
픽셀의 단위 길이가 구해지면, 객체인식부(137)는 객체의 대표길이와 객체의 골격을 이용하여 객체를 인식한다. When the unit length of the pixel is obtained, the
먼저, 객체인식부(137)는 객체의 대표길이가 제1 범위 내에 속하는지를 1차 판단한다(S213). First, the
여기서, 제1 범위는 검색하고자 하는 제1 사물(또는 1군의 사물들)의 대표 길이의 범위가 된다. 앞서 설명한 바와 같이, 객체를 대표 길이는 카메라의 위치, 촬영각도 및 촬영영역의 특성 등에 따라 영향을 받게 된다. 예컨대, 교차로에서 하방 45°의 각도로 도로를 촬영하는 카메라의 경우와 비교적 낮은 높이에서 밀폐 공간을 촬영하는 경우에 동일한 사물에 대한 대표 길이가 달라질 수 밖에 없다. 또한, 카메라의 위치에 따라, 같은 영상내에서 존재하는 각종 사물의 대표 길이도 그 형태적 특성에 따라 달라질 수 있다. 따라서 대표 길이는 이러한 점들을 고려하여 설정되어야 한다. Here, the first range is a range of a representative length of the first thing (or a group of things) to be searched. As described above, the representative length of the object is affected by the position of the camera, the shooting angle, and the characteristics of the shooting area. For example, in the case of a camera photographing a road at an angle of 45 ° downward from an intersection and a photograph of a closed space at a relatively low height, the representative length of the same object may be different. Also, depending on the position of the camera, the representative lengths of various objects existing in the same image may also vary according to their morphological characteristics. Therefore, the representative length should be set in consideration of these points.
만약, 객체의 대표길이가 제1 범위 내에 속하지 않으면, 객체인식부(137)는 객체의 대표길이가 제2 사물의 대표 길이에 해당하는 제2 범위에 속하는지를 다시 판단할 수 있다(S215). If the representative length of the object does not belong to the first range, the
객체인식부(137)는 객체의 대표길이가 제1 범위 내에 속하는 경우, 해당 객체의 중심축의 패턴이 제1군의 패턴 마스크들 중 하나와 일치하는지 여부를 2차 판단하여, 최종적으로 객체를 인식한다. 다시 말해, 제1 범위가 제1 사물 또는 제1군의 사물들에 대응되는 것처럼, 제1군의 패턴 마스크 역시 제1 사물 또는 제1군의 사물들에 대응될 수 있다. 여기서, 패턴이 일치한다 함은 용인 가능한 범위내에서의 일치를 의미할 수 있다. When the representative length of the object is within the first range, the
이상의 과정을 통해 본 발명의 영상인식장치는 스테레오 카메라를 이용한 3차원 심도 맵 데이터를 구하고, 영상에 포착된 객체를 인식하게 된다.
Through the above process, the image recognition device of the present invention obtains 3D depth map data using a stereo camera and recognizes an object captured in the image.
여기에서 시계열적으로 선행하는 것처럼 설명되는 것과 달리, S203 단계의 심도 맵 데이터의 계산은 도 2에 도시된 것처럼 S205 및 S207 단계의 움직이는 객체의 추출과정과 병렬적으로 수행될 수 있을 뿐만 아니라, S205 및 S207 단계 후에 수행될 수도 있다.
Unlike what is described herein as time series preceding, the calculation of the depth map data of step S203 can be performed in parallel with the extraction process of the moving object of steps S205 and S207 as shown in FIG. And after step S207.
이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be construed as limiting the scope of the invention as defined by the appended claims. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention.
Claims (5)
상기 변환된 한 쌍의 디지털 영상을 이용하여 3차원 심도 맵 데이터를 계산하는 단계;
상기 디지털 영상 중 하나를 기준 배경영상과 비교하여 움직이는 객체의 영역을 추출하는 단계;
상기 추출된 객체의 중심축을 추출하는 단계;
상기 심도 맵 데이터로부터 확인한 상기 객체까지의 거리정보를 기초로 상기 객체를 대표하는 실제 길이인 대표 길이를 계산하는 단계: 및
상기 계산된 객체의 대표 길이가 제1 범위 내에 속하는 경우, 제1 범위에 매핑된 복수 개의 패턴 마스크와 상기 추출된 객체의 중심축을 비교하는 방법으로 상기 객체를 인식하는 단계를 포함하는 것을 특징으로 하는 스테레오 카메라를 이용한 영상인식방법.
Generating a pair of digital images using two cameras photographing the same area;
Calculating 3D depth map data using the converted pair of digital images;
Extracting an area of a moving object by comparing one of the digital images with a reference background image;
Extracting a central axis of the extracted object;
Calculating a representative length which is an actual length representing the object based on distance information to the object identified from the depth map data; and
If the representative length of the calculated object is within a first range, recognizing the object by comparing a plurality of pattern masks mapped to a first range with a central axis of the extracted object; Image recognition method using stereo camera.
상기 객체의 대표 길이는,
상기 중심축의 실제 길이, 상기 객체의 실제 폭 및 상기 객체의 실제 높이 중 어느 하나인 것을 특징으로 하는 스테레오 카메라를 이용한 영상인식방법.
The method of claim 1,
The representative length of the object is
The image recognition method using a stereo camera, characterized in that any one of the actual length of the central axis, the actual width of the object and the actual height of the object.
상기 계산된 객체의 대표 길이가 상기 제1 범위와 다른 제2 범위 내에 속하는 경우, 제2 범위에 매핑된 복수 개의 패턴 마스크와 상기 추출된 객체의 중심축을 비교하는 방법으로 상기 객체를 인식하는 단계를 포함하는 것을 특징으로 하는 스테레오 카메라를 이용한 영상인식방법.
The method of claim 1,
Recognizing the object by a method of comparing the central axis of the extracted object with a plurality of pattern masks mapped to the second range when the representative length of the calculated object falls within a second range different from the first range. Image recognition method using a stereo camera comprising a.
상기 스테레오카메라부에서 생성한 한 쌍의 디지털 영상을 이용하여 3차원 심도 맵 데이터를 계산하는 거리정보계산부;
상기 스테레오카메라부에서 생성한 디지털 영상 중 하나를 기준 배경영상과 비교하여 움직이는 객체의 영역을 추출하는 객체추출부;
상기 추출된 객체의 중심축을 추출하는 중심축추출부; 및
상기 심도 맵 데이터로부터 확인한 상기 객체까지의 거리정보를 기초로 상기 객체를 대표하는 실제 길이인 대표 길이를 계산하고, 상기 계산된 객체의 대표 길이가 제1 범위 내에 속하는 경우 제1 범위에 매핑된 복수 개의 패턴 마스크와 상기 추출된 객체의 중심축을 비교하는 방법으로 상기 객체를 인식하는 객체인식부를 포함하는 것을 특징으로 하는 스테레오 카메라를 이용한 영상인식장치.
A stereo camera unit having two cameras for capturing the same area and generating a pair of digital images;
A distance information calculator for calculating 3D depth map data using a pair of digital images generated by the stereo camera unit;
An object extracting unit extracting an area of a moving object by comparing one of the digital images generated by the stereo camera unit with a reference background image;
A central axis extracting unit extracting a central axis of the extracted object; And
A representative length that is an actual length representing the object is calculated based on the distance information to the object identified from the depth map data, and a plurality of mapped to the first range when the representative length of the calculated object falls within a first range And an object recognizing unit for recognizing the object by comparing two pattern masks with a central axis of the extracted object.
상기 객체의 대표 길이는,
상기 중심축의 실제 길이, 상기 객체의 실제 폭 및 상기 객체의 실제 높이 중 어느 하나인 것을 특징으로 하는 스테레오 카메라를 이용한 영상인식장치.The method of claim 4, wherein
The representative length of the object is
And an actual length of the central axis, an actual width of the object, and an actual height of the object.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020100039366A KR101139389B1 (en) | 2010-04-28 | 2010-04-28 | Video Analysing Apparatus and Method Using Stereo Cameras |
| PCT/KR2010/002673 WO2011136407A1 (en) | 2010-04-28 | 2010-04-28 | Apparatus and method for image recognition using a stereo camera |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020100039366A KR101139389B1 (en) | 2010-04-28 | 2010-04-28 | Video Analysing Apparatus and Method Using Stereo Cameras |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20110119933A true KR20110119933A (en) | 2011-11-03 |
| KR101139389B1 KR101139389B1 (en) | 2012-04-27 |
Family
ID=44861683
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020100039366A Active KR101139389B1 (en) | 2010-04-28 | 2010-04-28 | Video Analysing Apparatus and Method Using Stereo Cameras |
Country Status (2)
| Country | Link |
|---|---|
| KR (1) | KR101139389B1 (en) |
| WO (1) | WO2011136407A1 (en) |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2013157685A1 (en) * | 2012-04-20 | 2013-10-24 | (주)아이티엑스시큐리티 | Three-dimensional motion detection apparatus and detection method using stereo camera |
| KR20130119288A (en) * | 2012-04-23 | 2013-10-31 | 한국전자통신연구원 | Apparatus and method for correcting information of position |
| KR101645451B1 (en) * | 2015-04-14 | 2016-08-12 | 공간정보기술 주식회사 | Spatial analysis system using stereo camera |
| KR20170129543A (en) * | 2016-05-17 | 2017-11-27 | 에스케이텔레콤 주식회사 | Method and Apparatus for Estimating Mounting Height of Camera |
| WO2018101603A1 (en) * | 2016-12-02 | 2018-06-07 | (주)비전에스티 | Road object recognition method and device using stereo camera |
| KR20190120619A (en) * | 2018-04-16 | 2019-10-24 | 주식회사 루씨드드림 | Method And System for Rendering for Binocular Disparity Image |
| CN112686931A (en) * | 2020-12-22 | 2021-04-20 | 北京百度网讯科技有限公司 | Image recognition method, garbage dumping behavior detection method, equipment and medium |
| WO2024063242A1 (en) * | 2022-09-20 | 2024-03-28 | 한화비전 주식회사 | Apparatus and method for image analysis |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101758684B1 (en) | 2012-07-23 | 2017-07-14 | 한화테크윈 주식회사 | Apparatus and method for tracking object |
| KR102793522B1 (en) | 2018-10-24 | 2025-04-09 | 삼성전자주식회사 | Localization method based on images and map data and apparatus thereof |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3631541B2 (en) * | 1995-11-29 | 2005-03-23 | 池上通信機株式会社 | Object tracking method using stereo images |
| JP3643157B2 (en) * | 1995-11-29 | 2005-04-27 | 池上通信機株式会社 | Object height measurement method using stereo images |
| KR20000032853A (en) * | 1998-11-18 | 2000-06-15 | 김운용 | System and method for face recognition with three-dimensional masking method |
| KR100544677B1 (en) * | 2003-12-26 | 2006-01-23 | 한국전자통신연구원 | 3D object tracking device and method using multiview image and depth information |
-
2010
- 2010-04-28 WO PCT/KR2010/002673 patent/WO2011136407A1/en not_active Ceased
- 2010-04-28 KR KR1020100039366A patent/KR101139389B1/en active Active
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2013157685A1 (en) * | 2012-04-20 | 2013-10-24 | (주)아이티엑스시큐리티 | Three-dimensional motion detection apparatus and detection method using stereo camera |
| KR20130119288A (en) * | 2012-04-23 | 2013-10-31 | 한국전자통신연구원 | Apparatus and method for correcting information of position |
| KR101645451B1 (en) * | 2015-04-14 | 2016-08-12 | 공간정보기술 주식회사 | Spatial analysis system using stereo camera |
| KR20170129543A (en) * | 2016-05-17 | 2017-11-27 | 에스케이텔레콤 주식회사 | Method and Apparatus for Estimating Mounting Height of Camera |
| WO2018101603A1 (en) * | 2016-12-02 | 2018-06-07 | (주)비전에스티 | Road object recognition method and device using stereo camera |
| KR20190120619A (en) * | 2018-04-16 | 2019-10-24 | 주식회사 루씨드드림 | Method And System for Rendering for Binocular Disparity Image |
| CN112686931A (en) * | 2020-12-22 | 2021-04-20 | 北京百度网讯科技有限公司 | Image recognition method, garbage dumping behavior detection method, equipment and medium |
| WO2024063242A1 (en) * | 2022-09-20 | 2024-03-28 | 한화비전 주식회사 | Apparatus and method for image analysis |
Also Published As
| Publication number | Publication date |
|---|---|
| KR101139389B1 (en) | 2012-04-27 |
| WO2011136407A1 (en) | 2011-11-03 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR101139389B1 (en) | Video Analysing Apparatus and Method Using Stereo Cameras | |
| CN111066065B (en) | Systems and methods for hybrid deep regularization | |
| KR101283262B1 (en) | Method of image processing and device thereof | |
| US6701005B1 (en) | Method and apparatus for three-dimensional object segmentation | |
| CN118424232B (en) | An underwater structure ranging system based on computer vision | |
| CN108876856B (en) | Fire source identification and positioning method and system for large building | |
| CN107392958B (en) | Method and device for determining object volume based on binocular stereo camera | |
| CN102567713A (en) | Image processing apparatus | |
| KR101148029B1 (en) | Video Analysing Apparatus and Method Using 3D Camera | |
| KR20150053438A (en) | Stereo matching system and method for generating disparity map using the same | |
| KR102110459B1 (en) | Method and apparatus for generating three dimension image | |
| CN111630569B (en) | Binocular matching method, visual imaging device and device with storage function | |
| KR100799990B1 (en) | 3D image conversion device and method of 2D image | |
| KR20170001448A (en) | Apparatus for measuring position of camera using stereo camera and method using the same | |
| KR100943635B1 (en) | Method and apparatus for generating disparity map using digital camera image | |
| WO2014092550A2 (en) | Method for camera motion estimation with presence of moving object | |
| KR101226668B1 (en) | 3 Dimensional Motion Recognition System and Method Using Stereo Camera | |
| JP2020006788A (en) | Construction limit determination device | |
| KR101281003B1 (en) | Image processing system and method using multi view image | |
| KR20160024419A (en) | System and Method for identifying stereo-scopic camera in Depth-Image-Based Rendering | |
| KR101581586B1 (en) | Compensation method for noise of depth image | |
| CN117841005A (en) | A binocular vision positioning method for underwater robot target grasping | |
| Jorissen et al. | Multi-view wide baseline depth estimation robust to sparse input sampling | |
| CN110473246B (en) | A ranging method for multiple occlusion targets based on binocular vision | |
| CN116520345A (en) | Method and system for detecting and tracking depth information of laser radar and video target |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A201 | Request for examination | ||
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20100428 |
|
| PA0201 | Request for examination | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20111031 Patent event code: PE09021S01D |
|
| PG1501 | Laying open of application | ||
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20120323 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20120417 Patent event code: PR07011E01D |
|
| PR1002 | Payment of registration fee |
Payment date: 20120418 End annual number: 3 Start annual number: 1 |
|
| PG1601 | Publication of registration | ||
| FPAY | Annual fee payment |
Payment date: 20150507 Year of fee payment: 4 |
|
| PR1001 | Payment of annual fee |
Payment date: 20150507 Start annual number: 4 End annual number: 4 |
|
| FPAY | Annual fee payment |
Payment date: 20160425 Year of fee payment: 5 |
|
| PR1001 | Payment of annual fee |
Payment date: 20160425 Start annual number: 5 End annual number: 5 |
|
| FPAY | Annual fee payment |
Payment date: 20170407 Year of fee payment: 6 |
|
| PR1001 | Payment of annual fee |
Payment date: 20170407 Start annual number: 6 End annual number: 6 |
|
| FPAY | Annual fee payment |
Payment date: 20180402 Year of fee payment: 7 |
|
| PR1001 | Payment of annual fee |
Payment date: 20180402 Start annual number: 7 End annual number: 7 |
|
| FPAY | Annual fee payment |
Payment date: 20190401 Year of fee payment: 8 |
|
| PR1001 | Payment of annual fee |
Payment date: 20190401 Start annual number: 8 End annual number: 8 |
|
| PR1001 | Payment of annual fee |
Payment date: 20200416 Start annual number: 9 End annual number: 9 |
|
| PR1001 | Payment of annual fee |
Payment date: 20210401 Start annual number: 10 End annual number: 10 |
|
| PR1001 | Payment of annual fee |
Payment date: 20220916 Start annual number: 11 End annual number: 11 |
|
| PR1001 | Payment of annual fee |
Payment date: 20230207 Start annual number: 12 End annual number: 12 |
|
| PR1001 | Payment of annual fee |
Payment date: 20240326 Start annual number: 13 End annual number: 13 |
|
| PR1001 | Payment of annual fee |
Payment date: 20250310 Start annual number: 14 End annual number: 14 |