[go: up one dir, main page]

KR20090030142A - Image-based Human Blob Tracking Method - Google Patents

Image-based Human Blob Tracking Method Download PDF

Info

Publication number
KR20090030142A
KR20090030142A KR1020070095493A KR20070095493A KR20090030142A KR 20090030142 A KR20090030142 A KR 20090030142A KR 1020070095493 A KR1020070095493 A KR 1020070095493A KR 20070095493 A KR20070095493 A KR 20070095493A KR 20090030142 A KR20090030142 A KR 20090030142A
Authority
KR
South Korea
Prior art keywords
blob
blobs
frame
current frame
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020070095493A
Other languages
Korean (ko)
Other versions
KR100911121B1 (en
Inventor
양현승
최진
조용일
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020070095493A priority Critical patent/KR100911121B1/en
Publication of KR20090030142A publication Critical patent/KR20090030142A/en
Application granted granted Critical
Publication of KR100911121B1 publication Critical patent/KR100911121B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Image Analysis (AREA)

Abstract

이 발명은 비디오 카메라에서 촬영된 영상 기반의 영상감시시스템에서, 연속되는 영상에서 화면에 등장하는 사람들의 블랍(blob)을 연속적으로 추적하는 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for continuously tracking a blob of people appearing on a screen in a continuous image in an image based video surveillance system captured by a video camera.

이 발명에 따른 영상 기반 인간 블랍 추적시스템은, 동영상으로부터 프레임을 추출하는 프레임추출부와, 프레임별 블랍들에 관한 정보를 저장하는 블랍정보저장부와, 상기 프레임추출부에서 추출된 현재 프레임에서 사람 영역을 블랍들로 추출하는 블랍추출부와, 상기 현재 프레임에서 추출된 블랍들과 상기 블랍정보저장부에 저장된 이전 프레임에서 추출된 블랍들간 거리를 계산하는 거리계산부와, 상기 거리계산부에서 계산된 블랍들간 거리와 상기 블랍정보저장부에 저장된 이전 프레임에서의 블랍 정보를 이용하여 현재 프레임에서 추출된 블랍들의 상태를 분류하고 사람집합 정보를 할당하며 상기 블랍정보저장부에 저장하는 블랍상태파악부를 포함한다.An image-based human blob tracking system according to the present invention includes a frame extractor for extracting a frame from a video, a blob information storage unit for storing information about the frames of each frame, and a person in the current frame extracted by the frame extractor. A blob extraction unit for extracting an area into blobs, a distance calculator for calculating a distance between the blobs extracted from the current frame and the blobs extracted from the previous frame stored in the blob information storage unit, and the distance calculator The blob state detection unit classifies the blobs extracted from the current frame, allocates the set of people, and stores the blob information stored in the blob information storage unit by using the distance between the blobs and the blob information of the previous frame stored in the blob information storage unit. Include.

Description

영상 기반의 인간 블랍 추적시스템 및 방법 {Image-based human blob tracking system and method}Image-based human blob tracking system and method

이 발명은 비디오 카메라에서 촬영된 영상 기반의 영상감시시스템에서, 연속되는 영상에서 화면에 등장하는 사람들의 블랍(blob)을 연속적으로 추적하는 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for continuously tracking a blob of people appearing on a screen in a continuous image in an image based video surveillance system captured by a video camera.

영상 기반의 추적기술로서, 물체추적, 인간추적, 손추적 등의 기술 등이 제안되고 있다. 종래기술에서는 화면상에 나타나는 물체(손과 인간을 통칭)의 위치를 기준으로 이동경로를 예측하고 물체의 위치정보를 이용하여 물체를 추적하였다. 그래서, 화면상에서 여러 개의 물체가 겹쳐졌다가 떨어지는 경우에는 기존의 물체를 그대로 추적하지 못하고 추적 물체가 뒤바뀌는 문제점이 발생한다.As image-based tracking technology, techniques such as object tracking, human tracking, and hand tracking have been proposed. In the prior art, the movement path is predicted based on the position of an object (collectively, hand and human) appearing on the screen, and the object is tracked using the position information of the object. Thus, when several objects overlap and fall on the screen, a problem arises in that the tracking object is reversed without being able to track the existing object as it is.

또한, 지금까지의 손추적이나 인간추적 기술의 경우에는 주로 한 사람만을 추적 대상으로 하고 있는 바, 한 사람이나 하나의 손을 추출하여 그 모양을 분석하는 연구는 많이 진행되었지만, 여러 사람을 동시에 추적하면서 블랍의 모양을 분석해 나가는 연구는 거의 진행된 바가 없다.In addition, in the hand tracking and human tracking technology, only one person is mainly tracked, and a lot of researches on extracting one person or one hand and analyzing the shape have been conducted. Little research has been done to analyze the shape of the blobs.

이 발명은 상기의 종래기술의 문제점을 해결하기 위한 것으로서, 비디오 카메라 영상을 기반으로 여러 사람이 등장하고 사라지고 겹치기도 하는 상황에서 여러 사람을 동시에 추적하면서 동시에 인간 블랍의 모양 정보까지 추출해 내는 시스템 및 방법을 제안한다.The present invention is to solve the problems of the prior art, a system and method for simultaneously extracting the shape information of the human blob while simultaneously tracking several people in the situation where many people appear, disappear and overlap based on the video camera image Suggest.

상기한 목적을 달성하기 위한 이 발명에 따른 영상 기반의 인간 블랍 추적시스템은, 동영상으로부터 프레임을 추출하는 프레임추출부와, 프레임별 블랍들에 관한 정보를 저장하는 블랍정보저장부와, 상기 프레임추출부에서 추출된 현재 프레임에서 사람 영역을 블랍들로 추출하는 블랍추출부와, 상기 현재 프레임에서 추출된 블랍들과 상기 블랍정보저장부에 저장된 이전 프레임에서 추출된 블랍들간 거리를 계산하는 거리계산부와, 상기 거리계산부에서 계산된 블랍들간 거리와 상기 블랍정보저장부에 저장된 이전 프레임에서의 블랍 정보를 이용하여 현재 프레임에서 추출된 블랍들의 상태를 분류하고 사람집합 정보를 할당하며 상기 블랍정보저장부에 저장하는 블랍상태파악부를 포함한 것을 특징으로 한다.In order to achieve the above object, an image-based human blob tracking system according to the present invention includes a frame extractor for extracting a frame from a video, a blob information storage unit for storing information about the frames of each frame, and the frame extractor. A blob extraction unit for extracting a human region from the current frame extracted from the unit as blobs, and a distance calculator for calculating the distance between the blobs extracted from the current frame and the blobs extracted from the previous frame stored in the blob information storage unit. And classifying the blobs extracted from the current frame by using the distance between the blobs calculated by the distance calculator and the blob information of the previous frame stored in the blob information storage unit, assigning the set of people, and storing the blob information. Characterized in that it comprises a blob state to be stored in the wealth.

또한, 이 발명에 따른 영상 기반의 인간 블랍 추적방법은, 동영상으로부터 프레임을 추출하는 프레임추출단계와, 상기 프레임추출단계에서 추출된 현재 프레임에서 사람 영역을 블랍들로 추출하는 블랍추출단계와, 상기 현재 프레임에서 추출된 블랍들과 이전 프레임에서 추출된 블랍들간 거리를 계산하는 거리계산단계와, 상기 거리계산단계에서 계산된 블랍들간 거리와 상기 이전 프레임에서의 블랍 정보를 이용하여 현재 프레임에서 추출된 블랍들의 상태를 분류하고 사람집합 정보를 할당하는 블랍상태파악단계와, 상기 현재 프레임에서 추출된 블랍정보를 저장하는 블랍정보저장단계를 포함한 것을 특징으로 한다.In addition, an image-based human blob tracking method according to the present invention includes a frame extraction step of extracting a frame from a video, a blob extraction step of extracting a human region from the current frame extracted in the frame extraction step as blobs, and A distance calculation step of calculating the distance between the blobs extracted in the current frame and the blobs extracted in the previous frame, and extracted from the current frame by using the distance between the blobs calculated in the distance calculation step and the blob information in the previous frame And a blob status grasping step of classifying the blobs' status and allocating person set information, and a blob information storing step of storing blob information extracted from the current frame.

이 발명에 따르면 동영상에 포함된 여러 사람의 행동 및 움직임을 동시에 정확하게 추적하여 행동인식에 사용할 수 있는 잇점이 있다.According to the present invention, there is an advantage in that it can accurately and accurately track the actions and movements of several people included in the video and use them in action recognition.

이하, 첨부된 도면을 참조하면서 이 발명에 따른 영상 기반의 인간 블랍 추적시스템 및 방법을 보다 상세하게 설명한다.Hereinafter, an image-based human blob tracking system and method according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 이 발명에 따른 영상 기반 인간 블랍 추적시스템의 기능 블록도이다.1 is a functional block diagram of an image-based human blob tracking system according to the present invention.

이 영상 기반의 인간 블랍 추적시스템은 동영상을 획득하는 영상획득부(11)와, 상기 동영상으로부터 프레임을 추출하는 프레임추출부(12)와, 프레임별 블랍들에 관한 정보를 저장하는 블랍정보저장부(13)와, 프레임추출부(12)에서 추출된 현재 프레임에서 인간 블랍들을 추출하는 블랍추출부(14)와, 현재 프레임에서 추출된 블랍들과 블랍정보저장부(13)에 저장된 이전 프레임에서 추출된 블랍들간 거리를 계산하는 거리계산부(15)와, 거리계산부(15)에서 계산된 블랍들간 거리와 상기 블랍정보저장부(13)에 저장된 이전 프레임에서의 블랍 정보를 이용하여 현재 프레임에서 추출된 블랍들의 상태를 분류하고 블랍정보저장부(13)에 저장하는 블랍상태파악부(16)를 포함한다.The image-based human blob tracking system includes an image acquisition unit 11 for acquiring a video, a frame extractor 12 for extracting a frame from the video, and a blob information storage unit for storing information about the blobs for each frame. 13, a blob extractor 14 for extracting human blobs from the current frame extracted from the frame extractor 12, and a blob extracted from the current frame and the previous frame stored in the blob information storage unit 13; The current frame using the distance calculator 15 for calculating the distance between the extracted blobs, the distance between the blobs calculated by the distance calculator 15 and the blob information of the previous frame stored in the blob information storage unit 13. The blob state detection unit 16 for classifying the state of the blobs extracted from and stored in the blob information storage unit (13).

거리계산부(15)는 각 블랍들의 무게중심, 크기, 색조 히스토그램분포도를 구하고, 이를 이용하여 블랍들간 거리를 계산한다.The distance calculator 15 calculates the weight center, size, and hue histogram distribution of each blob, and calculates the distance between the blobs using the blobs.

블랍상태파악부(16)는 블랍을 5가지 상태 즉, 등장(appearing), 퇴장(disappearing), 추적(tracking continuation), 병합(merging), 분리(splitting) 상태로 구분한다. 등장(appearing) 상태라 함은 블랍이 영상의 특정영역 내에 새롭게 들어오는 상태이고, 퇴장(disappearing) 상태라 함은 블랍이 영상의 특정영역을 벗어나는 상태이고, 추적(tracking continuation) 상태라 함은 블랍이 특정영역 내에서 이동하는 상태이고, 병합(merging) 상태라 함은 이전 프레임에서 두 개 이상의 블랍이 현재 프레임에서 하나의 블랍으로 합쳐지는 상태이고, 분리(splitting) 상태라 함은 이전 프레임에서 한 개의 블랍이 현재 프레임에서 두 개 이상의 블랍으로 분리되는 상태이다.The blob state detection unit 16 divides the blob into five states, namely, appearance, disappearing, tracking continuation, merging, and splitting. The appearing state means that the blob is newly entering a specific region of the image, and the disappearing state means that the blob leaves the specific region of the image, and the tracking continuation state It is a state moving within a specific area, merging is a state in which two or more blobs are merged into one blob in the current frame, and a splitting state is one in the previous frame. The blob is split into two or more blobs in the current frame.

블랍상태파악부(16)는 현재 프레임에서 추출된 블랍들과 이전 프레임에서 추출된 블랍들간의 거리를 계산하여, 상호 매칭되는 블랍이 있는 지를 판단한다. 판단결과, 매칭되는 블랍이 있으면 해당 블랍이 특정 영역을 벗어나는 퇴장 상태인지를 판단한다. 해당 블랍이 특정 영역을 벗어나는 퇴장 상태이면 퇴장 상태로 판단하고 매칭되는 사람정보를 할당하여 저장하며, 특정 영역 내에 존재하면 추적 상태로 판단하여 매칭되는 사람정보를 할당하여 저장한다.The blob state detecting unit 16 calculates the distance between the blobs extracted in the current frame and the blobs extracted in the previous frame to determine whether there are blobs matching each other. As a result of the determination, if there is a matching blob, it is determined whether the blob is out of a specific area. If the blob is in an exited state out of a specific area, it is determined as an exited state and assigned and stored with matching person information. If the blob is in a specific area, it is determined as a tracking state and assigned and stored as matching person information.

한편, 현재 프레임의 블랍과 이전 프레임의 블랍이 매칭되지 않으면 병합(merging), 분리(splitting), 등장(appearing) 상태인지를 순차적으로 확인한다. 병합 상태인 경우에는 이전 프레임의 병합 전 블랍들에 할당된 사람정보를 합하여 새로운 병합된 블랍 정보로서 저장한다. 또한, 분리 상태인 경우에는 이전 프레임의 블랍 정보를 이용하여 분리된 블랍에 적절한 사람정보를 할당하여 저장한다. 등장 상태인 경우에는 등장한 블랍에 새로운 사람정보를 할당하여 저장한다.On the other hand, if the blob of the current frame and the blob of the previous frame do not match, it is sequentially checked whether it is merging, splitting, or appearing. In the merged state, the person information allocated to the blobs before the merge of the previous frame is added and stored as the new merged blob information. In the separated state, appropriate blob information is allocated to the separated blob and stored using the blob information of the previous frame. In the case of appearance, new person information is allocated to the appeared blob and stored.

여러 사람이 동시에 움직이고 있을 때 개인별 행동들을 인식하기 위해서는 비디오카메라에서 촬영되는 순차적인 영상들에서 사람이라고 생각되는 블랍들을 구분하고, 순차적인 프레임에서의 블랍들 사이의 관계를 결정해야 한다. 여러 사람의 행동들을 인식하고자 하는 시스템에서 다수의 블랍들을 추적하는 문제를 단순화하기 위하여 다음과 같은 가정을 한다.In order to recognize individual actions when several people are moving at the same time, it is necessary to distinguish blobs that are considered to be humans in sequential images captured by a video camera, and to determine relationships between blobs in sequential frames. To simplify the problem of tracking multiple blobs in a system that wants to recognize the actions of different people, the following assumptions are made:

1. 동시에 두 사람 이상이 화면상에 나타나거나 사라지지 않는다. 화면상에 사람이 나타날 때는 한 사람씩 등장하고 사라진다.1. Two or more people do not appear or disappear on the screen at the same time. When people appear on the screen, they appear and disappear one by one.

2. 화면 중앙부분에서 갑자기 사람이 사라지지 않는다. 사람의 이동속도와 카메라의 시점을 고려할 때 화면의 중앙에 있던 사람이 화면밖으로 사라지는 일은 없다고 가정한다.2. People do not disappear suddenly in the center of the screen. Considering the movement speed of the person and the viewpoint of the camera, it is assumed that the person in the center of the screen does not disappear out of the screen.

3. 태그와 같은 추가적인 정보없이 사람들을 구분해 내야 하기 때문에 사람들마다 다른 모습(색상)을 하고 있다고 가정하고 외관모델(appearance model)을 사용하여 사람들을 구분한다.3. Since people must be identified without additional information such as tags, assume that people have different appearances (colors), and use the appearance model to distinguish people.

도 2를 참조하여, 이 발명의 한 실시예에 따른 영상 기반의 인간 블랍 추적방법을 설명한다.Referring to FIG. 2, an image-based human blob tracking method according to an embodiment of the present invention will be described.

먼저, 동영상획득부(11)는 동영상을 획득한다(단계 S21).First, the video acquisition unit 11 acquires a video (step S21).

프레임추출부(12)는 획득된 동영상에 대해 영상 프레임을 추출한다(단계 S22).The frame extractor 12 extracts an image frame with respect to the obtained video (step S22).

블랍추출부(14)는 프레임추출부(12)에서 추출된 영상 프레임으로부터 사람의 영역을 블랍으로 추출한다(단계 S23).The blob extractor 14 extracts a human area from the image frame extracted by the frame extractor 12 as a blob (step S23).

영상 프레임 t에서의 블랍집합을 Bt라고 하면, 이 Bt는 수학식 1과 같이 표현된다.When a set of blobs from the image frame as t B t, B t a is expressed as Equation (1).

Figure 112007068014718-PAT00001
Bt = { | i는 정수, 1≤i≤n-1}
Figure 112007068014718-PAT00001
B t = {| i is an integer, 1≤i≤n-1}

여기서, n은 전체 블랍의 개수이며,

Figure 112007068014718-PAT00002
는 프레임 t에서의 i번째 블랍을 나타내며, 배경픽셀(background pixels)를 제외한 전경픽셀(foreground pixel)들의 하나의 연결성분(connected component)으로 구해진다. 보통 하나의 블랍
Figure 112007068014718-PAT00003
은 한 사람을 의미하지만(조명, 그림자 등의 잡음에 의해 분할된 블랍들은 모두 제거되었다고 가정한다), 두 사람 이상이 화면상에서 중첩되는 경우에는 하나의 블랍
Figure 112007068014718-PAT00004
이 두 사람 이상을 의미하기도 한다. 이와 같이 한 블랍이 의미하는 사람들의 집합을
Figure 112007068014718-PAT00005
로 표시한다.Where n is the total number of blobs,
Figure 112007068014718-PAT00002
Denotes the i-th blob in frame t, and is obtained as one connected component of foreground pixels except for background pixels. Usually one blob
Figure 112007068014718-PAT00003
Means one person (assuming all blobs split by noise such as lighting, shadows, etc. are removed), but one blob if two or more people overlap on screen
Figure 112007068014718-PAT00004
It also means more than two people. This blob means a set of people
Figure 112007068014718-PAT00005
To be displayed.

거리계산부(15)는 순차적인 프레임들에서 각각의 블랍들의 관계를 결정하여야 각 블랍들이 의미하는 사람들을 구분할 수 있도록, 프레임 t의 블랍집합 Bt에 포 함된 모든 블랍들과, 이전 프레임 t-1의 블랍집합 Bt -1에 포함된 모든 블랍들 간의 거리

Figure 112007068014718-PAT00006
(여기서, 0≤i≤Bt의 원소의 개수, 0≤j≤ Bt -1의 원소의 개수이다.)를 계산한다(단계 S24). 두 블랍간 거리
Figure 112007068014718-PAT00007
는 아래의 수학식 2와 같이 구한다.The distance calculator 15 must determine the relationship of each blob in the sequential frames so that each blob can be distinguished from all blobs included in the blob set B t of the frame t, and the previous frame t−. The distance between all the blobs in the blob set B t -1 of 1
Figure 112007068014718-PAT00006
(Here, the number of elements of 0 ≦ i ≦ B t and the number of elements of 0 ≦ j ≦ B t −1 ) is calculated (step S24). Two Blobgan Streets
Figure 112007068014718-PAT00007
Is obtained as in Equation 2 below.

Figure 112007068014718-PAT00008
Figure 112007068014718-PAT00008

여기서, Dsize는 두 블랍의 정규화된 크기 차이이고, Dcent는 두 블랍의 무게중심간의 정규화된 거리이고, Dhue는 두 블랍의 색조(hue) 히스토그램의 정규화된 거리를 나타낸다. 또한,

Figure 112007068014718-PAT00009
는 각 요소의 가중치를 나타내며, 0≤
Figure 112007068014718-PAT00010
≤1, 0≤
Figure 112007068014718-PAT00011
≤1, 0≤
Figure 112007068014718-PAT00012
≤1,
Figure 112007068014718-PAT00013
의 조건을 만족한다.Where D size is the normalized size difference between the two blobs, D cent is the normalized distance between the centers of gravity of the two blobs, and D hue represents the normalized distance of the hue histogram of the two blobs. Also,
Figure 112007068014718-PAT00009
Represents the weight of each element, 0≤
Figure 112007068014718-PAT00010
≤1, 0≤
Figure 112007068014718-PAT00011
≤1, 0≤
Figure 112007068014718-PAT00012
≤1,
Figure 112007068014718-PAT00013
Satisfies the conditions.

블랍상태파악부(16)는 프레임 t의 블랍집합의 각 블랍의 상태를 파악하고 사람을 할당하는데(단계 S25), 블랍상태파악루틴을 도 3의 흐름도를 참조하여 상세하게 설명한다.The blob state detection unit 16 determines the state of each blob of the blob set of the frame t and assigns a person (step S25). The blob state detection routine will be described in detail with reference to the flowchart of FIG.

프레임 t에서의 임의의 한 블랍

Figure 112007068014718-PAT00014
에 대해
Figure 112007068014718-PAT00015
가 최소가 되는 j를 구하여 jmin이라 하고(단계 S31),
Figure 112007068014718-PAT00016
이 임계값보다 작으면(단계 S32), 두 블랍(
Figure 112007068014718-PAT00017
,
Figure 112007068014718-PAT00018
)을 매칭하고(단계 S33), 블랍
Figure 112007068014718-PAT00019
에 할당된 사람집합
Figure 112007068014718-PAT00020
을 블랍
Figure 112007068014718-PAT00021
에 할당한다(단계 S34).Any one blob at frame t
Figure 112007068014718-PAT00014
About
Figure 112007068014718-PAT00015
Let j be the minimum and call it j min (step S31),
Figure 112007068014718-PAT00016
If less than this threshold (step S32), two blobs (
Figure 112007068014718-PAT00017
,
Figure 112007068014718-PAT00018
) (Step S33), and the blob
Figure 112007068014718-PAT00019
Set of people assigned to
Figure 112007068014718-PAT00020
Blob
Figure 112007068014718-PAT00021
(Step S34).

이 블랍

Figure 112007068014718-PAT00022
이 영상의 특정영역 내에 존재하면(단계 S35), 이 블랍
Figure 112007068014718-PAT00023
를 추적(tracking continuation) 상태로 판단하고(단계 S36), 이 블랍
Figure 112007068014718-PAT00024
이 영상의 특정영역 내에 존재하지 않으면(단계 S35) 퇴장(disappearing) 상태로 판단한다(단계 S37).This blob
Figure 112007068014718-PAT00022
If present in a specific area of this image (step S35), this blob
Figure 112007068014718-PAT00023
Is determined to be a tracking continuation state (step S36), and the blob
Figure 112007068014718-PAT00024
If it is not present in the specific area of the image (step S35), it is determined to be in a disappearing state (step S37).

한편, 단계 S32에서

Figure 112007068014718-PAT00025
이 임계값보다 작지 않으면, 프레임 t에서의 임의의 한 블랍
Figure 112007068014718-PAT00026
와 매칭되는 프레임 t-1에서의 블랍이 없는 것으로 인지한다. 이 경우, 블랍
Figure 112007068014718-PAT00027
은 병합(merging) 상태, 분리(splitting) 상태, 등장(appearing) 상태 중 한 상태가 된다. 아래에서는 블랍
Figure 112007068014718-PAT00028
을 병합 상태, 분리 상태, 등장 상태로 판단하는 과정을 설명한다.On the other hand, in step S32
Figure 112007068014718-PAT00025
If it is not less than this threshold, any one blob in frame t
Figure 112007068014718-PAT00026
Recognize that there is no blob in frame t-1 that matches. In this case, the blob
Figure 112007068014718-PAT00027
Is one of a merging state, a splitting state, and an appearing state. Blob from below
Figure 112007068014718-PAT00028
It describes the process of determining the merge state, separation state, appearance state.

도 4는 블랍들의 병합 및 분리를 판단시

Figure 112007068014718-PAT00029
와 Bt -1의 관계를 도시한 도면이다.Figure 4 determines the merging and separation of the blobs
Figure 112007068014718-PAT00029
And B t -1 .

프레임 t의 블랍

Figure 112007068014718-PAT00030
와 프레임 t-1의 블랍 집합 Bt -1의 겹치는 블랍들의 집합을 구하여 그 중 한 원소를 bx라고 가정한다(단계 S38). 이를 수식으로 표현하면 수학식 3과 같다.Blob of frame t
Figure 112007068014718-PAT00030
And a set of overlapping blobs of the blob set B t -1 of frame t-1 and one of them is assumed to be b x (step S38). If this is expressed as an equation, Equation 3 is obtained.

Figure 112007068014718-PAT00031
bx ∈ {Bt -1 ∩ }
Figure 112007068014718-PAT00031
b x ∈ {B t -1 ∩}

이때, 와 Bt -1이 관련이 있는 지를 판단하는데(단계 S39), 도 4와 같이 bx

Figure 112007068014718-PAT00033
와 유사하면
Figure 112007068014718-PAT00034
를 병합상태로 판단하고 bx
Figure 112007068014718-PAT00035
와 유사하면
Figure 112007068014718-PAT00036
를 분리상태로 판단한다(단계 S40).
Figure 112007068014718-PAT00037
가 병합상태로 판단된 경우에는,
Figure 112007068014718-PAT00038
가 의미하는 사람집합은 프레임 t-1의 병합전 각 블랍들에 할당된 사람들의 집합의 합집합으로 구한다.
Figure 112007068014718-PAT00039
가 분리상태로 판단된 경우에는,
Figure 112007068014718-PAT00040
가 의미하는 사람집합은 사람들의 외관모델들을 이용하여 모든 확률을 계산하여 가장 높은 확률을 가지는 사람을 할당한다.At this time, And B t −1 are related (step S39), and b x is as shown in FIG.
Figure 112007068014718-PAT00033
Is similar to
Figure 112007068014718-PAT00034
Is determined to be a merged state and b x is
Figure 112007068014718-PAT00035
Is similar to
Figure 112007068014718-PAT00036
It is determined that the separation state (step S40).
Figure 112007068014718-PAT00037
If is determined to be merged,
Figure 112007068014718-PAT00038
Means the union of the set of people assigned to each blob before the merge of frame t-1.
Figure 112007068014718-PAT00039
If is determined to be in the disconnected state,
Figure 112007068014718-PAT00040
Means that the person with the highest probability is assigned by calculating all the probabilities using people's appearance models.

단계 S39에서 블랍

Figure 112007068014718-PAT00041
가 Bt -1과 관련이 없으면, 이 블랍
Figure 112007068014718-PAT00042
를 등장 상태로 판단한다(S41). 이 경우에는 새로운 식별자를 가지는 새로운 사람집합을 할당한다.Blob in Step S39
Figure 112007068014718-PAT00041
Is not related to B t -1 , this blob
Figure 112007068014718-PAT00042
It is determined that the appearance state (S41). In this case, we assign a new set of people with a new identifier.

이상에서 이 발명에 대한 기술 사상을 첨부 도면과 함께 서술하였지만, 이는 이 발명의 가장 양호한 일 실시예를 예시적으로 설명한 것이지 이 발명을 한정하는 것은 아니다. 또한, 이 기술 분야의 통상의 지식을 가진 자이면 누구나 이 발명의 기술 사상의 범주를 이탈하지 않는 범위 내에서 다양한 변형 및 모방이 가능함은 명백한 사실이다.Although the technical spirit of the present invention has been described above with the accompanying drawings, it is intended to exemplarily describe the best embodiment of the present invention, but not to limit the present invention. In addition, it is obvious that any person skilled in the art may make various modifications and imitations without departing from the scope of the technical idea of the present invention.

이 발명은 영상감시시스템(Visual Surveillance System)의 시각처리 소프트웨어에 해당하는 기술로서, 유비쿼터스 컴퓨팅(Ubiquitous Computing), 휴먼-로봇인터랙션(Human-robot Interaction), 차세대 인터페이스 등의 기술분야에 활용할 수 있다.This invention is a technology corresponding to the visual processing software of the Visual Surveillance System, and can be utilized in the technical fields such as ubiquitous computing, human-robot interaction, and next-generation interface.

도 1은 이 발명에 따른 영상 기반 인간 블랍 추적시스템의 기능 블록도,1 is a functional block diagram of an image-based human blob tracking system according to the present invention;

도 2는 이 발명에 따른 영상 기반의 인간 블랍 추적방법의 개략적인 동작 흐름도,2 is a schematic operation flowchart of an image-based human blob tracking method according to the present invention;

도 3은 이 발명에 따른 블랍상태파악루틴의 상세한 동작 흐름도,3 is a detailed operation flowchart of the blob state grabbing routine according to the present invention;

도 4는 블랍들의 병합 및 분리를 판단시

Figure 112007068014718-PAT00043
와 Bt -1의 관계를 도시한 도면이다.Figure 4 determines the merging and separation of the blobs
Figure 112007068014718-PAT00043
And B t -1 .

< 도면의 주요 부분에 대한 부호의 간단한 설명 >     <Brief description of symbols for the main parts of the drawings>

11 : 영상획득부 12 : 프레임추출부11: image acquisition unit 12: frame extraction unit

13 : 블랍정보저장부 14 : 블랍추출부13: blob information storage unit 14: blob extraction unit

15 : 거리계산부 16 : 블랍상태파악부15: distance calculation unit 16: blob state detection unit

Claims (12)

동영상으로부터 프레임을 추출하는 프레임추출부와,A frame extractor which extracts a frame from a video; 프레임별 블랍들에 관한 정보를 저장하는 블랍정보저장부와,A blob information storage unit for storing information about the blobs of each frame; 상기 프레임추출부에서 추출된 현재 프레임에서 사람 영역을 블랍들로 추출하는 블랍추출부와,A blob extracting unit extracting a human region into blobs in the current frame extracted by the frame extracting unit; 상기 현재 프레임에서 추출된 블랍들과 상기 블랍정보저장부에 저장된 이전 프레임에서 추출된 블랍들간 거리를 계산하는 거리계산부와,A distance calculator for calculating a distance between the blobs extracted from the current frame and the blobs extracted from the previous frame stored in the blob information storage unit; 상기 거리계산부에서 계산된 블랍들간 거리와 상기 블랍정보저장부에 저장된 이전 프레임에서의 블랍 정보를 이용하여 현재 프레임에서 추출된 블랍들의 상태를 분류하고 사람집합 정보를 할당하며 상기 블랍정보저장부에 저장하는 블랍상태파악부를 포함한 것을 특징으로 하는 영상 기반의 인간 블랍 추적시스템.Classify the blobs extracted from the current frame by using the distance between the blobs calculated by the distance calculator and the blob information of the previous frame stored in the blob information storage unit, and assigns the set of people to the blob information storage unit. An image-based human blob tracking system comprising a blob state detection unit for storing. 제 1 항에 있어서, 상기 거리계산부는 상기 블랍들의 무게중심, 크기, 색조 히스토그램분포도를 이용하여 블랍들간 거리를 계산하는 것을 특징으로 하는 영상 기반의 인간 블랍 추적시스템.The image-based human blob tracking system of claim 1, wherein the distance calculator calculates a distance between the blobs using a center of gravity, size, and hue histogram distribution of the blobs. 제 1 항에 있어서, 상기 블랍상태파악부는 상기 블랍들의 상태를 등장(appearing), 퇴장(disappearing), 추적(tracking continuation), 병합(merging), 분리(splitting) 상태로 구분하여 분류하는 것을 특징으로 하는 영상 기반의 인간 블랍 추적시스템.The method of claim 1, wherein the blob state detection unit classifies the blobs into classifications such as appearing, disappearing, tracking continuation, merging, and splitting. Image-based human blob tracking system. 제 3 항에 있어서, 상기 블랍상태파악부는, The method of claim 3, wherein the blob state detection unit, 상기 현재 프레임의 임의의 블랍에 대해, 상기 현재 프레임의 블랍과 이전 프레임의 블랍들과의 최소 거리가 임계값 이하이면 상기 현재 프레임의 블랍과 상기 최소 거리의 블랍을 매칭하고, 상기 현재 프레임의 블랍의 위치에 따라 상기 현재 프레임의 블랍 상태를 추적 상태 또는 퇴장 상태로 판단하는 것을 특징으로 하는 영상 기반의 인간 블랍 추적시스템.For any blob of the current frame, if the blob of the current frame and the blobs of the previous frame are less than or equal to a threshold, the blob of the current frame and the blob of the minimum distance are matched, and the blob of the current frame The image-based human blob tracking system of claim 1, wherein the blob state of the current frame is determined as a tracking state or an exit state according to the position of the frame. 제 4 항에 있어서, 상기 현재 프레임의 블랍과 상기 최소 거리의 블랍이 매칭되면 상기 최소 거리의 블랍에 할당된 사람집합을 상기 현재 프레임의 블랍에 할당하는 것을 특징으로 하는 영상 기반의 인간 블랍 추적시스템.The image-based human blob tracking system of claim 4, wherein if the blob of the current frame matches the blob of the minimum distance, the set of persons assigned to the blob of the minimum distance is allocated to the blob of the current frame. . 제 3 항에 있어서, 상기 블랍상태파악부는,The method of claim 3, wherein the blob state detection unit, 상기 현재 프레임의 임의의 블랍에 대해, 상기 현재 프레임의 블랍과 이전 프레임의 블랍들과의 최소 거리가 임계값 초과이면, 상기 현재 프레임의 블랍과 이전 프레임의 블랍집합과 겹치는 블랍들을 판단하여 상기 현재 프레임의 블랍이 상기 이전 프레임의 블랍집합과 관련이 있으면 병합 상태 또는 분리 상태로 판단하고 상기 현재 프레임의 블랍이 상기 이전 프레임의 블랍집합과 관련이 없으면 등장 상태로 판단하는 것을 특징으로 하는 영상 기반의 인간 블랍 추적시스템.For any blob of the current frame, if the minimum distance between the blob of the current frame and the blobs of the previous frame is greater than a threshold, the blobs of the current frame and the blobs overlapping the blob set of the previous frame are determined to determine the current frame. If a blob of is related to the blob set of the previous frame, it is determined to be a merged state or a separated state, and if the blob of the current frame is not related to the blob set of the previous frame, the image-based human blob tracking system. 동영상으로부터 프레임을 추출하는 프레임추출단계와,A frame extraction step of extracting a frame from a video; 상기 프레임추출단계에서 추출된 현재 프레임에서 사람 영역을 블랍들로 추출하는 블랍추출단계와,A blob extraction step of extracting a human region from the current frame extracted in the frame extraction step into blobs; 상기 현재 프레임에서 추출된 블랍들과 이전 프레임에서 추출된 블랍들간 거리를 계산하는 거리계산단계와,Calculating a distance between the blobs extracted in the current frame and the blobs extracted in the previous frame; 상기 거리계산단계에서 계산된 블랍들간 거리와 상기 이전 프레임에서의 블랍 정보를 이용하여 현재 프레임에서 추출된 블랍들의 상태를 분류하고 사람집합 정보를 할당하는 블랍상태파악단계와,A blob state grasp step of classifying the blobs extracted from the current frame and assigning a set of people using the distance between the blobs calculated in the distance calculation step and the blob information in the previous frame; 상기 현재 프레임에서 추출된 블랍정보를 저장하는 블랍정보저장단계를 포함한 것을 특징으로 하는 영상 기반의 인간 블랍 추적방법.An image-based human blob tracking method comprising a blob information storing step of storing blob information extracted from the current frame. 제 7 항에 있어서, 상기 거리계산단계는 상기 블랍들의 무게중심, 크기, 색조 히스토그램분포도를 이용하여 블랍들간 거리를 계산하는 것을 특징으로 하는 영상 기반의 인간 블랍 추적방법.The image-based human blob tracking method according to claim 7, wherein the distance calculating step calculates the distance between the blobs using the center of gravity, the size, and the hue histogram distribution of the blobs. 제 7 항에 있어서, 상기 블랍상태파악단계는 상기 블랍들의 상태를 등장(appearing), 퇴장(disappearing), 추적(tracking continuation), 병합(merging), 분리(splitting) 상태로 구분하여 분류하는 것을 특징으로 하는 영상기반의 인간 블랍 추적방법.The method of claim 7, wherein the identifying the blobs comprises classifying the blobs into an appearing, disappearing, tracking continuation, merging, and splitting state. Image-based human blob tracking method. 제 9 항에 있어서, 상기 블랍상태파악단계는, The method of claim 9, wherein the blob state detection step, 상기 현재 프레임의 임의의 블랍에 대해, 상기 현재 프레임의 블랍과 이전 프레임의 블랍들과의 최소 거리가 임계값 이하이면 상기 현재 프레임의 블랍과 상기 최소 거리의 블랍을 매칭하고, 상기 최소 거리의 블랍에 할당된 사람집합을 상기 현재 프레임의 블랍에 할당하며, 상기 현재 프레임의 블랍의 위치에 따라 상기 현재 프레임의 블랍 상태를 추적 상태 또는 퇴장 상태로 판단하는 것을 특징으로 하는 영상 기반의 인간 블랍 추적방법.For any blob of the current frame, if the minimum distance between the blob of the current frame and the blobs of the previous frame is less than or equal to a threshold, the blob of the current frame and the blob of the minimum distance are matched, and the blob of the minimum distance An image-based human blob tracking method comprising assigning a set of persons assigned to a blob of the current frame and determining a blob state of the current frame as a tracking state or an exit state according to the position of the blob of the current frame. . 제 10 항에 있어서, 상기 현재 프레임의 블랍과 상기 최소 거리의 블랍이 매칭되면 상기 최소 거리의 블랍에 할당된 사람집합을 상기 현재 프레임의 블랍에 할당하는 것을 특징으로 하는 영상 기반의 인간 블랍 추적방법.The image-based human blob tracking method according to claim 10, wherein if the blob of the current frame matches the blob of the minimum distance, the set of people assigned to the blob of the minimum distance is allocated to the blob of the current frame. . 제 10 항에 있어서, 상기 블랍상태파악단계는,The method of claim 10, wherein the blob state detection step, 상기 현재 프레임의 임의의 블랍에 대해, 상기 현재 프레임의 블랍과 이전 프레임의 블랍들과의 최소 거리가 임계값 초과이면, 상기 현재 프레임의 블랍과 이전 프레임의 블랍집합과 겹치는 블랍들을 판단하여 상기 현재 프레임의 블랍이 상기 이전 프레임의 블랍집합과 관련이 있으면 병합 상태 또는 분리 상태로 판단하고 상기 현재 프레임의 블랍이 상기 이전 프레임의 블랍집합과 관련이 없으면 등장 상태로 판단하는 것을 특징으로 하는 영상 기반의 인간 블랍 추적방법.For any blob of the current frame, if the minimum distance between the blob of the current frame and the blobs of the previous frame is greater than a threshold, the blobs of the current frame and the blobs overlapping the blob set of the previous frame are determined to determine the current frame. If a blob of is related to the blob set of the previous frame, it is determined to be a merged state or a separated state, and if the blob of the current frame is not related to the blob set of the previous frame, the image-based human blob tracking Way.
KR1020070095493A 2007-09-19 2007-09-19 Image-based Human Blob Tracking Method Expired - Fee Related KR100911121B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070095493A KR100911121B1 (en) 2007-09-19 2007-09-19 Image-based Human Blob Tracking Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070095493A KR100911121B1 (en) 2007-09-19 2007-09-19 Image-based Human Blob Tracking Method

Publications (2)

Publication Number Publication Date
KR20090030142A true KR20090030142A (en) 2009-03-24
KR100911121B1 KR100911121B1 (en) 2009-08-11

Family

ID=40696591

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070095493A Expired - Fee Related KR100911121B1 (en) 2007-09-19 2007-09-19 Image-based Human Blob Tracking Method

Country Status (1)

Country Link
KR (1) KR100911121B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8570371B2 (en) 2010-03-15 2013-10-29 Omron Corporation Object tracking apparatus, object tracking method, and control program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101635896B1 (en) 2014-10-15 2016-07-20 한국과학기술연구원 Device and method for tracking people based depth information

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100744668B1 (en) * 2006-01-27 2007-08-02 덕성여자대학교 산학협력단 Multi Person Tracking System Using Network Camera

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8570371B2 (en) 2010-03-15 2013-10-29 Omron Corporation Object tracking apparatus, object tracking method, and control program

Also Published As

Publication number Publication date
KR100911121B1 (en) 2009-08-11

Similar Documents

Publication Publication Date Title
US11023707B2 (en) System and method for selecting a part of a video image for a face detection operation
US8705861B2 (en) Context processor for video analysis system
US10176384B2 (en) Method and system for automated sequencing of vehicles in side-by-side drive-thru configurations via appearance-based classification
Kong et al. Fast fire flame detection in surveillance video using logistic regression and temporal smoothing
CN105844234B (en) A method and device for people counting based on head and shoulders detection
CA3000127A1 (en) System and method for appearance search
US20200097769A1 (en) Region proposal with tracker feedback
US20200145623A1 (en) Method and System for Initiating a Video Stream
JP2012053756A (en) Image processor and image processing method
CN113963438B (en) Behavior recognition method and device, equipment and storage medium
KR20110035662A (en) Intelligent video retrieval method and system using surveillance camera
TW201140470A (en) System and method for monitoring objects and key persons of the objects
Kroneman et al. Accurate pedestrian localization in overhead depth images via Height-Augmented HOG
Aziz et al. Features-based moving objects tracking for smart video surveillances: A review
Taha et al. Exploring behavior analysis in video surveillance applications
KR100911121B1 (en) Image-based Human Blob Tracking Method
JP2012033054A (en) Device and method for producing face image sample, and program
JP6616093B2 (en) Method and system for automatic ranking of vehicles in adjacent drive-through structures by appearance-based classification
KR101154350B1 (en) Multiple image processing system and method using object detection and segmentation recognition of high resolution image
Mudjirahardjo et al. Head detection and tracking for an intelligent room
Ghuge et al. Abandoned object detection
Gómez-Conde et al. Smart telecare video monitoring for anomalous event detection
Kalabalik et al. Abandoned/removed object detection in video surveillance systems
Jahan et al. Person detection, re-identification and tracking using spatio-color-based model for non-overlapping multi-camera surveillance systems
CN121033100A (en) Yolo and RoiMViTv 2-based multi-target video behavior recognition method

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

FPAY Annual fee payment

Payment date: 20120710

Year of fee payment: 4

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

FPAY Annual fee payment

Payment date: 20130708

Year of fee payment: 5

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20140801

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20140801

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000