[go: up one dir, main page]

KR20060012071A - Common Information Mining Technique for Similar Video Data - Google Patents

Common Information Mining Technique for Similar Video Data Download PDF

Info

Publication number
KR20060012071A
KR20060012071A KR1020040060782A KR20040060782A KR20060012071A KR 20060012071 A KR20060012071 A KR 20060012071A KR 1020040060782 A KR1020040060782 A KR 1020040060782A KR 20040060782 A KR20040060782 A KR 20040060782A KR 20060012071 A KR20060012071 A KR 20060012071A
Authority
KR
South Korea
Prior art keywords
block
video
characteristic information
clustering
cluster
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
KR1020040060782A
Other languages
Korean (ko)
Inventor
이원석
Original Assignee
이원석
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이원석 filed Critical 이원석
Priority to KR1020040060782A priority Critical patent/KR20060012071A/en
Publication of KR20060012071A publication Critical patent/KR20060012071A/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명은 유사 비디오에서 지식 정보를 추출하는 방법에 관한 것으로, 더욱 상세하게는 비디오 데이타로부터 비디오 신호를 분해하여 압축, 정제 과정을 거치고 클러스터링을 이용하여 군집화 특징을 분석한 후, 순차 패턴을 검색하여 지식 정보를 추출하는 유사 비디오에 대한 데이터 마이닝 시스템에 관한 것이다.The present invention relates to a method for extracting knowledge information from a similar video. More particularly, the present invention relates to a method of extracting knowledge information from video data, compressing and refining a video signal, analyzing clustering features using clustering, and then searching a sequential pattern. A data mining system for similar video extracting knowledge information.

이를 위하여 본 발명은, 비디오에서 지식정보를 추출하는 시스템에 있어서 비디오로부터 출력되는 비디오 신호를 분해하여 다양한 비디오 특징들로 표현하는 단계, 상기 단계 후 결과 데이터를 압축하기 위해서 주요한 프레임을 추출하는 단계, 상기 단계에서 추출된 주요한 프레임을 대상으로 잡음 또는 초단기 출현 개체의 제거를 통한 데이터 정제 단계, 상기 단계를 통과한 데이터를 클러스터링으로써 클러스터를 검색하고 특성정보 파일로 표현하는 단계, 상기 과정의 특성정보 파일에서 표현된 다수의 클러스터를 동일 특징을 지닌 논리적인 블록으로 병합하는 단계, 정적 및 동적인 영역에 별도의 가중치를 적용하여 클러스터링 대상을 줄이는 단계, 추출된 지식을 클러스터링 프로파일로 만드는 단계, 그리고 클러스터링 프로파일과 비디오 데이터로부터 순차패턴을 검색하는 순차패턴 마이닝 단계로 구성된다.To this end, the present invention, in the system for extracting the knowledge information from the video, decomposing the video signal output from the video to represent various video features, after the step of extracting the main frame to compress the resulting data, Refining the data by removing noise or short-term occurrences from the main frame extracted in the above step; Searching the cluster by clustering the data passing through the step; Merging a plurality of clusters represented in the above into logical blocks having the same characteristics, reducing clustering targets by applying separate weights to static and dynamic regions, making extracted knowledge into clustering profiles, and clustering profiles And video day It consists of a sequential pattern mining step of retrieving the sequential pattern from the data.

비디오, 데이터 마이닝, 클러스터링, 순차패턴 마이닝, 프로파일, 클러스터, 정상 행위, 비정상 행위, 감시 Video, data mining, clustering, sequential pattern mining, profile, cluster, normal behavior, abnormal behavior, surveillance                                    

Description

유사 비디오 데이터의 공통 정보 마이닝 기법 { Knowledge Discovery Methods of Similar Video Data } Common information mining technique for similar video data {Knowledge Discovery Methods of Similar Video Data}

도 1은 전체적인 시스템을 표현한 블록 다이어그램이다1 is a block diagram representing the overall system.

도 2는 본 발명을 이용한 감시 환경 적용의 예를 나타낸 블록 다이어그램이다2 is a block diagram showing an example of application of the monitoring environment using the present invention.

도 3은 프레임 내 픽셀의 병합을 표현한 예제 도해이다3 is an example diagram representing merging of pixels in a frame.

도 4는 관심 영역 설정을 표현한 예제 도해이다4 is an example diagram representing a region of interest setting.

도 5는 관심 영역 설정 과정을 표현한 블록 다이어그램이다5 is a block diagram representing a process of setting a region of interest.

도 6은 최소 반복도 적용 과정을 표현한 블록 다이어그램이다6 is a block diagram representing a process of applying a minimum repeatability.

도 7은 키 프레임 추출 과정을 표현한 블록 다이어그램이다7 is a block diagram representing a key frame extraction process.

도 8은 유추 블록을 표현한 예제 도해이다8 is an example diagram representing an inference block.

도 9는 키 프레임 추출 과정을 표현한 예제 도해이다9 is an exemplary diagram representing a key frame extraction process.

도 10은 유추 블록 생성 과정을 표현한 블록 다이어그램이다10 is a block diagram representing an inferred block generation process.

도 11은 정적/동적 블록 검색 과정을 표현한 블록 다이어그램이다11 is a block diagram representing a static / dynamic block search process.

도 12은 순차 로그 생성 과정을 표현한 블록 다이어그램이다12 is a block diagram representing a sequential log generation process.

도 13은 순차패턴 마이닝 과정을 표현한 블록 다이어그램이다13 is a block diagram representing a sequential pattern mining process.

<도면의 주요부분에 대한 부호의 설명> <Description of the symbols for the main parts of the drawings>

1 : 비디오 데이터 베이스2 : 특성정보 추출1: video database 2: feature information extraction

3 : 특성정보 로그4 : 관심 영역 설정 블록3: characteristic information log 4: ROI setting block

5 : 최소반복도 처리 블록6 : 키 프레임 추출 블록5: minimum repeat processing block 6: key frame extraction block

7 : 전처리 특성정보 로그8 : 클러스터링 블록7: preprocessing characteristic information log 8: clustering block

9 : 프로파일10 : 유추 블록 생성 블록9: Profile 10: inference block generation block

11 : 정적/동적 가중치 적용 블록12 : 클러스터링 프로파일11: Static / Dynamic Weighted Block 12: Clustering Profile

13 : 전처리+클러스터링+후처리 블록14 : 판정 블록13: Preprocessing + Clustering + Post Processing Block 14: Decision Block

15a: 개체 A 픽셀 a15a: Object A pixel a

15b: 개체 A 픽셀 b15b: Object A pixel b

15c: 개체 A 픽셀 c15c: object A pixel c

15d: 개체 A 픽셀 d15d: Object A pixel d

16 : 베이스 블록17 : 개체 A16: Base Block 17: Object A

18 : 개체 B19a: 관련변수 초기화 블록 A18: Object B19a: Relevant Variable Initialization Block A

19b: 관련변수 초기화 블록 B19c: 관련변수 초기화 블록 C19b: Relevant variable initialization block B19c: Relevant variable initialization block C

19d: 관련변수 초기화 블록 D19e: 관련변수 초기화 블록 E19d: Relevant variable initialization block D19e: Relevant variable initialization block E

20 : 관심 영역 맵 로딩21 : 트랜잭션 종료 확인 블록20: Loading the region of interest map 21: Transaction termination confirmation block

22 : 최종 프레임 확인 블록23 : 최종 베이스 블록 확인 블록22: Final frame check block 23: Final base block check block

24 : 관심영역 포함 여부 확인 블록25 : 특성정보 제거 블록24: check whether the region of interest is included block 25: block removing characteristic information

27 : 특성정보 변화량 판단 블록28 : 특성정보 카운트 판단 블록27: characteristic information change determination block 28: characteristic information count determination block

29 : 특성정보 제거 블록30 : 특성정보 유지 블록29: characteristic information removal block 30: characteristic information maintenance block

31 : 그룹 변화량 누적 블록32 : 그룹 변화량 비교 블록31: group change amount accumulation block 32: group change amount comparison block

33 : 신규 그룹 정의 블록34 : 씬 변화량 비교 블록33: New group definition block 34: Scene variation comparison block

35 : 신규 씬 정의 블록36a: 합병 전 베이스 블록35: New Scene Definition Block 36a: Base Block Before Merging

36b: 합병된 베이스 블록(유추 블록)37 : 키 프레임 추출을 사용하는 예36b: Merged Base Block (Inferred Block) 37: Example Using Key Frame Extraction

38 : 기준 베이스 블록 확인 블록39 : 특성정보 차이 계산 블록38: reference base block check block 39: characteristic information difference calculation block

40 : 변화 베이스 블록 확인 블록41 : 최소 차이 검색 블록40: change base block check block 41: minimum difference search block

42 : 임계치 확인 블록43 : 베이스 블록 합병 블록42: threshold check block 43: base block merge block

44 : 프로파일 로딩 블록45 : 블록 종료 확인 블록44: profile loading block 45: block end confirmation block

46 : 클러스터 개수 비교 블록47 : 동적 가중치 부여 블록46: Cluster Count Comparison Block 47: Dynamic Weighting Block

48 : 정적 가중치 부여 블록49 : 초기화 블록48: static weighting block 49: initialization block

50 : 특성정보 및 클러스터 비교 블록51 : 클러스터 출력 블록50: characteristic information and cluster comparison block 51: cluster output block

52 : 트랜잭션 목록 종료 확인 블록53 : 클러스터 종료 확인 블록52: Transaction list termination confirmation block 53: Cluster termination confirmation block

54 : 클러스터 목록 갱신 블록55 : 클러스터 목록 데이터 베이스54: Cluster List Update Block 55: Cluster List Database

56 : 최소 지지도 적용 블록57 : 프레임 유효 클러스터 추출 블록56: minimum support block 57: frame effective cluster extraction block

58 : 프레임 유효 클러스터 조합 생성 블록59 : 아이디 변환 블록58: frame valid cluster combination generation block 59: ID conversion block

60 : 트랜잭션 유효 클러스터 조합 생성 블록60: Transaction Effective Cluster Combination Generation Block

61 : 아이디 복원 블록62 : 순차 패턴 파일61: ID Restore Block 62: Sequential Pattern File

63 : 순차 로그 생성 블록64 : 순차 로그63: sequential log generation block 64: sequential log

65 : 순차 패턴 생성 블록66 : 순차 패턴 프로파일65: sequential pattern generation block 66: sequential pattern profile

67 : 클러스터 비교 블록68 : 클러스터 백업 블록67: cluster comparison block 68: cluster backup block

본 발명은 비디오로부터 지식정보를 추출하는 방법에 관한 것으로, 더욱 상세하게는 수집된 비디오들에서 비디오 신호를 분해하여 압축 및 정제 과정을 거치고, 클러스터링 및 순차패턴 마이닝을 이용하여 지식정보를 추출하는 과정을 포함하는 유사 비디오 데이터에 대한 마이닝 기법에 관한 것이다.The present invention relates to a method of extracting knowledge information from a video, and more particularly, to a process of decompressing and compressing a video signal from collected videos, compressing and purifying them, and extracting knowledge information using clustering and sequential pattern mining. The present invention relates to a mining technique for similar video data including a.

비디오에 관한 기존의 연구는 비디오 데이터로부터 추출되는 정보의 해석방법 종류에 따라 색상, 질감 등의 형태론적인 특성정보를 추출하는 형태론적인 관점과 비디오 내에 나타나는 배경과 분리된 개체들의 동작과 의미에 관련된 특정정보를 추출하는 의미론적인 관점으로 나눠진다. 이러한 방법으로 추출된 비디오 특성을 이용하는 연구로는 비디오 데이터 베이스에서 효과적이고 정확한 비디오의 검색을 제공하기 위한 인덱싱이나 유사한 성격을 지닌 카테고리로 분류하는 분야가 있다. 공간에 분포된 데이터들을 대상으로 유사한 특성을 지닌 군집을 찾아내어 해당 데이터에 내재된 특성 및 구조를 판단하기 위한 방법으로는 K-means나 Forgy's와 같은 다양한 클러스터링 기법들이 제안되어 왔다. 순차패턴 마이닝은 시간적인 분포를 가지는 데이터들로부터 순차적인 공통된 패턴을 찾아내는 데이터 마이닝의 기법중에 하나이며 대표적인 연구로는 Apriori 방법이 있다. Existing researches on video have a morphological perspective that extracts morphological characteristic information such as color and texture according to the method of interpretation of information extracted from video data, and specifics related to the motion and meaning of objects separated from the background appearing in the video. It is divided into semantic views that extract information. Researches using video features extracted in this way include the field of indexing or categorization into similar categories to provide effective and accurate video retrieval from video databases. Various clustering techniques, such as K-means or Forgy's, have been proposed to find clusters with similar characteristics for data distributed in space and to determine the characteristics and structures inherent in the data. Sequential pattern mining is one of the data mining techniques that finds a common pattern that is sequential from data with temporal distribution. A representative study is Apriori.

그러나 비디오를 해석하기 위한 기존의 연구는 비디오의 방대한 데이터 양과 그 특징에 기반한 효과적인 마이닝 방법의 부재로 인하여 통계적인 방법 수준의 한정된 분야만 중점이 되어왔다. 또한 비디오에 표현되는 의미요소를 해석하기 위한 기존 연구는 개체의 명확한 파악과 특징 추출 및 이를 기반으로 하는 의미적 해석이 불가능하여 실용적인 수준의 향상을 기대할 수 없어 제한적으로 활용되었다. 특히 유사한 비디오를 대상으로 하는 경우 각 비디오에서 계속적으로 반복되는 특성정보의 추출이 더욱 용이할 수 있으나 이에 대한 연구는 활발하게 이루어지지 않았다.However, the existing researches for video interpretation have focused only on a limited field of statistical methods due to the large amount of data in video and the lack of effective mining methods based on its features. In addition, the existing researches for interpreting the semantic elements represented in the video have been used limitedly because it is impossible to clearly understand the object, extract the features and semantic interpretation based on them. In particular, in the case of targeting similar videos, it may be easier to extract feature information that is repeatedly repeated in each video, but research on this has not been actively conducted.

본 발명은 상기와 같은 문제점을 해소하기 위해서 유사한 비디오들로부터 효과적으로 비디오 데이터를 압축하고 데이터 클러스터링을 이용하여 특성 요약 정보 추출한 후 순차패턴 마이닝을 통해 순차 패턴을 추출하는 과정을 포함하는 형태론적인 비디오 정보로부터 의미 있는 패턴을 직접 추출하는 방법을 제안한다. 여기에는 관심영역을 설정하여 데이터 양을 감소시키는 방법, 프레임내 단시간 나타나는 특성 요소를 제거하는 방법, 주요 프레임만을 추출하는 방법, 유사한 특징의 픽셀을 논리적인 기본단위로 결합하는 방법, 동적/정적인 영역을 분리하여 가중치 기반으로 움직임 정보를 분리하는 방법, 전후 프레임간의 중복되는 클러스터를 선택적으로 제거하는 방법 등이 포함되며 이러한 통합된 시스템을 제공하는데 본 발명의 목적이 있는 것이다.In order to solve the above problems, the present invention effectively compresses video data from similar videos, extracts feature summary information using data clustering, and extracts sequential patterns through sequential pattern mining. We propose a method to directly extract meaningful patterns. This includes setting a region of interest to reduce the amount of data, removing feature elements that appear in a short time within a frame, extracting only major frames, combining pixels of similar characteristics into logical basic units, and dynamic / static A method of separating motion information based on weights by separating a region, a method of selectively removing overlapping clusters between front and rear frames, and the like is provided, and an object of the present invention is to provide such an integrated system.

비디오 데이터는 일반적으로 대용량이므로 데이터들의 군집화된 특성을 추출하는 클러스터링(8)에 필요한 시간도 초기 자료의 크기에 비례하여 상승한다. 따라서 미리 데이터 집합을 가공하여 압축된 작은 용량의 주요한 데이터 집합으로 재생성한 후 클러스터링(8)을 수행 한다면 보다 정확하고 신속한 결과를 얻을 수 있다. 특히 비디오는 그 특성상 공간적, 시간적인 중복성이 크므로 중복성이 제거된 중요한 정보만을 추출함으로써 비디오에 나타나는 정보에 대한 의미적 손실을 최소화한다. 또한 비디오를 생성하는 카메라나 동영상의 주변 환경에 따른 불필요한 잡음이 포함되는 경우가 많기 때문에 데이터를 정제하는 과정을 거치면 유사 비디오간의 공통 정보를 보다 효과적으로 추출할 수 있다. Since video data is generally large, the time required for clustering 8 to extract clustered characteristics of the data also increases in proportion to the size of the initial data. Therefore, if the data set is processed in advance and regenerated into a compressed small data set and then clustered (8), more accurate and faster results can be obtained. In particular, since video has a large spatial and temporal redundancy due to its characteristics, the semantic loss of information appearing in the video is minimized by extracting only important information from which redundancy is removed. In addition, since unnecessary noise is often included according to the surrounding environment of a camera or a video generating video, common information between similar videos can be more effectively extracted through a process of refining data.

도 1 은 전체적인 데이터 마이닝 시스템을 도시화 한 것으로써 다음의 각 프로세스 단계로 구성되며 사용자의 필요에 따라 1단계를 제외한 모든 단계를 선택적으로 적용할 수 있다.FIG. 1 illustrates the overall data mining system, and is composed of the following process steps, and all steps except step 1 may be selectively applied according to a user's needs.

단계 1) 비디오 데이터로부터 특성정보 로그 추출(2)Step 1) Extract characteristic log from video data (2)

단계 2) 관심 영역 설정(4)Step 2) Set up region of interest (4)

단계 3) 최소 반복도를 적용한 특성정보 추출(5)Step 3) Extraction of characteristic information applying minimum repeatability (5)

단계 4) 키 프레임 추출(6)Step 4) Extract Key Frames (6)

단계 5) 클러스터링(8)Step 5) Clustering (8)

단계 6) 유추 블록 생성(10)Step 6) Create Inference Block (10)

단계 7) 동적 정적 영역 가중치 적용(11)Step 7) Apply dynamic static domain weights (11)

단계 8) 클러스터링Step 8) Clustering

단계 9) 순차 로그 생성Step 9) Generate Sequential Logs

단계 10) 순차패턴 마이닝Step 10) Sequential Pattern Mining

이하 첨부된 도면에 의해 상세히 설명하면 다음과 같다. Hereinafter, described in detail by the accompanying drawings as follows.

단계 1) 비디오 데이터로부터 특성정보 로그 추출(2)Step 1) Extract characteristic log from video data (2)

비디오로부터 비디오의 내용을 분석하여 단일 순간의 정지화상을 일컫는 프레임단위로 분리를 하고, 각 프레임별로 픽셀단위로 적색, 녹색, 청색 등과 같은 비디오를 표현하는 특성 정보를 추출한다. 비디오가 시작해서 종료하는 시간동안 입력된 비디오를 트랜잭션이라고 정의하며 이러한 비디오 트랜잭션은 동일 비디오의 연속된 프레임들로 구성된다. The contents of the video are analyzed from the video, separated into frame units that refer to a single instant of still image, and feature information representing a video such as red, green, and blue is extracted for each frame. A video entered during the time the video starts and ends is defined as a transaction, and this video transaction consists of successive frames of the same video.

비디오로부터 추출된 질감, 색상 등의 특성정보는 데이터의 크기를 감소시키기 위해서 사용자의 설정에 따른 일정한 개수로 픽셀을 합병하며 이를 베이스 블록이라고 정의한다. 예를 들어 도 3과 같이 각 픽셀(15a)(15b)(15c)(15d)는 각 비디오 특성 성분값(이하 특성정보라 한다)에 대한 산술평균계산법으로 재계산되어 합병이 되며 베이스 블록 단위로 로그파일(3)에 저장된다.Characteristic information such as texture and color extracted from the video is merged with a certain number of pixels according to a user's setting in order to reduce the size of data, which is defined as a base block. For example, as shown in FIG. 3, each pixel 15a, 15b, 15c, and 15d is recalculated by arithmetic mean calculation for each video characteristic component value (hereinafter referred to as characteristic information) and merged, and in units of base blocks. It is stored in the log file (3).

많은 응용분야에서 수집되는 데이터는 동시에 발생되고 의미적으로 나눌 수 없는 데이터 집합의 단위인 트랜잭션단위로 생성된다. 반면, 기존의 클러스터링은 연속적인 값을 갖는 데이터에 대한 모델링에는 적합하지만 트랜잭션 개념을 고려한 클러스터링을 수행하지 않기 때문에 트랜잭션 데이터의 특성을 반영하는 클러스터를 생성하는데 적합하지 않다. 따라서 본 발명에서는 대상이 되는 비디오 데이터에 트랜잭션 개념을 반영하고 이러한 트랜잭션으로부터 클러스터를 추출할 수 있도록 수정된 클러스터링 기법을 적용하였다. 트랜잭션 개념을 도입한 비디오 트랜잭션은 비디오가 시작하는 순간부터 종료하는 순간까지 하나의 논리적인 단위로 간주된다. In many applications, data is generated in transactional units, which are units of data sets that are generated concurrently and cannot be semantically divided. On the other hand, existing clustering is suitable for modeling data having continuous values, but it is not suitable for creating clusters that reflect the characteristics of transaction data because it does not perform clustering considering transaction concepts. Therefore, in the present invention, a modified clustering technique is applied to reflect the concept of a transaction and extract a cluster from the transaction. A video transaction that introduces the concept of a transaction is regarded as a logical unit from the moment the video starts to the end.

단계 2) 관심 영역 제한(4)Step 2) Restrict area of interest (4)

비디오 데이터에서 분석대상이 되는 데이터의 양을 줄일 수 있는 가장 단순한 방법으로서 화면 공간내의 선별적인 관심 영역만을 분석대상으로 정의하는 관심 영역 제한 방법을 고려할 수 있다. 이 방법은 데이터의 크기를 감소시킬 뿐만 아니라 비관심 영역으로부터 추출되어 데이터의 모델링 결과의 정확성을 저하시키는 불필요한 특성정보를 제거하는 효과를 갖는다. As the simplest method of reducing the amount of data to be analyzed in the video data, a region of interest limitation method may be considered, in which only a selective region of interest in the screen space is defined as an analysis target. This method not only reduces the size of the data, but also has the effect of removing unnecessary characteristic information extracted from the uninterested region and degrading the accuracy of the modeling result of the data.

비디오 데이터에 있어서 관심영역과 비관심영역은 입력되는 일정한 형태의 매핑파일을 읽고 비디오 데이터를 구성하는 베이스 블록의 특성정보 값에 대해 유지 또는 제거하는 방법을 통하여 구현된다. 즉, 적용 이전의 베이스 블록 Bi의 특성정보 f가 가진 특성값인 V Bif 가 관심영역에 속하는 경우에는 관심 영역 제한 방법이 적용된 특성값 V' Bif 가 동일한 값을 가지지만 비관심 영역인 경우 제거된다. The region of interest and the region of uninterest in the video data are implemented by reading a mapping file of a predetermined type and maintaining or removing the characteristic information values of the base blocks constituting the video data. That is, if the characteristic value V Bif of the characteristic information f of the base block B i before application belongs to the region of interest, the characteristic value V ' Bif to which the region of interest restriction method is applied has the same value but is removed if it is an uninterested region. do.

Figure 112004034572414-PAT00001
Figure 112004034572414-PAT00001

이와 같이 재정의된 특성값을 갖는 비디오 데이터는 임계값 0을 기준으로 관심영역과 비관심 영역으로 구분되며 비관심 영역으로 판정된 베이스 블록은 비디오 데이터를 표현하는 특성값 집합에서 제거되어 분석 대상이 되는 데이터 양을 감소시킬 수 있다.The video data having the redefined feature values is divided into a region of interest and an uninterested region based on the threshold value 0, and the base block determined as the uninterested region is removed from the set of characteristic values representing the video data to be analyzed. The amount of data can be reduced.

알고리즘은 도 5와 같다. 관련 변수 초기화(19a), 관심영역 맵 로딩(20)는 초기화 부분이며, 대상이 되는 비디오 트랜잭션의 종료시까지 모든 트랜잭션을 차례로 로딩하는 트랜잭션 종료 확인 블록(21), 각 트랜잭션의 종료시까지 모든 프레임을 차례로 로딩하는 최종 프레임 확인 블록(22), 각 베이스 블록의 종료시까지 모든 베이스 블록을 로딩하는 최종 베이스 블록 확인 블록(23)에서 로그내의 모든 존재하는 베이스 블록을 차례대로 검색하여 다음 블록에 전달한다. 관심영역 포함 여부 확인 블록(24) 및 특성정보 제거 블록(25)에서는 전달받은 관심영역의 베이스 블록과 초기화된 관심영역 맵과 비교하여 관심영역 내에 포함되는 베이스 블록만 유지하고 로그를 저장한다.The algorithm is shown in FIG. The relevant variable initialization 19a and the region of interest map loading 20 are initialization parts, a transaction end confirmation block 21 which sequentially loads all transactions until the end of the target video transaction, and all frames in turn until the end of each transaction. In the final frame check block 22 to load and the final base block check block 23 to load all base blocks until the end of each base block, all existing base blocks in the log are sequentially searched and transferred to the next block. In the region of interest check block 24 and the characteristic information removal block 25, the base block of the region of interest is compared with the initialized region of interest map, and the base block included in the region of interest is kept and the log is stored.

도 4를 예로 들면 개체 A(17a,17b,17c,17d)와 개체 B(18)중에서 개체 A(17a,17b,17c,17d)의 특징에만 관심이 있는 경우 빗금친 영역으로 관심영역을 설정하면 관심영역이 아닌 개체 B(18)은 로그에서 제외된다.For example, if the interest region is set to the shaded area when only the features of the entity A (17a, 17b, 17c, 17d) and the entity B 18 are interested in the characteristics of the entity A (17a, 17b, 17c, 17d), Entity B 18 that is not of interest is excluded from the log.

단계 3) 최소 반복도를 적용한 특성정보 추출(5)Step 3) Extraction of characteristic information applying minimum repeatability (5)

하나의 비디오 트랜잭션에서는 시간 흐름에 따라 변화되는 각 프레임에서 다양한 개체들이 비디오 내에 출현하고 소멸될 수 있다. 단일의 트랜잭션 내에서 개체가 출현하는 시간의 길이로써 해당 개체의 중요성을 판단하는 기준이 될 수 있으며 이를 연속된 프레임 수로 표현할 수가 있다. 본 발명에서는 각 베이스 블록의 특성정보들이 연속적인 프레임 내에서 임계치 이내의 편차값으로 유지되는 경우 유효한 정보로 간주하여 유효 정보화되는 최소 프레임 수를 최소 반복도라고 정의한다. 이러한 최소 반복도에 의해 잡음 같은 최소 반복도보다 낮은 특성정보의 경우 제거되므로 주요정보를 유지하면서 비디오 데이터의 양을 효과적으로 줄일 수 있다. In one video transaction, various objects may appear and disappear within the video at each frame that changes over time. The length of time that an entity appears in a single transaction can be used as a criterion for judging the importance of the entity and can be expressed as the number of consecutive frames. In the present invention, when the characteristic information of each base block is maintained as a deviation value within a threshold value in a continuous frame, it is regarded as valid information and defines the minimum number of frames that are effectively informed as the minimum repeatability. This minimum repetition removes the characteristic information lower than the minimum repetition rate such as noise, thereby effectively reducing the amount of video data while maintaining the main information.

최소 반복도를 활용한 데이터 제거 방법에는 최소 반복도 임계치를 만족하지 못하는 해당 특성정보들만 제거하는 특성정보 제거 방법과, 베이스 블록을 구성하는 모든 특성정보들이 최소 반복도를 만족하지 못하는 경우에 베이스 블록 자체를 제거하는 베이스 블록 제거 방법, 그리고 제거되는 베이스 블록과 유효한 베이스 블록의 비율이 설정된 임계치를 넘는 경우 프레임을 제거하는 프레임 제거 방법이 있다.The data removal method using the minimum repeatability includes the feature information removal method that removes only the corresponding characteristic information that does not satisfy the minimum repeatability threshold, and the base block when all the characteristic information constituting the base block does not satisfy the minimum repeatability. There is a method of removing a base block to remove itself, and a method of removing a frame if the ratio of the removed base block to a valid base block exceeds a set threshold.

특성정보 제거 방법은 개체가 표현하는 모든 특성 중에 일부만 제거하게 되므로 추출한 특성정보 결과에 오차가 발생할 수 있는 반면에 베이스 블록 제거 방법은 잡음 같은 불필요한 개체가 발생한 베이스 블록을 전부 제거하게 되므로 적절한 방법이 될 수 있다. 또한 프레임 제거 방법은 프레임 전체적으로 진동이나 잡음이 발생한 경우 효과적으로 프레임을 제거하는 방법이 될 수 있다.Because the characteristic information removal method removes only a part of all the characteristics expressed by the object, an error may occur in the extracted characteristic information result, while the base block removal method removes all the base blocks in which unnecessary objects such as noise are generated. Can be. In addition, the frame removal method may be a method of effectively removing a frame when vibration or noise occurs in the entire frame.

특성정보 제거 방법 및 베이스 블록 제거 방법처럼 최소 반복도를 만족하지 못하는 경우 해당 부분을 제거하는 방법 외에도 직전 프레임의 해당 특성정보 또는 베이스 블록의 값을 복사하는 방법이 있다. 이 방법은 데이터를 압축하는 의미보다는 순간적으로 출현한 잡음 정보대신에 정상적으로 나타난 직전 프레임의 정보를 사용하여 수정하기 때문에 대상 비디오에서 주목하고자 하는 장시간 노출된 개체의 데이터만을 선택하는 정제 효과를 지니게 된다. If the minimum repeatability is not satisfied, such as the feature information removal method and the base block removal method, there is a method of copying the corresponding property information of the previous frame or the value of the base block in addition to removing the corresponding part. Instead of compressing the data, this method modifies using the information of the immediately preceding frame instead of the instantaneous noise information, which has a refinement effect of selecting only the data of the long-exposure object to be noted in the target video.

알고리즘은 도 6과 같다. 관련 변수 초기화(19b), 관심영역 맵 로딩(20)는 초기화 부분이며, 비디오 종료 확인 블록(21), 최종 프레임 확인 블록(22), 최종 베이스 블록 확인 블록(23), 최종 특성정보 확인 블록(26)에서 트랜잭션 내의 모든 존재하는 베이스 블록의 특성정보를 처음 데이터부터 최종 데이터까지 차례대로 검색하여 특성정보 변화량 판단 블록(27)에서 직전 프레임의 특성정보값과 비교를 한다. 만약 특성정보 변화량이 임계치 보다 큰 경우, 특성정보 카운트 판단 블록에서 특성정보가 임계치 내에서 반복된 횟수를 계산한다. 특성정보 카운트가 특성정보 카운트 임계치보다 큰 경우, 그 특성정보는 유효한 값으로 간주를 하고 보존하며, 특성정보 카운트 임계치보다 작은 경우는 특성정보 제거 블록(29)에서 특성정보를 제거한다. 만약 특성정보 변화량이 임계치보다 작은 경우, 특성정보 카운트는 특성정보 유지 블록(30)에서 +1만큼 증가가 되고 다음 특성정보로 진행한다. 모든 특성정보를 확인한 후 로그를 수정하고 종료한다. The algorithm is shown in FIG. The relevant variable initialization 19b and the region of interest map loading 20 are initialization parts, and the video end confirmation block 21, the last frame confirmation block 22, the last base block confirmation block 23, and the last characteristic information confirmation block ( In step 26), the characteristic information of all existing base blocks in the transaction is sequentially searched from the first data to the last data, and the characteristic information change amount determination block 27 compares the characteristic information with the characteristic information of the previous frame. If the characteristic information change amount is larger than the threshold value, the number of times that the characteristic information is repeated within the threshold value is calculated in the characteristic information count determination block. If the characteristic information count is larger than the characteristic information count threshold, the characteristic information is regarded as a valid value and stored. If the characteristic information count is smaller than the characteristic information count threshold, the characteristic information is removed in the characteristic information removing block 29. If the characteristic information change amount is smaller than the threshold, the characteristic information count is incremented by +1 in the characteristic information holding block 30 and proceeds to the next characteristic information. After checking all property information, modify the log and exit.

단계 4) 키 프레임 추출(6)Step 4) Extract Key Frames (6)

비디오 생성시에 초당 촬영 프레임 수가 높은 경우 전후 프레임간 상관도가 높으므로 특성정보 변화가 적은 연속적인 프레임들을 모아 이들 프레임들을 대표할 수 있는 키 프레임만을 선택하는 방법이 효과적이며 이러한 기법을 키 프레임 방법이라 한다. 트랜잭션을 구성하는 프레임 중에 키 프레임을 선택하는 방법은 다양하며 본 발명에서는 프레임 상이도라는 정의를 도입하여 선택 기준으로 사용한다.If the number of frames taken per second is high when generating video, the correlation between the frames before and after is high. Therefore, it is effective to select only the key frames that can represent these frames by collecting consecutive frames with little change in characteristic information. This is called. There are various methods for selecting a key frame among the frames composing the transaction, and the present invention introduces a definition of frame differentiation and uses it as a selection criterion.

[정의 1] 프레임 상이도[Definition 1] Frame Differentiation

원본의 프레임들에서 연속된 프레임 Fi와 Fj간의 프레임 상이도 Δ(Fi~Fj)는 다음과 같이 각 베이스 블록의 이전 프레임의 특성정보에서 현재 프레임의 특성정보간 차이의 절대값을 누적한 값으로 정의된다.The frame difference Δ (F i ~ F j ) between successive frames F i and F j in the original frames is the absolute value of the difference between the characteristic information of the current frame in the characteristic information of the previous frame of each base block as follows. It is defined as a cumulative value.

Figure 112004034572414-PAT00002
Figure 112004034572414-PAT00002

이러한 프레임 상이도는 직전 프레임으로부터 현재 프레임에 나타난 특성정보들의 변화량에 따라 비례하여 변하게 되며 트랜잭션에 나타나는 첫 프레임을 키 프레임으로 선택한 뒤 연속된 프레임에 대해 프레임 상이도를 추출하여 주어진 임계치 이상의 상이도가 되기 시작하는 프레임을 새로운 키 프레임으로 선택한다. 이러한 키 프레임은 연속되는 임계치 이하의 프레임 상이도를 가진 프레임들을 대표하는 프레임이라 할 수 있으며 이러한 방법을 사용하여 계속적으로 잔여 트랜잭션의 모든 프레임에 대해 키 프레임을 추출한다.This frame difference is changed proportionally according to the amount of change of the characteristic information in the current frame from the previous frame.The difference between the frame and the threshold is extracted by selecting the first frame as the key frame and extracting the frame difference for successive frames. Select the frame that starts to be the new key frame. Such a key frame may be referred to as a frame representing frames having a frame degree of difference below a successive threshold, and this method is used to continuously extract key frames for all frames of the remaining transaction.

예를 들어 [그림 5]에서 최초 프레임 F0 는 항상 키 프레임이 되고 다음부터 순차적으로 해당 프레임을 증가시키면서 프레임 상이도를 연속적으로 계산하며 만약 i =2인 프레임에서 프레임 상이도 △(F0~F2)가 임계치 Thk를 초과한다면 다음의 키 프레임은 F2가 되고 첫 키 프레임은 F0는 프레임 집합 { F0, F1 }를 대표하며 다음을 만족하게 된다.For example, in [Figure 5], the first frame F 0 is always a key frame, and the frame difference is continuously calculated by increasing the frames sequentially from the next. If the frame difference is △ (F 0 ~) If F 2 ) exceeds the threshold T hk , the next key frame becomes F 2 , and the first key frame F 0 represents the frame set {F 0 , F 1 } and satisfies the following.

△(Fi~Fj) < Thk 단, i=0 이고 j= 0, 1△ (F i ~ F j ) <T hk where i = 0 and j = 0, 1

두번째 키 프레임인 F2로부터 계속적으로 프레임 상이도를 계산 진행하며, 만약 i=6인 프레임에서 Thk를 초과한다면 세번째 키 프레임은 F6이 되고 프레임 집합 { F2, F3, F4, F5 }를 대표하며 다음을 만족하게 된다.The frame difference is continuously calculated from F 2 , the second key frame. If T hk is exceeded in a frame with i = 6, the third key frame becomes F 6 and the frame set {F 2 , F 3 , F 4 , F 5 } and the following are satisfied.

△(Fi~Fj) < Thk 단, i =2 이고 j= 2, 3, 4, 5△ (F i ~ F j ) <Th k where i = 2 and j = 2, 3, 4, 5

임계치 Thk뿐만 아니라 새로운 임계치인 Ths를 도입하여 키 프레임들을 대표하는 새로운 대표 키 프레임을 추출할 수도 있으며, 이것은 이전 키 프레임과 현재 키 프레임간의 차이를 비교하여 다음과 같은 조건을 만족하는 키 프레임이 된다.In addition to the threshold T hk , a new threshold Th s can be introduced to extract a new representative key frame representing the key frames, which compares the difference between the previous key frame and the current key frame to satisfy the following conditions. Becomes

△(F'i~F'i+1) < Ths 단, i'=1, 2, …, n'. n'는 키 프레임의 수Δ (F'i to F'i + 1 ) <Th s where i '= 1, 2,... , n '. n 'is the number of key frames

만약 i=3인 키 프레임에서 Ths를 넘었다면 대표 키 프레임은 F0가 되며 키 프레임 집합 { F0, F2, F6 }를 대표하게 된다. 키 프레임은 누적된 프레임 상이도를 이용하지만 대표 키 프레임은 누적되지 않은 프레임 상이도를 이용하며, 따라서 프레임간의 급격한 변화를 찾는 방법으로 사용될 수 있다. If Th s is exceeded in the key frame of i = 3, the representative key frame becomes F 0 and represents the key frame set {F 0 , F 2 , F 6 }. The key frame uses a cumulative frame disparity, but the representative key frame uses an unaccumulated frame disparity, and thus can be used as a method of finding a sudden change between frames.

키 프레임은 트랜잭션을 구성하는 모든 프레임 내에서 화면간의 중복성이 많은 프레임을 제거한 뒤 선택된 임계치 이상의 주요한 프레임만 선택하는 효과가 있다. 따라서 키 프레임을 트랜잭션내 모든 프레임에서 찾은 후 선택된 키 프레임만 선택하여 새로운 로그 파일로 저장 가능하고, 원본 트랜잭션의 주요한 비디오 특성을 주요한 손실없이 유지한 상태로 재저장된 로그 파일을 얻을 수 있다.Key frames have the effect of selecting only the major frames above the selected threshold after removing frames with much redundancy between screens within all frames of a transaction. Therefore, the key frame can be found in all the frames in the transaction, and then the selected key frame can be selected and saved as a new log file. The log file can be obtained while maintaining the main video characteristics of the original transaction without major loss.

알고리즘은 도 7과 같다. 관련 변수 초기화(19c), 관심영역 맵 로딩(20)는 초기화 부분이며, 트랜잭션 종료 확인 블록(21), 최종 프레임 확인 블록(22), 최종 베이스 블록 확인 블록(23), 최종 특성정보 확인 블록(26)에서 트랜잭션 내의 모든 존재하는 베이스 블록의 특성정보를 다음 단계로 전달한다. 최초의 키 프레임은 기본적으로 첫 프레임이 되며 계속적으로 프레임을 증가시키면서 프레임 상이도 계산 블록(31)은 직전 프레임과의 모든 특성정보 변화량을 누적한다. 만약 프레임 상이도 계산 블록에서 누적된 특성정보 변화량이 주어진 키 프레임 임계치보다 큰 경우, 신규 그룹 정의 블록(33)에서는 현재의 프레임을 키 프레임 리스트에 추가하고 새로운 그룹을 시작한다. 다음 단계인 대표 키 프레임 변화량 비교 블록(34)에서는 직전의 키 프레임과 현재의 키 프레임과 특성정보 차이를 계산하고 대표 키 프레임 임계치를 초과하면 현재 키 프레임을 씬 리스트에 추가를 한다. 만약 초과하지 않으면 새로운 프레임으로 진행하며 모든 프레임을 검색한 후 로그에 키 프레임 리스트 및 씬 리스트를 재저장하고 종료한다.  The algorithm is shown in FIG. The relevant variable initialization 19c and the region of interest map loading 20 are initialization parts, and the transaction end confirmation block 21, the final frame confirmation block 22, the final base block confirmation block 23, and the final characteristic information confirmation block ( In step 26), the characteristic information of all existing base blocks in the transaction is transmitted to the next step. The first key frame is basically the first frame, and the frame difference calculation block 31 accumulates all the characteristic information changes with the previous frame while continuously increasing the frame. If the accumulated characteristic information change amount in the frame difference calculation block is larger than a given key frame threshold, the new group definition block 33 adds the current frame to the key frame list and starts a new group. In the next step, the representative key frame change amount comparison block 34 calculates a difference between the previous key frame, the current key frame, and the characteristic information, and adds the current key frame to the scene list when the representative key frame threshold is exceeded. If not exceeded, it proceeds to a new frame, searches all frames, restores the key frame list and scene list in the log, and exits.

단계 5) 클러스터링(8)Step 5) Clustering (8)

전처리 단계는 비디오의 특성을 고려하여 각각 선택적 적용이 가능하며 각 단계를 거친 특성정보 로그들은 클러스터링을 통하여 트랜잭션 비디오들에 대한 특성정보를 저장한 파일을 생성할 수 있고 이러한 파일을 프로파일이라 한다. 앞서 설명한 바와 같이 기존의 클러스터링은 트랜잭션이라는 개념을 도입하지 않았으나 본 발명에서는 시작 및 종료점에 의해서 하나의 논리적인 단위로 간주되는 트랜잭션을 접목하였고 하나의 트랜잭션에 출현하는 동일한 베이스 블록의 특성정보들은 다수 출현되더라도 논리적 트랜잭션 단위를 기본으로 처리하기 때문에 일회의 빈도로 간주되어 클러스터링 되도록 수정하였다. The preprocessing step can be selectively applied in consideration of the characteristics of the video, and the characteristic information logs through each step can generate a file storing the characteristic information of the transactional videos through clustering, and this file is called a profile. As described above, the existing clustering does not introduce the concept of a transaction, but in the present invention, a transaction that is regarded as one logical unit by a start and end point is grafted, and a plurality of characteristic information of the same base block appearing in one transaction appear. Even if it is, the logical transaction unit is processed as a base, so it is considered as a one-time frequency and modified to be clustered.

클러스터링 과정에서는 비디오 트랜잭션을 정형화한 형태의 특성정보 로그 파일들, 전체 트랜잭션 중에서 데이터가 나타난 트랜잭션 빈도를 의미하는 최소지지도 및 클러스터링 범위를 입력으로 한다. 클러스터링 후 결과 클러스터 Cj는 클러스터 구별자 Cid, 베이스 블록 Bi, 특성정보 f, 클러스터 최소값 Cmin, 클러스터 최대값 Cmax, 클러스터 평균값 Cave 및 클러스터 지지도 Csup을 이용하여 아래와 같이 표현될 수 있다.In the clustering process, the characteristics information log files in the form of a video transaction, the minimum map and the clustering range representing the frequency of transactions appearing in the total transactions are input. After clustering, the resulting cluster C j can be expressed as follows using the cluster identifier C id , base block B i , characteristic information f, cluster minimum value C min , cluster maximum value C max , cluster average value C ave and cluster support C sup . have.

Cj = { Cid, Bi, f, Cmin, Cmax, Cave, Csup | 0 ≤ i < (W/φw)*(H/φh) }C j = {C id , B i , f, C min , C max , C ave , C sup | 0 ≤ i <(W / φw) * (H / φh)}

베이스 블록 ID는 프레임에 나타나는 좌표에 따른 베이스 블록의 ID가 되고 이것은 베이스 블록들간의 합병과 비디오의 해상도에 영향을 받는다. 클러스터 최소값, 클러스터 최대값은 각 클러스터가 가질 수 있는 특성정보의 영역을 나타내는 정보이며 이러한 영역 내에 발생한 특성정보들의 평균이 클러스터 평균값으로 되고, 클러스터 지지도는 각 클러스터의 지지도를 의미한다. 최종적으로 프로파일 P는 클러스터들의 집합 { C0, C1, C2, …, Cd }가 된다.The base block ID becomes the ID of the base block according to the coordinates appearing in the frame, which is affected by the merging between the base blocks and the resolution of the video. The cluster minimum value and the cluster maximum value are information representing an area of characteristic information that each cluster may have, and an average of characteristic information generated in such an area is a cluster average value, and cluster support means support of each cluster. Finally, profile P is a collection of clusters {C 0 , C 1 , C 2 ,. , C d }.

클러스터링은 특성정보값을 베이스 블록 단위로 단일의 트랜잭션에서 나타난 특성정보를 한번의 출현횟수로 간주하여 각각 클러스터링을 하게 된다. 클러스터링 범위와 최소 지지도를 매개변수로서 입력받으며, 클러스터링 범위는 하나의 클러스터로 간주되는 최대한의 특성정보 차이값이며 이 범위보다 작은 특성정보들은 동일한 클러스터가 된다. 최소 지지도는 특성정보가 출현한 트랜잭션의 개수와 전체 트랜잭션 개수간의 비율로 결정이 되며 최소 지지도가 증가할수록 자주 나타나는 특성정보값 위주로 클러스터가 생성된다.Clustering considers the characteristic information value in a single transaction in units of base blocks and clusters each of them. The clustering range and minimum support are input as parameters, and the clustering range is the maximum difference value of the characteristic information regarded as one cluster, and characteristic information smaller than this range becomes the same cluster. The minimum support is determined by the ratio between the number of transactions in which the characteristic information appears and the total number of transactions. A cluster is created around the characteristic information values that frequently appear as the minimum support increases.

단계 6) 유추블럭 생성(10)Step 6) Create Inference Block (10)

비디오 내의 개체들은 개개의 면적을 가지고 프레임 내의 일정한 영역을 점유하기 때문에 특정 개체에 속하는 특성정보는 주변의 동일한 개체가 지닌 클러스터들과 서로 유사하게 된다. 이러한 클러스터의 베이스 블록들을 합병을 하여 하나의 새로운 논리적인 블록으로 변환한 것을 유추블록이라 정의하며, 이것은 다음과 같이 베이스 블록 B의 클러스터 α와 다른 베이스 블록 B'의 클러스터들 β간에 특성정보 유사도 SBi를 계산한 후 미리 설정된 합병허용 임계값 Th 미만인 베이스 블록들을 합병하여 동일한 유추블록으로 생성할 수 있다. 이때 특성정보 유사도 SBi는 다음과 같이 정의된다.Since the objects in the video have individual areas and occupy a certain area in the frame, the characteristic information belonging to a specific object becomes similar to the clusters of the same object around it. The base block of the cluster is merged and transformed into one new logical block, which is called an inferred block. This is similar to the characteristic information similarity SBi between the cluster α of the base block B and the clusters β of the other base block B 'as follows. After calculating, the base blocks that are less than the preset merge allowance threshold Th may be merged to generate the same analogy block. At this time, the characteristic information similarity SBi is defined as follows.

Figure 112004034572414-PAT00003
Figure 112004034572414-PAT00003

즉 유추블록 DBi는 Bi를 기준으로 하여 SBi가 임계값을 만족하는 모든 베이스 블록 Bi'들의 집합 { Bi' | SBi < Th } 가 되며, 새로운 유추블록의 클러스터 a'min, a'max, a'ave, a'sup의 값은 포함된 클러스터들의 min, max, avg, sup 항목들끼리 산술 평균하여 설정되고 이들을 α' l 이라 하면 다음 식과 같이 된다. 여기서 Ct는 DBi의 원소개수를 나타낸다.In other words, the inference block DBi is a set of all base blocks B i 'whose SBi satisfies the threshold based on Bi {B i ' | SB i <Th}, and the values of clusters a ' min , a' max , a ' ave , and a' sup of the new inference block are set by arithmetic average of min, max, avg, and sup items of the included clusters. If these are α ' l , it becomes as follows. Where Ct is the number of elements in DB i .

Figure 112004034572414-PAT00004
Figure 112004034572414-PAT00004

도 8에서는 베이스 블록단위로 처리되는 경우 동일한 특성정보를 지닌 유사한 베이스 블록들(36a)가 하나의 유추블록(36b)로 표현되고, 다수의 베이스 블록 집합 { B0, B1, …, Be }가 { DB0, DB1, DB2 }의 유추 블록 집합으로 간략히 처리되는 것을 예시한다. In FIG. 8, similar base blocks 36a having the same characteristic information when expressed in units of base blocks are represented by one analogy block 36b, and a plurality of base block sets {B 0 , B 1 ,. , B e } is an example of a simple processing of an inferred block set of {DB 0 , DB 1 , DB 2 }.

유추블록을 도입함으로써 비디오의 특성상 존재하는 유사한 특성정보를 지닌 베이스 블록간에 존재하는 중복성을 제거하고 하나의 특성정보로써 유지할 수 있어 베이스 블록 전체의 특성정보를 저장하는 방법보다 데이타의 양을 훨씬 감소시킬 수 있게 되었다. By introducing analogy blocks, the redundancy between base blocks with similar characteristic information existing in video characteristics can be eliminated and maintained as one characteristic information, which reduces the amount of data much more than the method of storing the characteristic information of the entire base block. It became possible.

알고리즘은 도 10과 같다. 관련 변수 초기화(19d)는 초기화 부분이며, 기준 베이스 블록 확인 블록(38)은 베이스 블록간의 특성정보 차이를 계산하기 위한 기준이 되는 베이스 블록을 증가시킨다. 특성정보 차이 계산 블록(39)는 기본 베이스 블록과 변화 베이스 블록(39)간의 차이를 구하여 배열에 저장하고 이 과정은 변화 베이스 블록 확인 블록(40)에서 변화 베이스 블록의 최종값까지 계속된다. 모든 특성정보 차이를 계산하면 최소 차이 검색 블록(41)은 그 중에서 가장 차이가 작은 베이스 블록을 선택하고 최소 차이가 베이스 블록을 합병하기 위한 임계치 미만 여부를 확인하는 임계치 확인 블록(42)을 거친다. 임계치 미만인 경우 베이스 블록 합병 블록(43)에서 베이스 블록들을 합병하고 임계치 이상인 경우 다음 기준 베이스 블록을 증가시키기 위한 과정을 반복한다. The algorithm is shown in FIG. The associated variable initialization 19d is an initialization portion, and the reference base block check block 38 increments the base block, which is a reference for calculating the difference in the characteristic information between the base blocks. The characteristic information difference calculation block 39 obtains the difference between the base base block and the change base block 39 and stores the difference in the array. This process continues from the change base block check block 40 to the final value of the change base block. When the difference of all the characteristic information is calculated, the minimum difference search block 41 selects the base block having the smallest difference and passes through a threshold check block 42 for checking whether the minimum difference is less than a threshold for merging the base blocks. If it is below the threshold, the base block merging block 43 merges the base blocks, and if it is above the threshold, the process for increasing the next reference base block is repeated.

단계 7) 정적 및 동적 베이스 블록 가중치 적용(11)Step 7) Apply Static and Dynamic Base Block Weights (11)

비디오는 비디오 데이터의 특성상 각 베이스 블록이 시간의 경과에 따라 변화하는 동적인 영역과 큰 변화가 없는 정적인 영역으로 구분될 수 있다. 정적인 영역은 변화가 작기 때문에 생성되는 클러스터의 개수도 작고, 동적인 부분은 반대로 클러스터의 개수가 증가된다. 따라서 클러스터의 개수를 동적/정적 베이스 블록 구분 기준이 되는 임계치 Th로 두었을 경우, Th를 초과하는 클러스터 개수를 지닌 특성정보를 포함하는 베이스 블록은 동적인 베이스 블록으로 간주하고, 임계치 이하의 클러스터 개수를 지닌 특성정보를 포함하는 베이스 블록은 정적인 베이스 블록으로 간주할 수 있다. The video may be divided into a dynamic region in which each base block changes over time and a static region without significant change due to the nature of the video data. Since the static region has a small change, the number of clusters generated is small, whereas the dynamic portion increases the number of clusters. Therefore, when the number of clusters is set as the threshold Th that is a dynamic / static base block classification criterion, the base block including the characteristic information having the number of clusters exceeding Th is regarded as a dynamic base block, and the number of clusters below the threshold is counted. A base block including the characteristic information with may be regarded as a static base block.

이러한 특성을 이용하여 아래와 같이 동적 영역 가중치 Sw와 정적 영역 가중치 Dw를 적용하여 정적/동적 베이스 블록 가중치 ΩBi를 구한다.Using these characteristics, the static / dynamic base block weight Ω Bi is obtained by applying the dynamic region weight Sw and the static region weight Dw as follows.

Figure 112004034572414-PAT00005
Figure 112004034572414-PAT00005

일반적으로 비디오에서 정적인 부분은 모든 프레임에 걸쳐 변화가 없으므로 각 특성정보당 하나의 클러스터가 생성되고 동적인 경우는 2개 이상의 다수 클러스터가 생성되기 때문에 Th를 1로 설정할 수 있다.In general, since the static part of the video does not change over all frames, one cluster is generated for each characteristic information, and in a dynamic case, two or more clusters are generated, so Th may be set to 1.

이러한 정적/동적 베이스 블록 가중치를 사용하여 사용자의 의도에 따라 배경인 개체들이 대상이 될 수 있는 정적 베이스 블록과 움직이는 개체들이 대상이 되는 동적인 베이스 블록을 구분하고 각 개체에 대해 중요도를 차별하여 지정할 수 있게 되었다.The static / dynamic base block weights are used to distinguish between static base blocks for which objects in the background can be targeted and dynamic base blocks for moving objects according to the user's intention, and to assign importance to each object. It became possible.

도 11에서 관련 변수 초기화(19e)에서는 관련된 변수를 초기화하며, 프로파일 로딩 블록(44)에서 특성정보 클러스터들을 포함하는 프로파일을 로딩한다. 베이스 블록 또는 유추블록을 기준으로 하여 블록 종료 확인 블록(45)에서 가중치를 적용하기 위한 기준 블록을 차례대로 읽는다. 클러스터 갯수 비교 블록(46)에서 기준 블록이 포함하는 클러스터의 갯수와 임계치를 비교하여 클러스터 갯수가 임계치보다 높으면 동적 가중치 부여 블록(47)에서 해당 클러스터에 동적 가중치를 부여하고 임계치보다 낮은 경우 정적 가중치 부여 블록(48)에서 정적 가중치를 부여한다. 이러한 과정을 마지막 블록까지 반복한다.In FIG. 11, the relevant variable initialization 19e initializes the related variable and loads a profile including the characteristic information clusters in the profile loading block 44. On the basis of the base block or the inferred block, the block end confirmation block 45 reads the reference block for applying the weight in order. In the cluster number comparison block 46, the threshold is compared with the number of clusters included in the reference block. If the cluster number is higher than the threshold, the dynamic weighting block 47 assigns the dynamic weight to the cluster and static weighting if it is lower than the threshold. In block 48 a static weight is assigned. Repeat this process until the last block.

단계 8) 클러스터링Step 8) Clustering

클러스터링 과정에서는 특성 정보가 출현한 트랜잭션 횟수를 전체 트랜잭션 수로 나눈 값인 지지도를 사용한다. 지지도는 트랜잭션들에서 특성정보의 출현 빈도를 나타내는 기준이 되며 최소 지지도를 도입하여 클러스터링시에 최소한의 지지도 이상을 만족하는 중요한 특성 정보만을 추출한다. 따라서 최소 지지도를 만족하지 못하는 특성정보는 클러스터링시에 제외가 되고 최소 지지도 이상의 출현 빈도가 높은 특성 정보만 모델링되어 주요하게 간주되는 클러스터들만 생성할 수 있다. 한편 생성된 클러스터들이 유사한 값을 가지고 있는 경우 다수의 클러스터들을 합병하여 단일의 단순화된 클러스터로 표현할 수 있으며 이 경우 합병하기 위한 최대 유사한 값의 범위를 클러스터링 범위라 한다.The clustering process uses support, which is a value obtained by dividing the number of transactions in which characteristic information appears by the total number of transactions. Support is a criterion that indicates the frequency of appearance of feature information in transactions. By introducing minimum support, only important feature information that satisfies more than the minimum support in clustering is extracted. Therefore, characteristic information that does not satisfy the minimum support is excluded during clustering, and only clusters that are considered as main may be generated by modeling only the characteristic information having a high frequency of appearance above the minimum support. On the other hand, if the generated clusters have similar values, multiple clusters can be merged and expressed as a single simplified cluster. In this case, the maximum similar value range for merging is called a clustering range.

예를 들어 도 12에서 살펴보면 트랜잭션1의 특정 베이스블록에 나타난 특성정보 P1, P2, P3, P4, P5는 각각의 값에 따라 특성정보 영역에 분포되어 표현되고, 트랜잭션2의 특정 베이스블록에 나타난 특성정보 P1, P2, P3, P4는 각각의 값에 따라 트랜잭션2와 같이 특성정보영역에 표현된다. 최소지지도를 0.8로 설정한 경우 P5는 최소지지도를 만족하지 못하므로 제거가 되며, 최소지지도를 만족하는 클러스터링 범위 R에 포함되는 다른 클러스터들은 서로 합병되어 하나의 클러스터를 생성한다. 따라서 최종적인 프로파일에 포함되는 특성정보 클러스터들은 α1, α2, α3가 된다.For example, referring to FIG. 12, the characteristic information P1, P2, P3, P4, and P5 shown in the specific baseblock of transaction 1 are distributed and represented in the characteristic information region according to each value, and the characteristic shown in the specific baseblock of transaction 2 Information P1, P2, P3, and P4 are represented in the characteristic information area as transaction 2 according to their respective values. If the minimum support map is set to 0.8, P5 is removed because it does not satisfy the minimum support map, and other clusters included in the clustering range R satisfying the minimum support map are merged with each other to create a cluster. Therefore, the characteristic information clusters included in the final profile are α1, α2, and α3.

클러스터링 후 결과 클러스터 αj는 클러스터 구별자 αid, 베이스블록 Bi, 특성 정보 f, 클러스터 최소값 αmin, 클러스터 최대값 αmax, 클러스터 평균값 αavg 및 클러스터 지지도 αsup를 이용하여 아래와 같이 표현될 수 있으며 이러한 클러스터들을 표현하는 요약 정보 파일을 프로파일이라 한다.After clustering, the resulting cluster αj can be expressed as follows by using the cluster identifier αid, baseblock Bi, characteristic information f, cluster minimum value αmin, cluster maximum value αmax, cluster average value αavg and cluster support αsup. Information files are called profiles.

αj = { αid, Bi, f, αmin, αmax, αavg, αsup | 0 ≤ i < (W/φw)*(H/φh) }αj = {αid, Bi, f, αmin, αmax, αavg, αsup | 0 ≤ i <(W / φw) * (H / φh)}

베이스블록 Bi는 프레임내 좌표에 따른 베이스블록의 식별자가 되고, 클러스터 최소값, 클러스터 최대값은 각 클러스터가 가질 수 있는 특성정보의 영역을 나타내는 정보이며 이러한 영역 내에 발생한 특성정보들의 평균이 클러스터 평균값으로 되고 클러스터 지지도는 각 클러스터의 지지도를 의미한다. 최종적으로 프로파일 P는 다음과 같이 클러스터들의 집합이 된다.The baseblock Bi is an identifier of the baseblock according to the coordinates in the frame, the cluster minimum value and the cluster maximum value are information indicating an area of characteristic information each cluster can have, and the average of characteristic information generated in these areas is the cluster average value. Cluster support means the support of each cluster. Finally, profile P becomes a set of clusters as follows.

P = { α0, α1, α2, …, αd }P = {alpha 0, alpha 1, alpha 2,... , αd}

단계 9) 순차 로그 생성Step 9) Generate Sequential Logs

비디오 트랜잭션 로그로부터 순차적으로 출현하는 데이터들의 주요한 패턴들을 추출하기 위해서는 우선적으로 로그에서 주요한 데이터만을 추출한 뒤 순차적인 패턴을 생성하여야 한다. 이렇게 하기 위해서는 입력된 로그의 데이터들 중에서 클러스터링 프로파일에서 나타난 클러스터들만 선택하여 새로운 파일로 만들고, 이 파일에 다타난 클러스터들을 대상으로 하여 순차적으로 나타나는 패턴을 검색하는 방법을 사용한다. 순차 로그는 프레임의 종료 및 트랜잭션의 종료 구별자를 가지고 있다. 순차 로그를 생성하는 과정에서 트랜잭션 로그에 출현하는 클러스터들이 방대하게 추출되는 경우가 있으며 이러한 경우 순차 로그를 압축하거나 중복되는 정보를 제거하는 효과적인 방법이 필요하다. 본 발명에서는 연속되는 프레임간의 중복되는 클러스터를 제거하기 위해서 새롭게 현재 프레임에 출현하거나 현재 프레임에서 소멸하는 클러스터를 제거하는 기법을 사용하였다. In order to extract the main patterns of the data appearing sequentially from the video transaction log, first extract only the main data from the log and then generate the sequential patterns. To do this, select only the clusters that appear in the clustering profile among the data of the input log, create a new file, and search for the patterns that appear sequentially in the clusters listed in this file. The sequential log has end of frame and end of transaction identifiers. In the process of generating sequential logs, clusters appearing in transaction logs are often extracted. In this case, an effective method of compressing sequential logs or removing redundant information is required. In the present invention, in order to remove overlapping clusters between successive frames, a technique of removing a cluster newly appearing or disappearing from the current frame is used.

알고리즘은 도 13과 같다. 관련 변수 초기화(49)에서는 관련된 변수를 초기화하며, 프로파일 로딩 블록(44)에서 특성정보 클러스터들을 포함하는 프로파일을 로딩한다. 비디오 종료 확인 블록(21), 최종 프레임 확인 블록(22), 최종 베이스 블록 확인 블록(23), 최종 특성정보 확인 블록(26)에서 트랜잭션 내의 모든 존재하는 베이스 블록의 특성정보를 처음 데이터부터 최종 데이터까지 차례대로 검색하여 특성정보 및 클러스터 비교 블록(50)에서 프로파일의 동일한 베이스 블록, 동일한 특성정보의 클러스터를 대상으로 하여 만족하는 클러스터가 있는지 검색 후 만족하는 경우 다음 단계로 진행한다. 클러스터 비교 블록(67)과 클러스터 백업 블록(68)에서는 현재의 클러스터가 직전 프레임에 출현한 클러스터인지 아닌지를 비교하여 새롭게 현재 프레임에 출현하거나 현재 프레임에서 소멸하는 클러스터인 경우 클러스터 출력 블록(51)에서 출력 파일에 기록한다. 이러한 과정을 최종 트랜잭션 로그를 읽을 때까지 반복한 후 종료한다.The algorithm is shown in FIG. The relevant variable initialization 49 initializes the related variable and loads a profile including the characteristic information clusters in the profile loading block 44. In the video end acknowledgment block 21, the final frame acknowledgment block 22, the final base block acknowledgment block 23, and the final characteristic information acknowledgment block 26, the characteristic information of all existing base blocks in the transaction is determined from the initial data to the final data. In order to search through the feature information and the cluster comparison block 50 in the same base block and the cluster of the same characteristic information in the profile, if the search is satisfied and proceeds to the next step. In the cluster comparison block 67 and the cluster backup block 68, the cluster output block 51 compares whether or not the current cluster appears in the previous frame. Write to output file. This process is repeated until the final transaction log is read and then terminated.

단계 10) 순차패턴 마이닝Step 10) Sequential Pattern Mining

순차 로그의 클러스터들로부터 반복적인 순차 패턴을 검색하기 위해서 본 발명에서는 Apriori 알고리즘을 사용한다. Apriori 알고리즘은 다수의 트랜잭션에서 시간의 변화에 따라 빈번하게 발생되는 데이터들로부터 모든 가능한 순차 조합을 생성하고 그들 중에서 일정한 빈발횟수 이상이 되는 조합만을 선택하고 추출하는 가장 기본적인 알고리즘이다. 이러한 과정을 위해서 Apriori 알고리즘은 트랜잭션 리스트, 각 트랜잭션에서 순서대로 출현한 아이템, 그리고 순차 검색을 하기 위하여 전체 트랜잭션에서 출현해야하는 각 아이템의 최소한의 출현 횟수인 최소지지도를 입력받는다. 그 결과로서 동시에 출현하는 클러스터들의 조합과 이러한 클러스터들의 조합이 트랜잭션에서 시간적 진행에 따라 나타나는 순차적인 패턴을 얻을 수 있게 되며 이러한 패턴을 순차 패턴 프로파일에 저장하여 향후 응용할 수 있게 한다. In order to retrieve repetitive sequential patterns from clusters of sequential logs, the present invention uses the Apriori algorithm. The Apriori algorithm is the most basic algorithm that generates all possible sequential combinations from data that occur frequently over time in multiple transactions, and selects and extracts only those combinations that are above a certain frequency. For this process, the Apriori algorithm receives a list of transactions, items that appear in sequence in each transaction, and a minimum map, which is the minimum number of occurrences of each item that must appear in the entire transaction to perform a sequential search. As a result, a combination of clusters appearing at the same time and a combination of these clusters can obtain a sequential pattern appearing over time in a transaction, and these patterns can be stored in a sequential pattern profile for future application.

알고리즘은 도 14과 같다. 관련 변수 초기화(49)에서는 관련된 변수를 초기화하며, 트랜잭션 목록 종료 확인 블록(52)에서 순차 패턴을 추출하기 위한 대상이 되는 트랜잭션을 차례로 검색한다. 이 과정은 비디오 종료 확인 블록(21), 최종 프레임 확인 블록(22), 클러스터 종료 확인 블록(53)를 거쳐 모든 클러스터를 하나씩 읽고 클러스터 목록 갱신 블록(54)에서 읽은 클러스터아이디와 출현 횟수를 차례로 클러스터 목록 데이터 베이스(55)에 저장한다. 모든 트랜잭션을 대상으로 클러스터를 검색한 후 최소 지지도 적용 블록(56) 및 프레임 유효 클러스터 추출 블록(57)에서 최소지지도를 만족하는 중요한 클러스터만을 선택하고 만족하지 못하는 클러스터는 제거를 한다. 최종적으로 유효한 클러스터만을 대상으로 하여 각 클러스터들간의 모든 가능한 조합을 생성하며 이러한 과정은 프레임 유효 클러스터 조합 생성 블록(58)에서 이루어진다. 이렇게 생성된 모든 클러스터 조합들은 각 프레임에서 나타날 수 있는 모든 조합이 되며, 계속적으로 아이디 변환 블록(59)에서 차후 과정들의 계산을단순하게 하기 위해서 각각의 조합들을 하나의 아이디로 대신하여 표현된다. 아이디로 표현된 클러스터 조합들로부터 트랜잭션 유효 클러스터 조합 생성 블록(60)은 시간적 진행에 따라 생성될 수 있는 아이디로 표현된 클러스터들의 조합을 생성하고 아이디 복원 블록(61)에서는 아이디로 표현된 클러스터들을 원래의 클러스터 조합으로 변환한다. 최종적으로 클러스터 조합으로 표현된 순차 패턴을 순차 패턴 파일(62)에 저장한다.The algorithm is shown in FIG. The related variable initialization 49 initializes related variables and sequentially searches for a target transaction for extracting a sequential pattern from the transaction list end confirmation block 52. This process reads all clusters one by one through the video end confirmation block 21, the last frame confirmation block 22, and the cluster end confirmation block 53, and then clusters the cluster IDs read from the cluster list update block 54 and the number of occurrences. The list database 55 is stored. After searching the cluster for all transactions, in the least support block 56 and the frame valid cluster extraction block 57, only the critical clusters satisfying the minimum map are selected and the unsatisfactory clusters are removed. Finally, all possible combinations between the clusters are generated, targeting only valid clusters, and this is done in frame valid cluster combination generation block 58. All cluster combinations thus generated become all combinations that can appear in each frame, and are continuously represented by one ID in order to simplify the calculation of subsequent processes in the ID conversion block 59. From the cluster combinations represented by the IDs, the transaction valid cluster combination generation block 60 generates a combination of clusters represented by the IDs that can be generated over time, and the ID restoration block 61 generates the clusters represented by the IDs. Convert to a cluster combination. Finally, the sequence pattern represented by the cluster combination is stored in the sequence pattern file 62.

이상에서 상술한 바와 같이 본 발명은, 비디오에서 지식 정보를 추출하는 방법에 관한 것으로 비디오에서 비디오 신호를 분해하여 데이터 마이닝을 위한 압축, 정제 과정을 거치고, 데이터 마이닝 기법을 이용하여 특징을 분석하고 지식 정보를 추출 가능하게 하는 것이다. 또한 클러스터링이 가진 지식 정보의 정확성을 보조하기 위해서 순차패턴 마이닝을 통한 순차 패턴의 추출로서 시간적인 진행에 따른 지식 정보의 변화를 추가적으로 정확하게 검토할 수 있게 되었다. 이러한 지식 정보는 방대한 비디오 데이터로부터 축약된 크기로 표현되어 효과적으로 저장 및 관리가 가능하며, 기존의 방법보다 효과적으로 특정한 현상이나 패턴을 추출 가능하게 하여 다양한 목적으로 이용될 수 있는 장점을 지닌다.



As described above, the present invention relates to a method of extracting knowledge information from a video. The video signal is decomposed from a video, subjected to a compression and refinement process for data mining, and a feature is analyzed and knowledged using a data mining technique. To make the information extractable. In addition, in order to assist the accuracy of the knowledge information of clustering, it is possible to additionally examine the change of knowledge information with time progress as extraction of the sequential pattern through sequential pattern mining. Such knowledge information is expressed in a reduced size from massive video data, so that it can be effectively stored and managed, and has the advantage that it can be used for various purposes by extracting a specific phenomenon or pattern more effectively than the existing method.



Claims (13)

비디오 데이터 베이스로부터 지식 정보를 추출하는 시스템에 있어서,In a system for extracting knowledge information from a video database, 상기 단계 후 대상이 되는 비디오 데이터 베이스들로부터 프로파일을 만들기 위해 필요한 기본적인 특성정보들을 추출하는 단계,Extracting basic characteristic information necessary to create a profile from the video databases to be subjected to the above step; 상기 단계 후 불필요한 관심 영역이 포함되어 프로파일의 오차를 증가시키지 않도록 비관심 영역의 베이스 블록들을 제거하여 관심 영역 특성정보 로그파일을 생성하는 단계,Generating a region of interest characteristic log file by removing base blocks of an uninterested region so that unnecessary regions of interest are not included after the step to increase an error of a profile; 상기 단계 후 짧은 시간동안 나타난 개체들을 제거하기 위하여 최소 반복도를 만족하지 못하는 베이스 블록들을 검색하여 제거하고 최소 반복도 특성정보 로그파일을 생성하는 단계,Searching for and removing base blocks that do not satisfy the minimum repeatability to remove the objects appearing for a short time after the step, and generating a minimum repeatability characteristic information log file; 상기 단계 후 시간적 중복성을 제거하기 위하여 전단계로부터 추출된 특성정보 로그로부터 그룹 및 씬 프레임들을 만들고 그 중 키 프레임들을 키 프레임 특성정보 로그파일로 저장하는 단계,Creating group and scene frames from the property information log extracted from the previous step to remove temporal redundancy after the step, and storing the key frames as key frame property information log files; 상기 단계 후 키 프레임 특성정보 로그 파일 또는 전처리 과정에서 생성된 최종 특성정보 로그 파일을 클러스터링하여 프로파일을 만드는 단계, Creating a profile by clustering the key frame characteristic information log file or the final characteristic information log file generated during the preprocessing after the step; 상기 단계 후 프로파일내의 유사한 특성의 클러스터를 지닌 베이스 블록끼리 합병을 하여 유후 블록을 만드는 단계,After the step of merging base blocks having clusters of similar characteristics in the profile to form a yufu block, 상기 단계 후 동적 및 정적 클러스터에 가중치를 적용한 새로운 프로파일을 생성하는 단계,Generating a new profile weighted to the dynamic and static cluster after the step; 상기 단계 후 최종 클러스터링 프로파일과 원본 트랜잭션 로그를 비교하여 순차 로그를 생성하는 단계,Generating a sequential log by comparing the final clustering profile with the original transaction log after the step; 상기 단계 후 순차 로그로부터 순차 패턴을 추출하기 위하여 순차패턴 마이닝을 실행하는 단계로 이루어진 것을 특징으로 하는 비디오 데이터 마이닝 방법.And sequential pattern mining to extract sequential patterns from the sequential logs after the step. 청구항 1 항의 방법을 사용하여 비디오 데이터베이스(1)대신에 비디오 카메라 또는 기타 비디오를 촬영 및 저장 가능하도록 하는 모든 장치를 이용하는 방법.A method using any device that enables the capture and storage of a video camera or other video instead of a video database using the method of claim 1. 청구항 1 항의 방법을 사용하여 사용하는 특성정보는 적색, 녹색, 청색, Y, Cr, Cb, H, S, I를 포함하는 색채 특징을 사용하는 방법Characteristic information used using the method of claim 1 is a method of using color features including red, green, blue, Y, Cr, Cb, H, S, I 청구항 1 항의 방법을 사용하여 사용하는 특성정보로서 개체의 면적, 개체가 이동하는 이동 방향, 개체의 속도, 질감을 사용하는 방법.A method of using the area of an object, the moving direction of the object, the speed of the object, and the texture as the characteristic information used using the method of claim 1. 청구항 1 항의 방법을 사용하여 합병하고자 하는 가로, 세로 픽셀의 개수를 매개변수로 입력하는 베이스 블록 합병 방법Base block merging method for inputting the number of horizontal and vertical pixels to be merged using the method of claim 1 as a parameter 청구항 1 항의 방법을 사용하여 특성정보 카운트 임계치, 특성정보 변화량 임계치를 입력으로 하는 최소 반복도 적용 방법A method of applying minimum repetition rate using the characteristic information count threshold and the characteristic information change threshold as an input using the method of claim 1 청구항 1 항의 방법을 사용하여 키 프레임 임계치와 대표 키 프레임 임계치를 입력으로 하는 키 프레임 추출 방법Key frame extraction method using the key frame threshold and the representative key frame threshold as an input using the method of claim 1 청구항 1 항의 방법을 사용하여 합병허용 임계값이하의 특성정보 차이를 가지는 베이스 블록들을 합병하는 유추블록 생성 방법Inference block generation method for merging base blocks having characteristic information difference less than a merge allowance threshold value using the method of claim 1 청구항 1 항의 방법을 사용하여 동적, 정적 베이스 블록 가중치를 설정하기 위해서 클러스터 개수 임계치를 입력으로 하는 동적, 정적 베이스 블록 가중치 적용 방법Dynamic, static base block weighting method using the cluster number threshold as input to set the dynamic, static base block weight using the method of claim 1 청구항 1 항의 방법을 사용하여 클러스터링 범위, 최소 지지도를 입력으로 하는 클러스터링 방법Clustering method using the method of claim 1 as a clustering range, minimum support 청구항 1 항의 방법을 사용하여 원본 트랜잭션 로그와 클러스터링 프로파일을 비교하여 순차로그를 생성할 때 클러스터 중복성을 제거하여 압축 효율을 높히기 위해서 직전 프레임에 출현한 클러스터와 현재의 클러스터를 비교하여 새롭게 현재 프레임에 출현하거나 현재 프레임에서 소멸하는 클러스터인 경우에만 순차 로그에 출력하는 순차 로그 출력 방법Comparing the original transaction log and the clustering profile using the method of claim 1, when generating a sequential log, the cluster appeared in the previous frame and the current cluster newly appeared in the current frame to remove cluster redundancy and increase compression efficiency. Log output method to print to the sequential log only when the cluster is destroyed in the current frame 청구항 1 항 또는 1~11항의 방법을 사용하여 획득한 프로파일과 새로운 비디오를 비교하여 쌍방간의 유사도를 계산하는 단계,Comparing the new video and the profile obtained using the method of claim 1 or 1 to 11 to calculate the similarity between the two sides, 상기 단계 후 새로운 비디오로부터 로그를 추출하고 보유하는 기존의 클러스터링 프로파일 및 순차 패턴 프로파일간의 유사도를 각각 계산하고 설정된 임계치와 비교하여 임계치를 만족하는 여부에 의해 그 결과를 통보하는 시스템(도 2)A system for calculating the similarity between the existing clustering profile and the sequential pattern profile that extracts and retains the log from the new video after the above step, and notifies the result by comparing the threshold with a set threshold (FIG. 2). 청구항 12항에 있어서 클러스터링 및 순차 패턴 프로파일은 오프라인으로 미리 생성을 하지만 새로운 비디오로부터의 출력은 온라인으로 접근되어 실시간으로 비교가능 하도록 한 시스템The system of claim 12, wherein the clustering and sequential pattern profiles are pre-generated off-line but output from the new video is accessed online and comparable in real time.
KR1020040060782A 2004-08-02 2004-08-02 Common Information Mining Technique for Similar Video Data Ceased KR20060012071A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040060782A KR20060012071A (en) 2004-08-02 2004-08-02 Common Information Mining Technique for Similar Video Data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040060782A KR20060012071A (en) 2004-08-02 2004-08-02 Common Information Mining Technique for Similar Video Data

Publications (1)

Publication Number Publication Date
KR20060012071A true KR20060012071A (en) 2006-02-07

Family

ID=37121869

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040060782A Ceased KR20060012071A (en) 2004-08-02 2004-08-02 Common Information Mining Technique for Similar Video Data

Country Status (1)

Country Link
KR (1) KR20060012071A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100907283B1 (en) * 2007-10-31 2009-07-13 연세대학교 산학협력단 Method and apparatus for finding clusters from data streams, which are non-limiting data sets composed of continuously occurring data objects
KR100944540B1 (en) * 2007-12-18 2010-03-03 (주)휴맥스 Encoding method and apparatus using frame skipping
KR101254247B1 (en) * 2007-01-18 2013-04-12 중앙대학교 산학협력단 Apparatus and method for detecting program plagiarism through memory access log analysis
KR20220043314A (en) * 2020-09-29 2022-04-05 주식회사 포스코아이씨티 Data Pre-Processing System
CN115588147A (en) * 2022-08-19 2023-01-10 北京蜜度信息技术有限公司 Video key frame extraction method, system, storage medium and terminal
CN117676136A (en) * 2023-11-16 2024-03-08 广州群接龙网络科技有限公司 Method and system for processing group-connected data

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101254247B1 (en) * 2007-01-18 2013-04-12 중앙대학교 산학협력단 Apparatus and method for detecting program plagiarism through memory access log analysis
KR100907283B1 (en) * 2007-10-31 2009-07-13 연세대학교 산학협력단 Method and apparatus for finding clusters from data streams, which are non-limiting data sets composed of continuously occurring data objects
KR100944540B1 (en) * 2007-12-18 2010-03-03 (주)휴맥스 Encoding method and apparatus using frame skipping
KR20220043314A (en) * 2020-09-29 2022-04-05 주식회사 포스코아이씨티 Data Pre-Processing System
CN115588147A (en) * 2022-08-19 2023-01-10 北京蜜度信息技术有限公司 Video key frame extraction method, system, storage medium and terminal
CN117676136A (en) * 2023-11-16 2024-03-08 广州群接龙网络科技有限公司 Method and system for processing group-connected data

Similar Documents

Publication Publication Date Title
US8467611B2 (en) Video key-frame extraction using bi-level sparsity
US20120148149A1 (en) Video key frame extraction using sparse representation
US8467610B2 (en) Video summarization using sparse basis function combination
CN116363554B (en) A method, system, medium, device, and terminal for extracting keyframes from surveillance video.
Kannan et al. Image clustering and retrieval using image mining techniques
CN108805002A (en) Monitor video accident detection method based on deep learning and dynamic clustering
Yuan et al. Key frame extraction based on global motion statistics for team-sport videos
Mahmoud et al. Unsupervised video summarization via dynamic modeling-based hierarchical clustering
KR20060012071A (en) Common Information Mining Technique for Similar Video Data
Chatzigiorgaki et al. Real-time keyframe extraction towards video content identification
Mounika Bommisetty et al. Fusion of gradient and feature similarity for Keyframe extraction
CN113886632B (en) Video retrieval matching method based on dynamic programming
Anees et al. Deep learning framework for density estimation of crowd videos
Hu et al. Normal learning in videos with attention prototype network
CN114677638A (en) Detection method based on deep learning and abnormal clustering of clustered people
CN113657169A (en) Gait recognition method, device, system and computer readable storage medium
CN112884683A (en) Video image enhancement processing method and device and electronic equipment
Lu et al. An automatic video classification system based on a combination of HMM and video summarization
De Santo et al. An unsupervised algorithm for anchor shot detection
CN114495037B (en) A video prediction method and system based on key points and Kalman filtering
Ciocca et al. Supervised and unsupervised classification post-processing for visual video summaries
Doulamis Indexing and retrieval of the most characteristic frames/scenes in video databases
Abdullah et al. Determining adaptive thresholds for image segmentation for a license plate recognition system
Zhong et al. Prediction system for activity recognition with compressed video
Sasongko et al. Efficient generation of pleasant video summaries

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20040802

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20060223

Patent event code: PE09021S01D

E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20060427

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20060223

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I