KR20060012071A - Common Information Mining Technique for Similar Video Data - Google Patents
Common Information Mining Technique for Similar Video Data Download PDFInfo
- Publication number
- KR20060012071A KR20060012071A KR1020040060782A KR20040060782A KR20060012071A KR 20060012071 A KR20060012071 A KR 20060012071A KR 1020040060782 A KR1020040060782 A KR 1020040060782A KR 20040060782 A KR20040060782 A KR 20040060782A KR 20060012071 A KR20060012071 A KR 20060012071A
- Authority
- KR
- South Korea
- Prior art keywords
- block
- video
- characteristic information
- clustering
- cluster
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/51—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
본 발명은 유사 비디오에서 지식 정보를 추출하는 방법에 관한 것으로, 더욱 상세하게는 비디오 데이타로부터 비디오 신호를 분해하여 압축, 정제 과정을 거치고 클러스터링을 이용하여 군집화 특징을 분석한 후, 순차 패턴을 검색하여 지식 정보를 추출하는 유사 비디오에 대한 데이터 마이닝 시스템에 관한 것이다.The present invention relates to a method for extracting knowledge information from a similar video. More particularly, the present invention relates to a method of extracting knowledge information from video data, compressing and refining a video signal, analyzing clustering features using clustering, and then searching a sequential pattern. A data mining system for similar video extracting knowledge information.
이를 위하여 본 발명은, 비디오에서 지식정보를 추출하는 시스템에 있어서 비디오로부터 출력되는 비디오 신호를 분해하여 다양한 비디오 특징들로 표현하는 단계, 상기 단계 후 결과 데이터를 압축하기 위해서 주요한 프레임을 추출하는 단계, 상기 단계에서 추출된 주요한 프레임을 대상으로 잡음 또는 초단기 출현 개체의 제거를 통한 데이터 정제 단계, 상기 단계를 통과한 데이터를 클러스터링으로써 클러스터를 검색하고 특성정보 파일로 표현하는 단계, 상기 과정의 특성정보 파일에서 표현된 다수의 클러스터를 동일 특징을 지닌 논리적인 블록으로 병합하는 단계, 정적 및 동적인 영역에 별도의 가중치를 적용하여 클러스터링 대상을 줄이는 단계, 추출된 지식을 클러스터링 프로파일로 만드는 단계, 그리고 클러스터링 프로파일과 비디오 데이터로부터 순차패턴을 검색하는 순차패턴 마이닝 단계로 구성된다.To this end, the present invention, in the system for extracting the knowledge information from the video, decomposing the video signal output from the video to represent various video features, after the step of extracting the main frame to compress the resulting data, Refining the data by removing noise or short-term occurrences from the main frame extracted in the above step; Searching the cluster by clustering the data passing through the step; Merging a plurality of clusters represented in the above into logical blocks having the same characteristics, reducing clustering targets by applying separate weights to static and dynamic regions, making extracted knowledge into clustering profiles, and clustering profiles And video day It consists of a sequential pattern mining step of retrieving the sequential pattern from the data.
비디오, 데이터 마이닝, 클러스터링, 순차패턴 마이닝, 프로파일, 클러스터, 정상 행위, 비정상 행위, 감시 Video, data mining, clustering, sequential pattern mining, profile, cluster, normal behavior, abnormal behavior, surveillance
Description
도 1은 전체적인 시스템을 표현한 블록 다이어그램이다1 is a block diagram representing the overall system.
도 2는 본 발명을 이용한 감시 환경 적용의 예를 나타낸 블록 다이어그램이다2 is a block diagram showing an example of application of the monitoring environment using the present invention.
도 3은 프레임 내 픽셀의 병합을 표현한 예제 도해이다3 is an example diagram representing merging of pixels in a frame.
도 4는 관심 영역 설정을 표현한 예제 도해이다4 is an example diagram representing a region of interest setting.
도 5는 관심 영역 설정 과정을 표현한 블록 다이어그램이다5 is a block diagram representing a process of setting a region of interest.
도 6은 최소 반복도 적용 과정을 표현한 블록 다이어그램이다6 is a block diagram representing a process of applying a minimum repeatability.
도 7은 키 프레임 추출 과정을 표현한 블록 다이어그램이다7 is a block diagram representing a key frame extraction process.
도 8은 유추 블록을 표현한 예제 도해이다8 is an example diagram representing an inference block.
도 9는 키 프레임 추출 과정을 표현한 예제 도해이다9 is an exemplary diagram representing a key frame extraction process.
도 10은 유추 블록 생성 과정을 표현한 블록 다이어그램이다10 is a block diagram representing an inferred block generation process.
도 11은 정적/동적 블록 검색 과정을 표현한 블록 다이어그램이다11 is a block diagram representing a static / dynamic block search process.
도 12은 순차 로그 생성 과정을 표현한 블록 다이어그램이다12 is a block diagram representing a sequential log generation process.
도 13은 순차패턴 마이닝 과정을 표현한 블록 다이어그램이다13 is a block diagram representing a sequential pattern mining process.
<도면의 주요부분에 대한 부호의 설명> <Description of the symbols for the main parts of the drawings>
1 : 비디오 데이터 베이스2 : 특성정보 추출1: video database 2: feature information extraction
3 : 특성정보 로그4 : 관심 영역 설정 블록3: characteristic information log 4: ROI setting block
5 : 최소반복도 처리 블록6 : 키 프레임 추출 블록5: minimum repeat processing block 6: key frame extraction block
7 : 전처리 특성정보 로그8 : 클러스터링 블록7: preprocessing characteristic information log 8: clustering block
9 : 프로파일10 : 유추 블록 생성 블록9: Profile 10: inference block generation block
11 : 정적/동적 가중치 적용 블록12 : 클러스터링 프로파일11: Static / Dynamic Weighted Block 12: Clustering Profile
13 : 전처리+클러스터링+후처리 블록14 : 판정 블록13: Preprocessing + Clustering + Post Processing Block 14: Decision Block
15a: 개체 A 픽셀 a15a: Object A pixel a
15b: 개체 A 픽셀 b15b: Object A pixel b
15c: 개체 A 픽셀 c15c: object A pixel c
15d: 개체 A 픽셀 d15d: Object A pixel d
16 : 베이스 블록17 : 개체 A16: Base Block 17: Object A
18 : 개체 B19a: 관련변수 초기화 블록 A18: Object B19a: Relevant Variable Initialization Block A
19b: 관련변수 초기화 블록 B19c: 관련변수 초기화 블록 C19b: Relevant variable initialization block B19c: Relevant variable initialization block C
19d: 관련변수 초기화 블록 D19e: 관련변수 초기화 블록 E19d: Relevant variable initialization block D19e: Relevant variable initialization block E
20 : 관심 영역 맵 로딩21 : 트랜잭션 종료 확인 블록20: Loading the region of interest map 21: Transaction termination confirmation block
22 : 최종 프레임 확인 블록23 : 최종 베이스 블록 확인 블록22: Final frame check block 23: Final base block check block
24 : 관심영역 포함 여부 확인 블록25 : 특성정보 제거 블록24: check whether the region of interest is included block 25: block removing characteristic information
27 : 특성정보 변화량 판단 블록28 : 특성정보 카운트 판단 블록27: characteristic information change determination block 28: characteristic information count determination block
29 : 특성정보 제거 블록30 : 특성정보 유지 블록29: characteristic information removal block 30: characteristic information maintenance block
31 : 그룹 변화량 누적 블록32 : 그룹 변화량 비교 블록31: group change amount accumulation block 32: group change amount comparison block
33 : 신규 그룹 정의 블록34 : 씬 변화량 비교 블록33: New group definition block 34: Scene variation comparison block
35 : 신규 씬 정의 블록36a: 합병 전 베이스 블록35: New
36b: 합병된 베이스 블록(유추 블록)37 : 키 프레임 추출을 사용하는 예36b: Merged Base Block (Inferred Block) 37: Example Using Key Frame Extraction
38 : 기준 베이스 블록 확인 블록39 : 특성정보 차이 계산 블록38: reference base block check block 39: characteristic information difference calculation block
40 : 변화 베이스 블록 확인 블록41 : 최소 차이 검색 블록40: change base block check block 41: minimum difference search block
42 : 임계치 확인 블록43 : 베이스 블록 합병 블록42: threshold check block 43: base block merge block
44 : 프로파일 로딩 블록45 : 블록 종료 확인 블록44: profile loading block 45: block end confirmation block
46 : 클러스터 개수 비교 블록47 : 동적 가중치 부여 블록46: Cluster Count Comparison Block 47: Dynamic Weighting Block
48 : 정적 가중치 부여 블록49 : 초기화 블록48: static weighting block 49: initialization block
50 : 특성정보 및 클러스터 비교 블록51 : 클러스터 출력 블록50: characteristic information and cluster comparison block 51: cluster output block
52 : 트랜잭션 목록 종료 확인 블록53 : 클러스터 종료 확인 블록52: Transaction list termination confirmation block 53: Cluster termination confirmation block
54 : 클러스터 목록 갱신 블록55 : 클러스터 목록 데이터 베이스54: Cluster List Update Block 55: Cluster List Database
56 : 최소 지지도 적용 블록57 : 프레임 유효 클러스터 추출 블록56: minimum support block 57: frame effective cluster extraction block
58 : 프레임 유효 클러스터 조합 생성 블록59 : 아이디 변환 블록58: frame valid cluster combination generation block 59: ID conversion block
60 : 트랜잭션 유효 클러스터 조합 생성 블록60: Transaction Effective Cluster Combination Generation Block
61 : 아이디 복원 블록62 : 순차 패턴 파일61: ID Restore Block 62: Sequential Pattern File
63 : 순차 로그 생성 블록64 : 순차 로그63: sequential log generation block 64: sequential log
65 : 순차 패턴 생성 블록66 : 순차 패턴 프로파일65: sequential pattern generation block 66: sequential pattern profile
67 : 클러스터 비교 블록68 : 클러스터 백업 블록67: cluster comparison block 68: cluster backup block
본 발명은 비디오로부터 지식정보를 추출하는 방법에 관한 것으로, 더욱 상세하게는 수집된 비디오들에서 비디오 신호를 분해하여 압축 및 정제 과정을 거치고, 클러스터링 및 순차패턴 마이닝을 이용하여 지식정보를 추출하는 과정을 포함하는 유사 비디오 데이터에 대한 마이닝 기법에 관한 것이다.The present invention relates to a method of extracting knowledge information from a video, and more particularly, to a process of decompressing and compressing a video signal from collected videos, compressing and purifying them, and extracting knowledge information using clustering and sequential pattern mining. The present invention relates to a mining technique for similar video data including a.
비디오에 관한 기존의 연구는 비디오 데이터로부터 추출되는 정보의 해석방법 종류에 따라 색상, 질감 등의 형태론적인 특성정보를 추출하는 형태론적인 관점과 비디오 내에 나타나는 배경과 분리된 개체들의 동작과 의미에 관련된 특정정보를 추출하는 의미론적인 관점으로 나눠진다. 이러한 방법으로 추출된 비디오 특성을 이용하는 연구로는 비디오 데이터 베이스에서 효과적이고 정확한 비디오의 검색을 제공하기 위한 인덱싱이나 유사한 성격을 지닌 카테고리로 분류하는 분야가 있다. 공간에 분포된 데이터들을 대상으로 유사한 특성을 지닌 군집을 찾아내어 해당 데이터에 내재된 특성 및 구조를 판단하기 위한 방법으로는 K-means나 Forgy's와 같은 다양한 클러스터링 기법들이 제안되어 왔다. 순차패턴 마이닝은 시간적인 분포를 가지는 데이터들로부터 순차적인 공통된 패턴을 찾아내는 데이터 마이닝의 기법중에 하나이며 대표적인 연구로는 Apriori 방법이 있다. Existing researches on video have a morphological perspective that extracts morphological characteristic information such as color and texture according to the method of interpretation of information extracted from video data, and specifics related to the motion and meaning of objects separated from the background appearing in the video. It is divided into semantic views that extract information. Researches using video features extracted in this way include the field of indexing or categorization into similar categories to provide effective and accurate video retrieval from video databases. Various clustering techniques, such as K-means or Forgy's, have been proposed to find clusters with similar characteristics for data distributed in space and to determine the characteristics and structures inherent in the data. Sequential pattern mining is one of the data mining techniques that finds a common pattern that is sequential from data with temporal distribution. A representative study is Apriori.
그러나 비디오를 해석하기 위한 기존의 연구는 비디오의 방대한 데이터 양과 그 특징에 기반한 효과적인 마이닝 방법의 부재로 인하여 통계적인 방법 수준의 한정된 분야만 중점이 되어왔다. 또한 비디오에 표현되는 의미요소를 해석하기 위한 기존 연구는 개체의 명확한 파악과 특징 추출 및 이를 기반으로 하는 의미적 해석이 불가능하여 실용적인 수준의 향상을 기대할 수 없어 제한적으로 활용되었다. 특히 유사한 비디오를 대상으로 하는 경우 각 비디오에서 계속적으로 반복되는 특성정보의 추출이 더욱 용이할 수 있으나 이에 대한 연구는 활발하게 이루어지지 않았다.However, the existing researches for video interpretation have focused only on a limited field of statistical methods due to the large amount of data in video and the lack of effective mining methods based on its features. In addition, the existing researches for interpreting the semantic elements represented in the video have been used limitedly because it is impossible to clearly understand the object, extract the features and semantic interpretation based on them. In particular, in the case of targeting similar videos, it may be easier to extract feature information that is repeatedly repeated in each video, but research on this has not been actively conducted.
본 발명은 상기와 같은 문제점을 해소하기 위해서 유사한 비디오들로부터 효과적으로 비디오 데이터를 압축하고 데이터 클러스터링을 이용하여 특성 요약 정보 추출한 후 순차패턴 마이닝을 통해 순차 패턴을 추출하는 과정을 포함하는 형태론적인 비디오 정보로부터 의미 있는 패턴을 직접 추출하는 방법을 제안한다. 여기에는 관심영역을 설정하여 데이터 양을 감소시키는 방법, 프레임내 단시간 나타나는 특성 요소를 제거하는 방법, 주요 프레임만을 추출하는 방법, 유사한 특징의 픽셀을 논리적인 기본단위로 결합하는 방법, 동적/정적인 영역을 분리하여 가중치 기반으로 움직임 정보를 분리하는 방법, 전후 프레임간의 중복되는 클러스터를 선택적으로 제거하는 방법 등이 포함되며 이러한 통합된 시스템을 제공하는데 본 발명의 목적이 있는 것이다.In order to solve the above problems, the present invention effectively compresses video data from similar videos, extracts feature summary information using data clustering, and extracts sequential patterns through sequential pattern mining. We propose a method to directly extract meaningful patterns. This includes setting a region of interest to reduce the amount of data, removing feature elements that appear in a short time within a frame, extracting only major frames, combining pixels of similar characteristics into logical basic units, and dynamic / static A method of separating motion information based on weights by separating a region, a method of selectively removing overlapping clusters between front and rear frames, and the like is provided, and an object of the present invention is to provide such an integrated system.
비디오 데이터는 일반적으로 대용량이므로 데이터들의 군집화된 특성을 추출하는 클러스터링(8)에 필요한 시간도 초기 자료의 크기에 비례하여 상승한다. 따라서 미리 데이터 집합을 가공하여 압축된 작은 용량의 주요한 데이터 집합으로 재생성한 후 클러스터링(8)을 수행 한다면 보다 정확하고 신속한 결과를 얻을 수 있다. 특히 비디오는 그 특성상 공간적, 시간적인 중복성이 크므로 중복성이 제거된 중요한 정보만을 추출함으로써 비디오에 나타나는 정보에 대한 의미적 손실을 최소화한다. 또한 비디오를 생성하는 카메라나 동영상의 주변 환경에 따른 불필요한 잡음이 포함되는 경우가 많기 때문에 데이터를 정제하는 과정을 거치면 유사 비디오간의 공통 정보를 보다 효과적으로 추출할 수 있다. Since video data is generally large, the time required for clustering 8 to extract clustered characteristics of the data also increases in proportion to the size of the initial data. Therefore, if the data set is processed in advance and regenerated into a compressed small data set and then clustered (8), more accurate and faster results can be obtained. In particular, since video has a large spatial and temporal redundancy due to its characteristics, the semantic loss of information appearing in the video is minimized by extracting only important information from which redundancy is removed. In addition, since unnecessary noise is often included according to the surrounding environment of a camera or a video generating video, common information between similar videos can be more effectively extracted through a process of refining data.
도 1 은 전체적인 데이터 마이닝 시스템을 도시화 한 것으로써 다음의 각 프로세스 단계로 구성되며 사용자의 필요에 따라 1단계를 제외한 모든 단계를 선택적으로 적용할 수 있다.FIG. 1 illustrates the overall data mining system, and is composed of the following process steps, and all steps except
단계 1) 비디오 데이터로부터 특성정보 로그 추출(2)Step 1) Extract characteristic log from video data (2)
단계 2) 관심 영역 설정(4)Step 2) Set up region of interest (4)
단계 3) 최소 반복도를 적용한 특성정보 추출(5)Step 3) Extraction of characteristic information applying minimum repeatability (5)
단계 4) 키 프레임 추출(6)Step 4) Extract Key Frames (6)
단계 5) 클러스터링(8)Step 5) Clustering (8)
단계 6) 유추 블록 생성(10)Step 6) Create Inference Block (10)
단계 7) 동적 정적 영역 가중치 적용(11)Step 7) Apply dynamic static domain weights (11)
단계 8) 클러스터링Step 8) Clustering
단계 9) 순차 로그 생성Step 9) Generate Sequential Logs
단계 10) 순차패턴 마이닝Step 10) Sequential Pattern Mining
이하 첨부된 도면에 의해 상세히 설명하면 다음과 같다. Hereinafter, described in detail by the accompanying drawings as follows.
단계 1) 비디오 데이터로부터 특성정보 로그 추출(2)Step 1) Extract characteristic log from video data (2)
비디오로부터 비디오의 내용을 분석하여 단일 순간의 정지화상을 일컫는 프레임단위로 분리를 하고, 각 프레임별로 픽셀단위로 적색, 녹색, 청색 등과 같은 비디오를 표현하는 특성 정보를 추출한다. 비디오가 시작해서 종료하는 시간동안 입력된 비디오를 트랜잭션이라고 정의하며 이러한 비디오 트랜잭션은 동일 비디오의 연속된 프레임들로 구성된다. The contents of the video are analyzed from the video, separated into frame units that refer to a single instant of still image, and feature information representing a video such as red, green, and blue is extracted for each frame. A video entered during the time the video starts and ends is defined as a transaction, and this video transaction consists of successive frames of the same video.
비디오로부터 추출된 질감, 색상 등의 특성정보는 데이터의 크기를 감소시키기 위해서 사용자의 설정에 따른 일정한 개수로 픽셀을 합병하며 이를 베이스 블록이라고 정의한다. 예를 들어 도 3과 같이 각 픽셀(15a)(15b)(15c)(15d)는 각 비디오 특성 성분값(이하 특성정보라 한다)에 대한 산술평균계산법으로 재계산되어 합병이 되며 베이스 블록 단위로 로그파일(3)에 저장된다.Characteristic information such as texture and color extracted from the video is merged with a certain number of pixels according to a user's setting in order to reduce the size of data, which is defined as a base block. For example, as shown in FIG. 3, each
많은 응용분야에서 수집되는 데이터는 동시에 발생되고 의미적으로 나눌 수 없는 데이터 집합의 단위인 트랜잭션단위로 생성된다. 반면, 기존의 클러스터링은 연속적인 값을 갖는 데이터에 대한 모델링에는 적합하지만 트랜잭션 개념을 고려한 클러스터링을 수행하지 않기 때문에 트랜잭션 데이터의 특성을 반영하는 클러스터를 생성하는데 적합하지 않다. 따라서 본 발명에서는 대상이 되는 비디오 데이터에 트랜잭션 개념을 반영하고 이러한 트랜잭션으로부터 클러스터를 추출할 수 있도록 수정된 클러스터링 기법을 적용하였다. 트랜잭션 개념을 도입한 비디오 트랜잭션은 비디오가 시작하는 순간부터 종료하는 순간까지 하나의 논리적인 단위로 간주된다. In many applications, data is generated in transactional units, which are units of data sets that are generated concurrently and cannot be semantically divided. On the other hand, existing clustering is suitable for modeling data having continuous values, but it is not suitable for creating clusters that reflect the characteristics of transaction data because it does not perform clustering considering transaction concepts. Therefore, in the present invention, a modified clustering technique is applied to reflect the concept of a transaction and extract a cluster from the transaction. A video transaction that introduces the concept of a transaction is regarded as a logical unit from the moment the video starts to the end.
단계 2) 관심 영역 제한(4)Step 2) Restrict area of interest (4)
비디오 데이터에서 분석대상이 되는 데이터의 양을 줄일 수 있는 가장 단순한 방법으로서 화면 공간내의 선별적인 관심 영역만을 분석대상으로 정의하는 관심 영역 제한 방법을 고려할 수 있다. 이 방법은 데이터의 크기를 감소시킬 뿐만 아니라 비관심 영역으로부터 추출되어 데이터의 모델링 결과의 정확성을 저하시키는 불필요한 특성정보를 제거하는 효과를 갖는다. As the simplest method of reducing the amount of data to be analyzed in the video data, a region of interest limitation method may be considered, in which only a selective region of interest in the screen space is defined as an analysis target. This method not only reduces the size of the data, but also has the effect of removing unnecessary characteristic information extracted from the uninterested region and degrading the accuracy of the modeling result of the data.
비디오 데이터에 있어서 관심영역과 비관심영역은 입력되는 일정한 형태의 매핑파일을 읽고 비디오 데이터를 구성하는 베이스 블록의 특성정보 값에 대해 유지 또는 제거하는 방법을 통하여 구현된다. 즉, 적용 이전의 베이스 블록 Bi의 특성정보 f가 가진 특성값인 V Bif 가 관심영역에 속하는 경우에는 관심 영역 제한 방법이 적용된 특성값 V' Bif 가 동일한 값을 가지지만 비관심 영역인 경우 제거된다. The region of interest and the region of uninterest in the video data are implemented by reading a mapping file of a predetermined type and maintaining or removing the characteristic information values of the base blocks constituting the video data. That is, if the characteristic value V Bif of the characteristic information f of the base block B i before application belongs to the region of interest, the characteristic value V ' Bif to which the region of interest restriction method is applied has the same value but is removed if it is an uninterested region. do.
이와 같이 재정의된 특성값을 갖는 비디오 데이터는 임계값 0을 기준으로 관심영역과 비관심 영역으로 구분되며 비관심 영역으로 판정된 베이스 블록은 비디오 데이터를 표현하는 특성값 집합에서 제거되어 분석 대상이 되는 데이터 양을 감소시킬 수 있다.The video data having the redefined feature values is divided into a region of interest and an uninterested region based on the
알고리즘은 도 5와 같다. 관련 변수 초기화(19a), 관심영역 맵 로딩(20)는 초기화 부분이며, 대상이 되는 비디오 트랜잭션의 종료시까지 모든 트랜잭션을 차례로 로딩하는 트랜잭션 종료 확인 블록(21), 각 트랜잭션의 종료시까지 모든 프레임을 차례로 로딩하는 최종 프레임 확인 블록(22), 각 베이스 블록의 종료시까지 모든 베이스 블록을 로딩하는 최종 베이스 블록 확인 블록(23)에서 로그내의 모든 존재하는 베이스 블록을 차례대로 검색하여 다음 블록에 전달한다. 관심영역 포함 여부 확인 블록(24) 및 특성정보 제거 블록(25)에서는 전달받은 관심영역의 베이스 블록과 초기화된 관심영역 맵과 비교하여 관심영역 내에 포함되는 베이스 블록만 유지하고 로그를 저장한다.The algorithm is shown in FIG. The relevant variable initialization 19a and the region of interest map loading 20 are initialization parts, a transaction
도 4를 예로 들면 개체 A(17a,17b,17c,17d)와 개체 B(18)중에서 개체 A(17a,17b,17c,17d)의 특징에만 관심이 있는 경우 빗금친 영역으로 관심영역을 설정하면 관심영역이 아닌 개체 B(18)은 로그에서 제외된다.For example, if the interest region is set to the shaded area when only the features of the entity A (17a, 17b, 17c, 17d) and the
단계 3) 최소 반복도를 적용한 특성정보 추출(5)Step 3) Extraction of characteristic information applying minimum repeatability (5)
하나의 비디오 트랜잭션에서는 시간 흐름에 따라 변화되는 각 프레임에서 다양한 개체들이 비디오 내에 출현하고 소멸될 수 있다. 단일의 트랜잭션 내에서 개체가 출현하는 시간의 길이로써 해당 개체의 중요성을 판단하는 기준이 될 수 있으며 이를 연속된 프레임 수로 표현할 수가 있다. 본 발명에서는 각 베이스 블록의 특성정보들이 연속적인 프레임 내에서 임계치 이내의 편차값으로 유지되는 경우 유효한 정보로 간주하여 유효 정보화되는 최소 프레임 수를 최소 반복도라고 정의한다. 이러한 최소 반복도에 의해 잡음 같은 최소 반복도보다 낮은 특성정보의 경우 제거되므로 주요정보를 유지하면서 비디오 데이터의 양을 효과적으로 줄일 수 있다. In one video transaction, various objects may appear and disappear within the video at each frame that changes over time. The length of time that an entity appears in a single transaction can be used as a criterion for judging the importance of the entity and can be expressed as the number of consecutive frames. In the present invention, when the characteristic information of each base block is maintained as a deviation value within a threshold value in a continuous frame, it is regarded as valid information and defines the minimum number of frames that are effectively informed as the minimum repeatability. This minimum repetition removes the characteristic information lower than the minimum repetition rate such as noise, thereby effectively reducing the amount of video data while maintaining the main information.
최소 반복도를 활용한 데이터 제거 방법에는 최소 반복도 임계치를 만족하지 못하는 해당 특성정보들만 제거하는 특성정보 제거 방법과, 베이스 블록을 구성하는 모든 특성정보들이 최소 반복도를 만족하지 못하는 경우에 베이스 블록 자체를 제거하는 베이스 블록 제거 방법, 그리고 제거되는 베이스 블록과 유효한 베이스 블록의 비율이 설정된 임계치를 넘는 경우 프레임을 제거하는 프레임 제거 방법이 있다.The data removal method using the minimum repeatability includes the feature information removal method that removes only the corresponding characteristic information that does not satisfy the minimum repeatability threshold, and the base block when all the characteristic information constituting the base block does not satisfy the minimum repeatability. There is a method of removing a base block to remove itself, and a method of removing a frame if the ratio of the removed base block to a valid base block exceeds a set threshold.
특성정보 제거 방법은 개체가 표현하는 모든 특성 중에 일부만 제거하게 되므로 추출한 특성정보 결과에 오차가 발생할 수 있는 반면에 베이스 블록 제거 방법은 잡음 같은 불필요한 개체가 발생한 베이스 블록을 전부 제거하게 되므로 적절한 방법이 될 수 있다. 또한 프레임 제거 방법은 프레임 전체적으로 진동이나 잡음이 발생한 경우 효과적으로 프레임을 제거하는 방법이 될 수 있다.Because the characteristic information removal method removes only a part of all the characteristics expressed by the object, an error may occur in the extracted characteristic information result, while the base block removal method removes all the base blocks in which unnecessary objects such as noise are generated. Can be. In addition, the frame removal method may be a method of effectively removing a frame when vibration or noise occurs in the entire frame.
특성정보 제거 방법 및 베이스 블록 제거 방법처럼 최소 반복도를 만족하지 못하는 경우 해당 부분을 제거하는 방법 외에도 직전 프레임의 해당 특성정보 또는 베이스 블록의 값을 복사하는 방법이 있다. 이 방법은 데이터를 압축하는 의미보다는 순간적으로 출현한 잡음 정보대신에 정상적으로 나타난 직전 프레임의 정보를 사용하여 수정하기 때문에 대상 비디오에서 주목하고자 하는 장시간 노출된 개체의 데이터만을 선택하는 정제 효과를 지니게 된다. If the minimum repeatability is not satisfied, such as the feature information removal method and the base block removal method, there is a method of copying the corresponding property information of the previous frame or the value of the base block in addition to removing the corresponding part. Instead of compressing the data, this method modifies using the information of the immediately preceding frame instead of the instantaneous noise information, which has a refinement effect of selecting only the data of the long-exposure object to be noted in the target video.
알고리즘은 도 6과 같다. 관련 변수 초기화(19b), 관심영역 맵 로딩(20)는 초기화 부분이며, 비디오 종료 확인 블록(21), 최종 프레임 확인 블록(22), 최종 베이스 블록 확인 블록(23), 최종 특성정보 확인 블록(26)에서 트랜잭션 내의 모든 존재하는 베이스 블록의 특성정보를 처음 데이터부터 최종 데이터까지 차례대로 검색하여 특성정보 변화량 판단 블록(27)에서 직전 프레임의 특성정보값과 비교를 한다. 만약 특성정보 변화량이 임계치 보다 큰 경우, 특성정보 카운트 판단 블록에서 특성정보가 임계치 내에서 반복된 횟수를 계산한다. 특성정보 카운트가 특성정보 카운트 임계치보다 큰 경우, 그 특성정보는 유효한 값으로 간주를 하고 보존하며, 특성정보 카운트 임계치보다 작은 경우는 특성정보 제거 블록(29)에서 특성정보를 제거한다. 만약 특성정보 변화량이 임계치보다 작은 경우, 특성정보 카운트는 특성정보 유지 블록(30)에서 +1만큼 증가가 되고 다음 특성정보로 진행한다. 모든 특성정보를 확인한 후 로그를 수정하고 종료한다. The algorithm is shown in FIG. The relevant variable initialization 19b and the region of interest map loading 20 are initialization parts, and the video
단계 4) 키 프레임 추출(6)Step 4) Extract Key Frames (6)
비디오 생성시에 초당 촬영 프레임 수가 높은 경우 전후 프레임간 상관도가 높으므로 특성정보 변화가 적은 연속적인 프레임들을 모아 이들 프레임들을 대표할 수 있는 키 프레임만을 선택하는 방법이 효과적이며 이러한 기법을 키 프레임 방법이라 한다. 트랜잭션을 구성하는 프레임 중에 키 프레임을 선택하는 방법은 다양하며 본 발명에서는 프레임 상이도라는 정의를 도입하여 선택 기준으로 사용한다.If the number of frames taken per second is high when generating video, the correlation between the frames before and after is high. Therefore, it is effective to select only the key frames that can represent these frames by collecting consecutive frames with little change in characteristic information. This is called. There are various methods for selecting a key frame among the frames composing the transaction, and the present invention introduces a definition of frame differentiation and uses it as a selection criterion.
[정의 1] 프레임 상이도[Definition 1] Frame Differentiation
원본의 프레임들에서 연속된 프레임 Fi와 Fj간의 프레임 상이도 Δ(Fi~Fj)는 다음과 같이 각 베이스 블록의 이전 프레임의 특성정보에서 현재 프레임의 특성정보간 차이의 절대값을 누적한 값으로 정의된다.The frame difference Δ (F i ~ F j ) between successive frames F i and F j in the original frames is the absolute value of the difference between the characteristic information of the current frame in the characteristic information of the previous frame of each base block as follows. It is defined as a cumulative value.
이러한 프레임 상이도는 직전 프레임으로부터 현재 프레임에 나타난 특성정보들의 변화량에 따라 비례하여 변하게 되며 트랜잭션에 나타나는 첫 프레임을 키 프레임으로 선택한 뒤 연속된 프레임에 대해 프레임 상이도를 추출하여 주어진 임계치 이상의 상이도가 되기 시작하는 프레임을 새로운 키 프레임으로 선택한다. 이러한 키 프레임은 연속되는 임계치 이하의 프레임 상이도를 가진 프레임들을 대표하는 프레임이라 할 수 있으며 이러한 방법을 사용하여 계속적으로 잔여 트랜잭션의 모든 프레임에 대해 키 프레임을 추출한다.This frame difference is changed proportionally according to the amount of change of the characteristic information in the current frame from the previous frame.The difference between the frame and the threshold is extracted by selecting the first frame as the key frame and extracting the frame difference for successive frames. Select the frame that starts to be the new key frame. Such a key frame may be referred to as a frame representing frames having a frame degree of difference below a successive threshold, and this method is used to continuously extract key frames for all frames of the remaining transaction.
예를 들어 [그림 5]에서 최초 프레임 F0 는 항상 키 프레임이 되고 다음부터 순차적으로 해당 프레임을 증가시키면서 프레임 상이도를 연속적으로 계산하며 만약 i =2인 프레임에서 프레임 상이도 △(F0~F2)가 임계치 Thk를 초과한다면 다음의 키 프레임은 F2가 되고 첫 키 프레임은 F0는 프레임 집합 { F0, F1 }를 대표하며 다음을 만족하게 된다.For example, in [Figure 5], the first frame F 0 is always a key frame, and the frame difference is continuously calculated by increasing the frames sequentially from the next. If the frame difference is △ (F 0 ~) If F 2 ) exceeds the threshold T hk , the next key frame becomes F 2 , and the first key frame F 0 represents the frame set {F 0 , F 1 } and satisfies the following.
△(Fi~Fj) < Thk 단, i=0 이고 j= 0, 1△ (F i ~ F j ) <T hk where i = 0 and j = 0, 1
두번째 키 프레임인 F2로부터 계속적으로 프레임 상이도를 계산 진행하며, 만약 i=6인 프레임에서 Thk를 초과한다면 세번째 키 프레임은 F6이 되고 프레임 집합 { F2, F3, F4, F5 }를 대표하며 다음을 만족하게 된다.The frame difference is continuously calculated from F 2 , the second key frame. If T hk is exceeded in a frame with i = 6, the third key frame becomes F 6 and the frame set {F 2 , F 3 , F 4 , F 5 } and the following are satisfied.
△(Fi~Fj) < Thk 단, i =2 이고 j= 2, 3, 4, 5△ (F i ~ F j ) <Th k where i = 2 and j = 2, 3, 4, 5
임계치 Thk뿐만 아니라 새로운 임계치인 Ths를 도입하여 키 프레임들을 대표하는 새로운 대표 키 프레임을 추출할 수도 있으며, 이것은 이전 키 프레임과 현재 키 프레임간의 차이를 비교하여 다음과 같은 조건을 만족하는 키 프레임이 된다.In addition to the threshold T hk , a new threshold Th s can be introduced to extract a new representative key frame representing the key frames, which compares the difference between the previous key frame and the current key frame to satisfy the following conditions. Becomes
△(F'i~F'i+1) < Ths 단, i'=1, 2, …, n'. n'는 키 프레임의 수Δ (F'i to F'i + 1 ) <Th s where i '= 1, 2,... , n '. n 'is the number of key frames
만약 i=3인 키 프레임에서 Ths를 넘었다면 대표 키 프레임은 F0가 되며 키 프레임 집합 { F0, F2, F6 }를 대표하게 된다. 키 프레임은 누적된 프레임 상이도를 이용하지만 대표 키 프레임은 누적되지 않은 프레임 상이도를 이용하며, 따라서 프레임간의 급격한 변화를 찾는 방법으로 사용될 수 있다. If Th s is exceeded in the key frame of i = 3, the representative key frame becomes F 0 and represents the key frame set {F 0 , F 2 , F 6 }. The key frame uses a cumulative frame disparity, but the representative key frame uses an unaccumulated frame disparity, and thus can be used as a method of finding a sudden change between frames.
키 프레임은 트랜잭션을 구성하는 모든 프레임 내에서 화면간의 중복성이 많은 프레임을 제거한 뒤 선택된 임계치 이상의 주요한 프레임만 선택하는 효과가 있다. 따라서 키 프레임을 트랜잭션내 모든 프레임에서 찾은 후 선택된 키 프레임만 선택하여 새로운 로그 파일로 저장 가능하고, 원본 트랜잭션의 주요한 비디오 특성을 주요한 손실없이 유지한 상태로 재저장된 로그 파일을 얻을 수 있다.Key frames have the effect of selecting only the major frames above the selected threshold after removing frames with much redundancy between screens within all frames of a transaction. Therefore, the key frame can be found in all the frames in the transaction, and then the selected key frame can be selected and saved as a new log file. The log file can be obtained while maintaining the main video characteristics of the original transaction without major loss.
알고리즘은 도 7과 같다. 관련 변수 초기화(19c), 관심영역 맵 로딩(20)는 초기화 부분이며, 트랜잭션 종료 확인 블록(21), 최종 프레임 확인 블록(22), 최종 베이스 블록 확인 블록(23), 최종 특성정보 확인 블록(26)에서 트랜잭션 내의 모든 존재하는 베이스 블록의 특성정보를 다음 단계로 전달한다. 최초의 키 프레임은 기본적으로 첫 프레임이 되며 계속적으로 프레임을 증가시키면서 프레임 상이도 계산 블록(31)은 직전 프레임과의 모든 특성정보 변화량을 누적한다. 만약 프레임 상이도 계산 블록에서 누적된 특성정보 변화량이 주어진 키 프레임 임계치보다 큰 경우, 신규 그룹 정의 블록(33)에서는 현재의 프레임을 키 프레임 리스트에 추가하고 새로운 그룹을 시작한다. 다음 단계인 대표 키 프레임 변화량 비교 블록(34)에서는 직전의 키 프레임과 현재의 키 프레임과 특성정보 차이를 계산하고 대표 키 프레임 임계치를 초과하면 현재 키 프레임을 씬 리스트에 추가를 한다. 만약 초과하지 않으면 새로운 프레임으로 진행하며 모든 프레임을 검색한 후 로그에 키 프레임 리스트 및 씬 리스트를 재저장하고 종료한다. The algorithm is shown in FIG. The relevant variable initialization 19c and the region of interest map loading 20 are initialization parts, and the transaction
단계 5) 클러스터링(8)Step 5) Clustering (8)
전처리 단계는 비디오의 특성을 고려하여 각각 선택적 적용이 가능하며 각 단계를 거친 특성정보 로그들은 클러스터링을 통하여 트랜잭션 비디오들에 대한 특성정보를 저장한 파일을 생성할 수 있고 이러한 파일을 프로파일이라 한다. 앞서 설명한 바와 같이 기존의 클러스터링은 트랜잭션이라는 개념을 도입하지 않았으나 본 발명에서는 시작 및 종료점에 의해서 하나의 논리적인 단위로 간주되는 트랜잭션을 접목하였고 하나의 트랜잭션에 출현하는 동일한 베이스 블록의 특성정보들은 다수 출현되더라도 논리적 트랜잭션 단위를 기본으로 처리하기 때문에 일회의 빈도로 간주되어 클러스터링 되도록 수정하였다. The preprocessing step can be selectively applied in consideration of the characteristics of the video, and the characteristic information logs through each step can generate a file storing the characteristic information of the transactional videos through clustering, and this file is called a profile. As described above, the existing clustering does not introduce the concept of a transaction, but in the present invention, a transaction that is regarded as one logical unit by a start and end point is grafted, and a plurality of characteristic information of the same base block appearing in one transaction appear. Even if it is, the logical transaction unit is processed as a base, so it is considered as a one-time frequency and modified to be clustered.
클러스터링 과정에서는 비디오 트랜잭션을 정형화한 형태의 특성정보 로그 파일들, 전체 트랜잭션 중에서 데이터가 나타난 트랜잭션 빈도를 의미하는 최소지지도 및 클러스터링 범위를 입력으로 한다. 클러스터링 후 결과 클러스터 Cj는 클러스터 구별자 Cid, 베이스 블록 Bi, 특성정보 f, 클러스터 최소값 Cmin, 클러스터 최대값 Cmax, 클러스터 평균값 Cave 및 클러스터 지지도 Csup을 이용하여 아래와 같이 표현될 수 있다.In the clustering process, the characteristics information log files in the form of a video transaction, the minimum map and the clustering range representing the frequency of transactions appearing in the total transactions are input. After clustering, the resulting cluster C j can be expressed as follows using the cluster identifier C id , base block B i , characteristic information f, cluster minimum value C min , cluster maximum value C max , cluster average value C ave and cluster support C sup . have.
Cj = { Cid, Bi, f, Cmin, Cmax, Cave, Csup | 0 ≤ i < (W/φw)*(H/φh) }C j = {C id , B i , f, C min , C max , C ave , C sup | 0 ≤ i <(W / φw) * (H / φh)}
베이스 블록 ID는 프레임에 나타나는 좌표에 따른 베이스 블록의 ID가 되고 이것은 베이스 블록들간의 합병과 비디오의 해상도에 영향을 받는다. 클러스터 최소값, 클러스터 최대값은 각 클러스터가 가질 수 있는 특성정보의 영역을 나타내는 정보이며 이러한 영역 내에 발생한 특성정보들의 평균이 클러스터 평균값으로 되고, 클러스터 지지도는 각 클러스터의 지지도를 의미한다. 최종적으로 프로파일 P는 클러스터들의 집합 { C0, C1, C2, …, Cd }가 된다.The base block ID becomes the ID of the base block according to the coordinates appearing in the frame, which is affected by the merging between the base blocks and the resolution of the video. The cluster minimum value and the cluster maximum value are information representing an area of characteristic information that each cluster may have, and an average of characteristic information generated in such an area is a cluster average value, and cluster support means support of each cluster. Finally, profile P is a collection of clusters {C 0 , C 1 , C 2 ,. , C d }.
클러스터링은 특성정보값을 베이스 블록 단위로 단일의 트랜잭션에서 나타난 특성정보를 한번의 출현횟수로 간주하여 각각 클러스터링을 하게 된다. 클러스터링 범위와 최소 지지도를 매개변수로서 입력받으며, 클러스터링 범위는 하나의 클러스터로 간주되는 최대한의 특성정보 차이값이며 이 범위보다 작은 특성정보들은 동일한 클러스터가 된다. 최소 지지도는 특성정보가 출현한 트랜잭션의 개수와 전체 트랜잭션 개수간의 비율로 결정이 되며 최소 지지도가 증가할수록 자주 나타나는 특성정보값 위주로 클러스터가 생성된다.Clustering considers the characteristic information value in a single transaction in units of base blocks and clusters each of them. The clustering range and minimum support are input as parameters, and the clustering range is the maximum difference value of the characteristic information regarded as one cluster, and characteristic information smaller than this range becomes the same cluster. The minimum support is determined by the ratio between the number of transactions in which the characteristic information appears and the total number of transactions. A cluster is created around the characteristic information values that frequently appear as the minimum support increases.
단계 6) 유추블럭 생성(10)Step 6) Create Inference Block (10)
비디오 내의 개체들은 개개의 면적을 가지고 프레임 내의 일정한 영역을 점유하기 때문에 특정 개체에 속하는 특성정보는 주변의 동일한 개체가 지닌 클러스터들과 서로 유사하게 된다. 이러한 클러스터의 베이스 블록들을 합병을 하여 하나의 새로운 논리적인 블록으로 변환한 것을 유추블록이라 정의하며, 이것은 다음과 같이 베이스 블록 B의 클러스터 α와 다른 베이스 블록 B'의 클러스터들 β간에 특성정보 유사도 SBi를 계산한 후 미리 설정된 합병허용 임계값 Th 미만인 베이스 블록들을 합병하여 동일한 유추블록으로 생성할 수 있다. 이때 특성정보 유사도 SBi는 다음과 같이 정의된다.Since the objects in the video have individual areas and occupy a certain area in the frame, the characteristic information belonging to a specific object becomes similar to the clusters of the same object around it. The base block of the cluster is merged and transformed into one new logical block, which is called an inferred block. This is similar to the characteristic information similarity SBi between the cluster α of the base block B and the clusters β of the other base block B 'as follows. After calculating, the base blocks that are less than the preset merge allowance threshold Th may be merged to generate the same analogy block. At this time, the characteristic information similarity SBi is defined as follows.
즉 유추블록 DBi는 Bi를 기준으로 하여 SBi가 임계값을 만족하는 모든 베이스 블록 Bi'들의 집합 { Bi' | SBi < Th } 가 되며, 새로운 유추블록의 클러스터 a'min, a'max, a'ave, a'sup의 값은 포함된 클러스터들의 min, max, avg, sup 항목들끼리 산술 평균하여 설정되고 이들을 α' l 이라 하면 다음 식과 같이 된다. 여기서 Ct는 DBi의 원소개수를 나타낸다.In other words, the inference block DBi is a set of all base blocks B i 'whose SBi satisfies the threshold based on Bi {B i ' | SB i <Th}, and the values of clusters a ' min , a' max , a ' ave , and a' sup of the new inference block are set by arithmetic average of min, max, avg, and sup items of the included clusters. If these are α ' l , it becomes as follows. Where Ct is the number of elements in DB i .
도 8에서는 베이스 블록단위로 처리되는 경우 동일한 특성정보를 지닌 유사한 베이스 블록들(36a)가 하나의 유추블록(36b)로 표현되고, 다수의 베이스 블록 집합 { B0, B1, …, Be }가 { DB0, DB1, DB2 }의 유추 블록 집합으로 간략히 처리되는 것을 예시한다. In FIG. 8,
유추블록을 도입함으로써 비디오의 특성상 존재하는 유사한 특성정보를 지닌 베이스 블록간에 존재하는 중복성을 제거하고 하나의 특성정보로써 유지할 수 있어 베이스 블록 전체의 특성정보를 저장하는 방법보다 데이타의 양을 훨씬 감소시킬 수 있게 되었다. By introducing analogy blocks, the redundancy between base blocks with similar characteristic information existing in video characteristics can be eliminated and maintained as one characteristic information, which reduces the amount of data much more than the method of storing the characteristic information of the entire base block. It became possible.
알고리즘은 도 10과 같다. 관련 변수 초기화(19d)는 초기화 부분이며, 기준 베이스 블록 확인 블록(38)은 베이스 블록간의 특성정보 차이를 계산하기 위한 기준이 되는 베이스 블록을 증가시킨다. 특성정보 차이 계산 블록(39)는 기본 베이스 블록과 변화 베이스 블록(39)간의 차이를 구하여 배열에 저장하고 이 과정은 변화 베이스 블록 확인 블록(40)에서 변화 베이스 블록의 최종값까지 계속된다. 모든 특성정보 차이를 계산하면 최소 차이 검색 블록(41)은 그 중에서 가장 차이가 작은 베이스 블록을 선택하고 최소 차이가 베이스 블록을 합병하기 위한 임계치 미만 여부를 확인하는 임계치 확인 블록(42)을 거친다. 임계치 미만인 경우 베이스 블록 합병 블록(43)에서 베이스 블록들을 합병하고 임계치 이상인 경우 다음 기준 베이스 블록을 증가시키기 위한 과정을 반복한다. The algorithm is shown in FIG. The associated variable initialization 19d is an initialization portion, and the reference base block check block 38 increments the base block, which is a reference for calculating the difference in the characteristic information between the base blocks. The characteristic information difference calculation block 39 obtains the difference between the base base block and the change base block 39 and stores the difference in the array. This process continues from the change base block check block 40 to the final value of the change base block. When the difference of all the characteristic information is calculated, the minimum difference search block 41 selects the base block having the smallest difference and passes through a threshold check block 42 for checking whether the minimum difference is less than a threshold for merging the base blocks. If it is below the threshold, the base block merging block 43 merges the base blocks, and if it is above the threshold, the process for increasing the next reference base block is repeated.
단계 7) 정적 및 동적 베이스 블록 가중치 적용(11)Step 7) Apply Static and Dynamic Base Block Weights (11)
비디오는 비디오 데이터의 특성상 각 베이스 블록이 시간의 경과에 따라 변화하는 동적인 영역과 큰 변화가 없는 정적인 영역으로 구분될 수 있다. 정적인 영역은 변화가 작기 때문에 생성되는 클러스터의 개수도 작고, 동적인 부분은 반대로 클러스터의 개수가 증가된다. 따라서 클러스터의 개수를 동적/정적 베이스 블록 구분 기준이 되는 임계치 Th로 두었을 경우, Th를 초과하는 클러스터 개수를 지닌 특성정보를 포함하는 베이스 블록은 동적인 베이스 블록으로 간주하고, 임계치 이하의 클러스터 개수를 지닌 특성정보를 포함하는 베이스 블록은 정적인 베이스 블록으로 간주할 수 있다. The video may be divided into a dynamic region in which each base block changes over time and a static region without significant change due to the nature of the video data. Since the static region has a small change, the number of clusters generated is small, whereas the dynamic portion increases the number of clusters. Therefore, when the number of clusters is set as the threshold Th that is a dynamic / static base block classification criterion, the base block including the characteristic information having the number of clusters exceeding Th is regarded as a dynamic base block, and the number of clusters below the threshold is counted. A base block including the characteristic information with may be regarded as a static base block.
이러한 특성을 이용하여 아래와 같이 동적 영역 가중치 Sw와 정적 영역 가중치 Dw를 적용하여 정적/동적 베이스 블록 가중치 ΩBi를 구한다.Using these characteristics, the static / dynamic base block weight Ω Bi is obtained by applying the dynamic region weight Sw and the static region weight Dw as follows.
일반적으로 비디오에서 정적인 부분은 모든 프레임에 걸쳐 변화가 없으므로 각 특성정보당 하나의 클러스터가 생성되고 동적인 경우는 2개 이상의 다수 클러스터가 생성되기 때문에 Th를 1로 설정할 수 있다.In general, since the static part of the video does not change over all frames, one cluster is generated for each characteristic information, and in a dynamic case, two or more clusters are generated, so Th may be set to 1.
이러한 정적/동적 베이스 블록 가중치를 사용하여 사용자의 의도에 따라 배경인 개체들이 대상이 될 수 있는 정적 베이스 블록과 움직이는 개체들이 대상이 되는 동적인 베이스 블록을 구분하고 각 개체에 대해 중요도를 차별하여 지정할 수 있게 되었다.The static / dynamic base block weights are used to distinguish between static base blocks for which objects in the background can be targeted and dynamic base blocks for moving objects according to the user's intention, and to assign importance to each object. It became possible.
도 11에서 관련 변수 초기화(19e)에서는 관련된 변수를 초기화하며, 프로파일 로딩 블록(44)에서 특성정보 클러스터들을 포함하는 프로파일을 로딩한다. 베이스 블록 또는 유추블록을 기준으로 하여 블록 종료 확인 블록(45)에서 가중치를 적용하기 위한 기준 블록을 차례대로 읽는다. 클러스터 갯수 비교 블록(46)에서 기준 블록이 포함하는 클러스터의 갯수와 임계치를 비교하여 클러스터 갯수가 임계치보다 높으면 동적 가중치 부여 블록(47)에서 해당 클러스터에 동적 가중치를 부여하고 임계치보다 낮은 경우 정적 가중치 부여 블록(48)에서 정적 가중치를 부여한다. 이러한 과정을 마지막 블록까지 반복한다.In FIG. 11, the relevant variable initialization 19e initializes the related variable and loads a profile including the characteristic information clusters in the
단계 8) 클러스터링Step 8) Clustering
클러스터링 과정에서는 특성 정보가 출현한 트랜잭션 횟수를 전체 트랜잭션 수로 나눈 값인 지지도를 사용한다. 지지도는 트랜잭션들에서 특성정보의 출현 빈도를 나타내는 기준이 되며 최소 지지도를 도입하여 클러스터링시에 최소한의 지지도 이상을 만족하는 중요한 특성 정보만을 추출한다. 따라서 최소 지지도를 만족하지 못하는 특성정보는 클러스터링시에 제외가 되고 최소 지지도 이상의 출현 빈도가 높은 특성 정보만 모델링되어 주요하게 간주되는 클러스터들만 생성할 수 있다. 한편 생성된 클러스터들이 유사한 값을 가지고 있는 경우 다수의 클러스터들을 합병하여 단일의 단순화된 클러스터로 표현할 수 있으며 이 경우 합병하기 위한 최대 유사한 값의 범위를 클러스터링 범위라 한다.The clustering process uses support, which is a value obtained by dividing the number of transactions in which characteristic information appears by the total number of transactions. Support is a criterion that indicates the frequency of appearance of feature information in transactions. By introducing minimum support, only important feature information that satisfies more than the minimum support in clustering is extracted. Therefore, characteristic information that does not satisfy the minimum support is excluded during clustering, and only clusters that are considered as main may be generated by modeling only the characteristic information having a high frequency of appearance above the minimum support. On the other hand, if the generated clusters have similar values, multiple clusters can be merged and expressed as a single simplified cluster. In this case, the maximum similar value range for merging is called a clustering range.
예를 들어 도 12에서 살펴보면 트랜잭션1의 특정 베이스블록에 나타난 특성정보 P1, P2, P3, P4, P5는 각각의 값에 따라 특성정보 영역에 분포되어 표현되고, 트랜잭션2의 특정 베이스블록에 나타난 특성정보 P1, P2, P3, P4는 각각의 값에 따라 트랜잭션2와 같이 특성정보영역에 표현된다. 최소지지도를 0.8로 설정한 경우 P5는 최소지지도를 만족하지 못하므로 제거가 되며, 최소지지도를 만족하는 클러스터링 범위 R에 포함되는 다른 클러스터들은 서로 합병되어 하나의 클러스터를 생성한다. 따라서 최종적인 프로파일에 포함되는 특성정보 클러스터들은 α1, α2, α3가 된다.For example, referring to FIG. 12, the characteristic information P1, P2, P3, P4, and P5 shown in the specific baseblock of
클러스터링 후 결과 클러스터 αj는 클러스터 구별자 αid, 베이스블록 Bi, 특성 정보 f, 클러스터 최소값 αmin, 클러스터 최대값 αmax, 클러스터 평균값 αavg 및 클러스터 지지도 αsup를 이용하여 아래와 같이 표현될 수 있으며 이러한 클러스터들을 표현하는 요약 정보 파일을 프로파일이라 한다.After clustering, the resulting cluster αj can be expressed as follows by using the cluster identifier αid, baseblock Bi, characteristic information f, cluster minimum value αmin, cluster maximum value αmax, cluster average value αavg and cluster support αsup. Information files are called profiles.
αj = { αid, Bi, f, αmin, αmax, αavg, αsup | 0 ≤ i < (W/φw)*(H/φh) }αj = {αid, Bi, f, αmin, αmax, αavg, αsup | 0 ≤ i <(W / φw) * (H / φh)}
베이스블록 Bi는 프레임내 좌표에 따른 베이스블록의 식별자가 되고, 클러스터 최소값, 클러스터 최대값은 각 클러스터가 가질 수 있는 특성정보의 영역을 나타내는 정보이며 이러한 영역 내에 발생한 특성정보들의 평균이 클러스터 평균값으로 되고 클러스터 지지도는 각 클러스터의 지지도를 의미한다. 최종적으로 프로파일 P는 다음과 같이 클러스터들의 집합이 된다.The baseblock Bi is an identifier of the baseblock according to the coordinates in the frame, the cluster minimum value and the cluster maximum value are information indicating an area of characteristic information each cluster can have, and the average of characteristic information generated in these areas is the cluster average value. Cluster support means the support of each cluster. Finally, profile P becomes a set of clusters as follows.
P = { α0, α1, α2, …, αd }P = {
단계 9) 순차 로그 생성Step 9) Generate Sequential Logs
비디오 트랜잭션 로그로부터 순차적으로 출현하는 데이터들의 주요한 패턴들을 추출하기 위해서는 우선적으로 로그에서 주요한 데이터만을 추출한 뒤 순차적인 패턴을 생성하여야 한다. 이렇게 하기 위해서는 입력된 로그의 데이터들 중에서 클러스터링 프로파일에서 나타난 클러스터들만 선택하여 새로운 파일로 만들고, 이 파일에 다타난 클러스터들을 대상으로 하여 순차적으로 나타나는 패턴을 검색하는 방법을 사용한다. 순차 로그는 프레임의 종료 및 트랜잭션의 종료 구별자를 가지고 있다. 순차 로그를 생성하는 과정에서 트랜잭션 로그에 출현하는 클러스터들이 방대하게 추출되는 경우가 있으며 이러한 경우 순차 로그를 압축하거나 중복되는 정보를 제거하는 효과적인 방법이 필요하다. 본 발명에서는 연속되는 프레임간의 중복되는 클러스터를 제거하기 위해서 새롭게 현재 프레임에 출현하거나 현재 프레임에서 소멸하는 클러스터를 제거하는 기법을 사용하였다. In order to extract the main patterns of the data appearing sequentially from the video transaction log, first extract only the main data from the log and then generate the sequential patterns. To do this, select only the clusters that appear in the clustering profile among the data of the input log, create a new file, and search for the patterns that appear sequentially in the clusters listed in this file. The sequential log has end of frame and end of transaction identifiers. In the process of generating sequential logs, clusters appearing in transaction logs are often extracted. In this case, an effective method of compressing sequential logs or removing redundant information is required. In the present invention, in order to remove overlapping clusters between successive frames, a technique of removing a cluster newly appearing or disappearing from the current frame is used.
알고리즘은 도 13과 같다. 관련 변수 초기화(49)에서는 관련된 변수를 초기화하며, 프로파일 로딩 블록(44)에서 특성정보 클러스터들을 포함하는 프로파일을 로딩한다. 비디오 종료 확인 블록(21), 최종 프레임 확인 블록(22), 최종 베이스 블록 확인 블록(23), 최종 특성정보 확인 블록(26)에서 트랜잭션 내의 모든 존재하는 베이스 블록의 특성정보를 처음 데이터부터 최종 데이터까지 차례대로 검색하여 특성정보 및 클러스터 비교 블록(50)에서 프로파일의 동일한 베이스 블록, 동일한 특성정보의 클러스터를 대상으로 하여 만족하는 클러스터가 있는지 검색 후 만족하는 경우 다음 단계로 진행한다. 클러스터 비교 블록(67)과 클러스터 백업 블록(68)에서는 현재의 클러스터가 직전 프레임에 출현한 클러스터인지 아닌지를 비교하여 새롭게 현재 프레임에 출현하거나 현재 프레임에서 소멸하는 클러스터인 경우 클러스터 출력 블록(51)에서 출력 파일에 기록한다. 이러한 과정을 최종 트랜잭션 로그를 읽을 때까지 반복한 후 종료한다.The algorithm is shown in FIG. The relevant variable initialization 49 initializes the related variable and loads a profile including the characteristic information clusters in the
단계 10) 순차패턴 마이닝Step 10) Sequential Pattern Mining
순차 로그의 클러스터들로부터 반복적인 순차 패턴을 검색하기 위해서 본 발명에서는 Apriori 알고리즘을 사용한다. Apriori 알고리즘은 다수의 트랜잭션에서 시간의 변화에 따라 빈번하게 발생되는 데이터들로부터 모든 가능한 순차 조합을 생성하고 그들 중에서 일정한 빈발횟수 이상이 되는 조합만을 선택하고 추출하는 가장 기본적인 알고리즘이다. 이러한 과정을 위해서 Apriori 알고리즘은 트랜잭션 리스트, 각 트랜잭션에서 순서대로 출현한 아이템, 그리고 순차 검색을 하기 위하여 전체 트랜잭션에서 출현해야하는 각 아이템의 최소한의 출현 횟수인 최소지지도를 입력받는다. 그 결과로서 동시에 출현하는 클러스터들의 조합과 이러한 클러스터들의 조합이 트랜잭션에서 시간적 진행에 따라 나타나는 순차적인 패턴을 얻을 수 있게 되며 이러한 패턴을 순차 패턴 프로파일에 저장하여 향후 응용할 수 있게 한다. In order to retrieve repetitive sequential patterns from clusters of sequential logs, the present invention uses the Apriori algorithm. The Apriori algorithm is the most basic algorithm that generates all possible sequential combinations from data that occur frequently over time in multiple transactions, and selects and extracts only those combinations that are above a certain frequency. For this process, the Apriori algorithm receives a list of transactions, items that appear in sequence in each transaction, and a minimum map, which is the minimum number of occurrences of each item that must appear in the entire transaction to perform a sequential search. As a result, a combination of clusters appearing at the same time and a combination of these clusters can obtain a sequential pattern appearing over time in a transaction, and these patterns can be stored in a sequential pattern profile for future application.
알고리즘은 도 14과 같다. 관련 변수 초기화(49)에서는 관련된 변수를 초기화하며, 트랜잭션 목록 종료 확인 블록(52)에서 순차 패턴을 추출하기 위한 대상이 되는 트랜잭션을 차례로 검색한다. 이 과정은 비디오 종료 확인 블록(21), 최종 프레임 확인 블록(22), 클러스터 종료 확인 블록(53)를 거쳐 모든 클러스터를 하나씩 읽고 클러스터 목록 갱신 블록(54)에서 읽은 클러스터아이디와 출현 횟수를 차례로 클러스터 목록 데이터 베이스(55)에 저장한다. 모든 트랜잭션을 대상으로 클러스터를 검색한 후 최소 지지도 적용 블록(56) 및 프레임 유효 클러스터 추출 블록(57)에서 최소지지도를 만족하는 중요한 클러스터만을 선택하고 만족하지 못하는 클러스터는 제거를 한다. 최종적으로 유효한 클러스터만을 대상으로 하여 각 클러스터들간의 모든 가능한 조합을 생성하며 이러한 과정은 프레임 유효 클러스터 조합 생성 블록(58)에서 이루어진다. 이렇게 생성된 모든 클러스터 조합들은 각 프레임에서 나타날 수 있는 모든 조합이 되며, 계속적으로 아이디 변환 블록(59)에서 차후 과정들의 계산을단순하게 하기 위해서 각각의 조합들을 하나의 아이디로 대신하여 표현된다. 아이디로 표현된 클러스터 조합들로부터 트랜잭션 유효 클러스터 조합 생성 블록(60)은 시간적 진행에 따라 생성될 수 있는 아이디로 표현된 클러스터들의 조합을 생성하고 아이디 복원 블록(61)에서는 아이디로 표현된 클러스터들을 원래의 클러스터 조합으로 변환한다. 최종적으로 클러스터 조합으로 표현된 순차 패턴을 순차 패턴 파일(62)에 저장한다.The algorithm is shown in FIG. The related variable initialization 49 initializes related variables and sequentially searches for a target transaction for extracting a sequential pattern from the transaction list end confirmation block 52. This process reads all clusters one by one through the video
이상에서 상술한 바와 같이 본 발명은, 비디오에서 지식 정보를 추출하는 방법에 관한 것으로 비디오에서 비디오 신호를 분해하여 데이터 마이닝을 위한 압축, 정제 과정을 거치고, 데이터 마이닝 기법을 이용하여 특징을 분석하고 지식 정보를 추출 가능하게 하는 것이다. 또한 클러스터링이 가진 지식 정보의 정확성을 보조하기 위해서 순차패턴 마이닝을 통한 순차 패턴의 추출로서 시간적인 진행에 따른 지식 정보의 변화를 추가적으로 정확하게 검토할 수 있게 되었다. 이러한 지식 정보는 방대한 비디오 데이터로부터 축약된 크기로 표현되어 효과적으로 저장 및 관리가 가능하며, 기존의 방법보다 효과적으로 특정한 현상이나 패턴을 추출 가능하게 하여 다양한 목적으로 이용될 수 있는 장점을 지닌다.
As described above, the present invention relates to a method of extracting knowledge information from a video. The video signal is decomposed from a video, subjected to a compression and refinement process for data mining, and a feature is analyzed and knowledged using a data mining technique. To make the information extractable. In addition, in order to assist the accuracy of the knowledge information of clustering, it is possible to additionally examine the change of knowledge information with time progress as extraction of the sequential pattern through sequential pattern mining. Such knowledge information is expressed in a reduced size from massive video data, so that it can be effectively stored and managed, and has the advantage that it can be used for various purposes by extracting a specific phenomenon or pattern more effectively than the existing method.
Claims (13)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020040060782A KR20060012071A (en) | 2004-08-02 | 2004-08-02 | Common Information Mining Technique for Similar Video Data |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020040060782A KR20060012071A (en) | 2004-08-02 | 2004-08-02 | Common Information Mining Technique for Similar Video Data |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR20060012071A true KR20060012071A (en) | 2006-02-07 |
Family
ID=37121869
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020040060782A Ceased KR20060012071A (en) | 2004-08-02 | 2004-08-02 | Common Information Mining Technique for Similar Video Data |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR20060012071A (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR100907283B1 (en) * | 2007-10-31 | 2009-07-13 | 연세대학교 산학협력단 | Method and apparatus for finding clusters from data streams, which are non-limiting data sets composed of continuously occurring data objects |
| KR100944540B1 (en) * | 2007-12-18 | 2010-03-03 | (주)휴맥스 | Encoding method and apparatus using frame skipping |
| KR101254247B1 (en) * | 2007-01-18 | 2013-04-12 | 중앙대학교 산학협력단 | Apparatus and method for detecting program plagiarism through memory access log analysis |
| KR20220043314A (en) * | 2020-09-29 | 2022-04-05 | 주식회사 포스코아이씨티 | Data Pre-Processing System |
| CN115588147A (en) * | 2022-08-19 | 2023-01-10 | 北京蜜度信息技术有限公司 | Video key frame extraction method, system, storage medium and terminal |
| CN117676136A (en) * | 2023-11-16 | 2024-03-08 | 广州群接龙网络科技有限公司 | Method and system for processing group-connected data |
-
2004
- 2004-08-02 KR KR1020040060782A patent/KR20060012071A/en not_active Ceased
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101254247B1 (en) * | 2007-01-18 | 2013-04-12 | 중앙대학교 산학협력단 | Apparatus and method for detecting program plagiarism through memory access log analysis |
| KR100907283B1 (en) * | 2007-10-31 | 2009-07-13 | 연세대학교 산학협력단 | Method and apparatus for finding clusters from data streams, which are non-limiting data sets composed of continuously occurring data objects |
| KR100944540B1 (en) * | 2007-12-18 | 2010-03-03 | (주)휴맥스 | Encoding method and apparatus using frame skipping |
| KR20220043314A (en) * | 2020-09-29 | 2022-04-05 | 주식회사 포스코아이씨티 | Data Pre-Processing System |
| CN115588147A (en) * | 2022-08-19 | 2023-01-10 | 北京蜜度信息技术有限公司 | Video key frame extraction method, system, storage medium and terminal |
| CN117676136A (en) * | 2023-11-16 | 2024-03-08 | 广州群接龙网络科技有限公司 | Method and system for processing group-connected data |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8467611B2 (en) | Video key-frame extraction using bi-level sparsity | |
| US20120148149A1 (en) | Video key frame extraction using sparse representation | |
| US8467610B2 (en) | Video summarization using sparse basis function combination | |
| CN116363554B (en) | A method, system, medium, device, and terminal for extracting keyframes from surveillance video. | |
| Kannan et al. | Image clustering and retrieval using image mining techniques | |
| CN108805002A (en) | Monitor video accident detection method based on deep learning and dynamic clustering | |
| Yuan et al. | Key frame extraction based on global motion statistics for team-sport videos | |
| Mahmoud et al. | Unsupervised video summarization via dynamic modeling-based hierarchical clustering | |
| KR20060012071A (en) | Common Information Mining Technique for Similar Video Data | |
| Chatzigiorgaki et al. | Real-time keyframe extraction towards video content identification | |
| Mounika Bommisetty et al. | Fusion of gradient and feature similarity for Keyframe extraction | |
| CN113886632B (en) | Video retrieval matching method based on dynamic programming | |
| Anees et al. | Deep learning framework for density estimation of crowd videos | |
| Hu et al. | Normal learning in videos with attention prototype network | |
| CN114677638A (en) | Detection method based on deep learning and abnormal clustering of clustered people | |
| CN113657169A (en) | Gait recognition method, device, system and computer readable storage medium | |
| CN112884683A (en) | Video image enhancement processing method and device and electronic equipment | |
| Lu et al. | An automatic video classification system based on a combination of HMM and video summarization | |
| De Santo et al. | An unsupervised algorithm for anchor shot detection | |
| CN114495037B (en) | A video prediction method and system based on key points and Kalman filtering | |
| Ciocca et al. | Supervised and unsupervised classification post-processing for visual video summaries | |
| Doulamis | Indexing and retrieval of the most characteristic frames/scenes in video databases | |
| Abdullah et al. | Determining adaptive thresholds for image segmentation for a license plate recognition system | |
| Zhong et al. | Prediction system for activity recognition with compressed video | |
| Sasongko et al. | Efficient generation of pleasant video summaries |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A201 | Request for examination | ||
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20040802 |
|
| PA0201 | Request for examination | ||
| PG1501 | Laying open of application | ||
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20060223 Patent event code: PE09021S01D |
|
| E601 | Decision to refuse application | ||
| PE0601 | Decision on rejection of patent |
Patent event date: 20060427 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20060223 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |