KR102486699B1 - 영상 인식 방법, 영상 검증 방법, 장치, 및 영상 인식 및 검증에 대한 학습 방법 및 장치 - Google Patents
영상 인식 방법, 영상 검증 방법, 장치, 및 영상 인식 및 검증에 대한 학습 방법 및 장치 Download PDFInfo
- Publication number
- KR102486699B1 KR102486699B1 KR1020150138491A KR20150138491A KR102486699B1 KR 102486699 B1 KR102486699 B1 KR 102486699B1 KR 1020150138491 A KR1020150138491 A KR 1020150138491A KR 20150138491 A KR20150138491 A KR 20150138491A KR 102486699 B1 KR102486699 B1 KR 102486699B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- feature
- information
- feature information
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2113—Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/30—Writer recognition; Reading and verifying signatures
- G06V40/37—Writer recognition; Reading and verifying signatures based only on signature signals such as velocity or pressure, e.g. dynamic signature recognition
- G06V40/382—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/169—Holistic features and representations, i.e. based on the facial image taken as a whole
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Human Computer Interaction (AREA)
Abstract
Description
도 3은 일 실시예에 따라 영상의 특징을 인식하는 방법을 도시한 흐름도이다.
도 4는 일 실시예에 따라 영상의 특징을 인식하는 장치의 세부적인 구성을 도시한 블럭도이다.
도 5a 및 도 5b는 일 실시예에 따라 영상의 특징을 인식하는 장치의 특징 추출부의 예시적인 구성을 도시한 블럭도이다.
도 6은 일 실시예에 따라 영상의 특징을 인식하는 장치의 특징 추출부 및 인식부의 세부적인 구성을 도시한 블럭도이다.
도 7은 일 실시예에 따라 영상을 인식하기 위한 특징을 학습하는 방법을 도시한 흐름도이다.
도 8은 일 실시예에 따른 영상을 인식하기 위한 특징을 학습하는 장치의 구성을 도시한 블럭도이다.
도 9는 일 실시예에 따른 영상을 인식하기 위한 특징을 학습하는 장치에 적용되는 트레이닝 데이터의 예시를 도시한다.
도 10은 일 실시예에 따른 영상의 특징을 검증하는 방법을 도시한 흐름도이다.
도 11은 일 실시예에 따라 영상의 특징을 검증하는 장치의 구성을 도시한 블럭도이다.
도 12는 일 실시예에 따라 영상의 특징을 검증하는 장치의 특징 추출부의 예시적인 구성을 도시한 블럭도이다.
도 13은 다른 일 실시예에 따라 영상의 특징을 검증하는 장치의 구성을 도시한 블럭도이다.
도 14 및 도 15는 일 실시예에 따라 영상의 특징을 검증하는 장치의 특징 추출부 및 검증부의 세부적인 구성을 도시한 블럭도이다.
도 16은 일 실시예에 따라 영상을 검증하기 위한 특징을 학습하는 방법을 도시한 흐름도이다.
도 17은 일 실시예에 따라 영상을 검증하기 위한 특징을 학습하는 장치의 구성을 도시한 블럭도이다.
도 18은 일 실시예에 따른 영상을 검증하기 위한 특징을 학습하는 장치에 적용되는 트레이닝 데이터의 예시를 도시한다.
Claims (32)
- 영상의 특징을 인식(recognize)하는 방법에 있어서,
객체를 포함하는 입력 영상을 수신하는 단계;
상기 입력 영상에 대응하는 정보를 필터링하는 단계;
상기 필터링에 기초하여, 제1 레이어를 이용하여 제1 특징 정보(feature information)를 추출하는 단계;
상기 필터링에 기초하여, 제2 레이어를 이용하여 제2 특징 정보를 추출하는 단계; 및
상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 상기 객체에 대응하는 원소를 인식하는 단계
를 포함하고,
상기 제2 특징 정보는,
상기 제1 특징 정보와 다른 레벨에 대응하는,
영상의 특징을 인식하는 방법.
- 제1항에 있어서,
상기 원소를 인식하는 단계는,
상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 특징 벡터를 생성하는 단계; 및
상기 생성된 특징 벡터를 복수의 원소들의 각각에 대응하는 기 저장된 기준 벡터와 비교하여 상기 객체에 대응하는 원소를 인식하는 단계
를 포함하는 영상의 특징을 인식하는 방법. - 제2항에 있어서,
상기 특징 벡터를 생성하는 단계는,
상기 제1 레이어의 모든 노드에 대응하는 값들 및 상기 제2 레이어의 모든 노드에 대응하는 값들에 기초하여 상기 특징 벡터를 생성하는 단계
를 포함하는 영상의 특징을 인식하는 방법. - 제1항에 있어서,
인식부는 뉴럴 네트워크(neural network)를 포함하고,
상기 원소를 인식하는 단계는,
상기 뉴럴 네트워크에 포함된 노드들 사이의 가중치(weight)들에 기초하여 상기 원소에 대응하는 특징 값을 계산하는 단계
를 포함하는 영상의 특징을 인식하는 방법. - 제1항에 있어서,
상기 제1 특징 정보를 추출하는 단계는,
미리 정한 크기의 필터를 이용하여 상기 입력 영상에 대응하는 정보를 필터링하는 단계
를 포함하고,
상기 제2 특징 정보를 추출하는 단계는,
미리 정한 크기의 필터를 이용하여 상기 제1 특징 정보를 필터링하는 단계
를 포함하는 영상의 특징을 인식하는 방법. - 제5항에 있어서,
상기 제1 특징 정보를 추출하는 단계는,
상기 필터링된 상기 입력 영상에 대응하는 정보로부터 대표 값들을 추출하는 단계
를 더 포함하는 영상의 특징을 인식하는 방법. - 제5항에 있어서,
상기 제2 특징 정보를 추출하는 단계는,
상기 필터링된 제1 특징 정보로부터 대표 값들을 추출하는 단계
를 더 포함하는 영상의 특징을 인식하는 방법. - 제1항에 있어서,
제m 레이어를 이용하여 제m 특징들 중 상기 제1 특징 정보 내지 제m 특징 정보의 조합에 대응하는 제m-1 특징을 나타내는 제m 특징 정보를 추출하는 단계 - 여기서, m은 3이상의 정수임 -
를 더 포함하고,
상기 원소를 인식하는 단계는,
상기 제1 특징 정보 내지 상기 제m 특징 정보에 기초하여 상기 객체에 대응하는 상기 원소를 인식하는 단계
를 포함하는 영상의 특징을 인식하는 방법. - 영상의 특징을 인식하는 장치에 있어서,
객체를 포함하는 입력 영상을 수신하는 영상 수신부(image receiver);
상기 입력 영상에 대응하는 정보를 필터링하고, 상기 필터링에 기초하여 제1 레이어를 이용하여 제1 특징 정보(feature information)를 추출하는 제1 추출부(first extractor);
상기 필터링에 기초하여, 제2 레이어를 이용하여 제2 특징 정보를 추출하는 제2 추출부(second extractor); 및
상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 상기 객체에 대응하는 원소를 인식하는 인식부(recognizer)
를 포함하고,
상기 제2 특징 정보는,
상기 제1 특징 정보와 다른 레벨에 대응하는,
입력 영상의 특징을 인식하는 장치.
- 제9항에 있어서,
상기 인식부는,
상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 특징 벡터를 생성하는 특징 벡터 생성부를 포함하고,
상기 생성된 특징 벡터를 복수의 원소들의 각각에 대응하는 기 저장된 기준 벡터와 비교하여 상기 객체에 대응하는 원소를 인식하는,
영상의 특징을 인식하는 장치. - 제9항에 있어서,
제3 레이어를 이용하여 제3 특징들 중 상기 제2 특징 정보에 대응하는 제3 특징을 나타내는 제3 특징 정보를 추출하는 적어도 하나의 제3 추출부(third extractor)
를 더 포함하고,
상기 인식부는,
상기 제1 특징 정보, 상기 제2 특징 정보 및 상기 제3 특징 정보에 기초하여 상기 객체에 대응하는 원소를 인식하는,
영상의 특징을 인식하는 장치. - 영상을 인식하기 위한 특징을 학습하는 방법에 있어서,
트레이닝 객체와 연관된 트레이닝 영상 및 트레이닝 원소를 수신하는 단계; 및
입력 영상으로부터 제1 레이어를 이용하여 추출된 제1 특징 정보 및 제2 레이어를 이용하여 추출된 제2 특징 정보로부터 복수의 원소들을 인식하는 인식부가 상기 트레이닝 영상으로부터 상기 트레이닝 원소를 인식하도록, 상기 인식부의 파라미터를 학습하는 단계
를 포함하고,
상기 제2 특징 정보는,
상기 제1 특징 정보와 다른 레벨에 대응하는,
영상을 인식하기 위한 특징을 학습하는 방법.
- 제12항에 있어서,
상기 학습하는 단계는,
상기 트레이닝 영상으로부터 제1 특징들이 추출되도록 상기 제1 레이어의 파라미터를 학습하는 단계; 및
적어도 하나의 제1 특징으로부터 제2 특징들이 추출되도록 상기 제2 레이어의 파라미터를 학습하는 단계,
를 포함하는 영상을 인식하기 위한 특징을 학습하는 방법. - 제13항에 있어서,
상기 학습하는 단계는,
상기 인식부가 상기 제1 특징들 및 상기 제2 특징들로부터 상기 트레이닝 원소를 인식하도록 상기 인식부의 파라미터를 학습하는 단계
를 더 포함하는 영상을 인식하기 위한 특징을 학습하는 방법. - 제13항에 있어서,
상기 학습하는 단계는,
상기 트레이닝 원소에 대응하는 손실을 계산하는 단계,
를 포함하는 영상을 인식하기 위한 특징을 학습하는 방법. - 제15항에 있어서,
상기 인식부는 뉴럴 네트워크(neural network)를 포함하고,
상기 학습하는 단계는,
상기 손실에 기초하여, 상기 뉴럴 네트워크에 포함된 노드들 사이의 가중치(weight)들을 학습하는 단계
를 더 포함하는 영상을 인식하기 위한 특징을 학습하는 방법. - 영상을 인식하기 위한 특징을 학습하는 장치에 있어서,
트레이닝 객체와 연관된 트레이닝 영상 및 트레이닝 원소를 수신하는 수신부; 및
입력 영상으로부터 제1 레이어를 이용하여 추출된 제1 특징 정보 및 제2 레이어를 이용하여 추출된 제2 특징 정보로부터 복수의 원소들을 인식하는 인식부가 상기 트레이닝 영상으로부터 상기 트레이닝 원소를 인식하도록, 상기 인식부의 파라미터를 학습하는 학습부
를 포함하고,
상기 제2 특징 정보는,
상기 제1 특징 정보와 다른 레벨에 대응하는,
영상을 인식하기 위한 특징을 학습하는 장치.
- 영상의 특징을 검증하는 방법에 있어서,
객체를 포함하는 입력 영상을 수신하는 단계;
상기 입력 영상에 대응하는 정보를 필터링하는 단계;
상기 필터링에 기초하여, 제1 레이어를 이용하여 제1 특징 정보를 추출하는 단계;
상기 필터링에 기초하여, 제2 레이어를 이용하여 제2 특징 정보를 추출하는 단계; 및
상기 입력 영상의 상기 제1 특징 정보 및 상기 제2 특징 정보와, 다른 영상과 연관된 제1 특징 정보 및 제2 특징 정보에 기초하여 상기 입력 영상의 객체 및 상기 다른 영상의 객체가 서로 유사한 지 판단하는 단계
를 포함하고,
상기 입력 영상의 상기 제2 특징 정보는,
상기 입력 영상의 상기 제1 특징 정보와 다른 레벨에 대응하는,
영상의 특징을 검증하는 방법.
- 제18항에 있어서,
상기 입력 영상의 객체 및 상기 다른 영상의 객체가 서로 유사한 지 판단하는 단계는,
상기 입력 영상의 상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 상기 입력 영상과 연관된 특징 벡터를 생성하는 단계;
다른 영상과 연관된 제1 특징 정보 및 제2 특징 정보에 기초하여 상기 다른 영상과 연관된 특징 벡터를 생성하는 단계; 및
상기 입력 영상과 연관된 특징 벡터 및 상기 다른 영상과 연관된 특징 벡터를 비교하여 상기 입력 영상의 객체 및 상기 다른 영상의 객체가 서로 유사한 지 판단하는 단계
를 포함하는 영상의 특징을 검증하는 방법. - 제19항에 있어서,
상기 입력 영상과 연관된 특징 벡터를 생성하는 단계는,
상기 입력 영상에 대해 제1 특징 정보, 제2 특징 정보 및 각 레이어의 모든 노드에 대응하는 특징 정보들에 기초하여 계산된 특징 값들에 기초하여 상기 입력 영상에 대응하는 특징 벡터를 생성하는 단계
를 포함하고,
상기 다른 영상과 연관된 특징 벡터를 생성하는 단계는,
상기 다른 영상에 대해 제1 특징 정보, 제2 특징 정보 및 각 레이어의 모든 노드에 대응하는 특징 정보들에 기초하여 계산된 특징 값들에 기초하여 상기 다른 영상에 대응하는 특징 벡터를 생성하는 단계
를 포함하는 영상의 특징을 검증하는 방법. - 제18항에 있어서,
상기 제1 특징 정보를 추출하는 단계는,
상기 제1 레이어를 이용하여 상기 다른 영상과 연관된 제1 특징 정보를 추출하는 단계
를 포함하고,
상기 제2 특징 정보를 추출하는 단계는,
상기 제2 레이어를 이용하여 상기 다른 영상과 연관된 제2 특징 정보를 추출하는 단계
를 포함하는 영상의 특징을 검증하는 방법. - 제18항에 있어서,
상기 제1 특징 정보를 추출하는 단계는,
상기 제1 레이어와 구분되는(separated) 레이어를 이용하여 상기 다른 영상과 연관된 제1 특징 정보를 추출하는 단계
를 포함하고,
상기 제2 특징 정보를 추출하는 단계는,
상기 제2 레이어와 구분되는(separated) 레이어를 이용하여 상기 다른 영상과 연관된 제2 특징 정보를 추출하는 단계
를 포함하는 영상의 특징을 검증하는 방법 - 영상의 특징을 검증하는 장치에 있어서,
객체를 포함하는 입력 영상을 수신하는 영상 수신부;
상기 입력 영상에 대응하는 정보를 필터링하고, 상기 필터링에 기초하여, 제1 레이어를 이용하여 제1 특징 정보를 추출하는 제1 추출부;
상기 필터링에 기초하여, 제2 레이어를 이용하여 제2 특징 정보를 추출하는 제2 추출부; 및
상기 입력 영상의 상기 제1 특징 정보 및 상기 제2 특징 정보와, 다른 영상과 연관된 제1 특징 정보 및 제2 특징 정보에 기초하여 상기 입력 영상의 객체 및 상기 다른 영상의 객체가 서로 유사한 지 판단하는 검증부(verifier)
를 포함하고,
상기 입력 영상의 상기 제2 특징 정보는,
상기 입력 영상의 상기 제1 특징 정보와 다른 레벨에 대응하는,
영상의 특징을 검증하는 장치.
- 제23항에 있어서,
상기 검증부는,
상기 입력 영상 및 상기 다른 영상의 상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 상기 입력 영상과 연관된 특징 벡터 및 상기 다른 영상과 연관된 특징 벡터를 생성하는 특징 벡터 생성부; 및
상기 입력 영상과 연관된 특징 벡터 및 상기 다른 영상과 연관된 특징 벡터를 비교하여 상기 입력 영상의 객체 및 상기 다른 영상의 객체가 서로 유사한 지 판단하는 비교부
를 포함하는 영상의 특징을 검증하는 장치. - 제23항에 있어서,
제3 레이어를 이용하여 제3 특징들 중 상기 제2 특징 정보에 대응하는 제3 특징을 나타내는 제3 특징 정보를 추출하는 적어도 하나의 제3 추출부(third extractor)
를 더 포함하고,
상기 검증부는,
상기 입력 영상의 상기 제1 특징 정보, 상기 제2 특징 정보 및 상기 제3 특징 정보와, 다른 영상과 연관된 제1 특징 정보, 제2 특징 정보 및 제3 특징 정보에 기초하여 상기 입력 영상의 객체 및 상기 다른 영상의 객체가 서로 유사한 지 판단하는,
영상의 특징을 검증하는 장치. - 영상을 검증하기 위한 특징을 학습하는 방법에 있어서,
트레이닝 영상 쌍 및 상기 트레이닝 영상 쌍에 대응하는 트레이닝 정보를 수신하는 단계; 및
제1 특징 정보들 및 제2 특징 정보들을 이용하여 두 입력 영상이 유사한 지를 판단하는 검증부가 상기 트레이닝 영상 쌍을 비교한 결과가 상기 트레이닝 정보가 되도록, 상기 검증부의 파라미터를 학습하는 단계
를 포함하고,
상기 제1 특징 정보들은,
상기 두 입력 영상으로부터 제1 레이어를 이용하여 추출되며,
상기 제2 특징 정보들은,
제2 레이어를 이용하여 추출되는,
영상을 검증하기 위한 특징을 학습하는 방법.
- 제26항에 있어서,
상기 트레이닝 정보는,
상기 트레이닝 영상 쌍이 서로 같은 객체를 포함하는지 여부를 지시하는 정보
를 포함하는 영상을 검증하기 위한 특징을 학습하는 방법. - 제26항에 있어서,
상기 학습하는 단계는,
상기 트레이닝 영상 쌍의 각각으로부터 제1 특징들이 추출되도록 상기 제1 레이어의 파라미터를 학습하는 단계; 및
상기 제1 특징들로부터 제2 특징들이 추출되도록 상기 제2 레이어의 파라미터를 학습하는 단계,
를 포함하는 영상을 검증하기 위한 특징을 학습하는 방법. - 제28항에 있어서,
상기 학습하는 단계는,
상기 검증부가 상기 트레이닝 영상 쌍의 각각에 대응하는 상기 제1 특징들 및 상기 제2 특징들에 기초하여 상기 트레이닝 정보를 출력하도록 상기 검증부의 파라미터를 학습하는 단계
를 더 포함하는 영상을 검증하기 위한 특징을 학습하는 방법. - 제26항에 있어서,
상기 학습하는 단계는,
상기 트레이닝 정보에 대응하는 손실을 계산하는 단계,
를 포함하는 영상을 검증하기 위한 특징을 학습하는 방법. - 제30항에 있어서,
상기 검증부는 뉴럴 네트워크(neural network)를 포함하고,
상기 학습하는 단계는,
상기 손실에 기초하여, 상기 뉴럴 네트워크에 포함된 노드들 사이의 가중치(weight)들을 학습하는 단계
를 더 포함하는 영상을 검증하기 위한 특징을 학습하는 방법. - 영상을 검증하기 위한 특징을 학습하는 장치에 있어서,
트레이닝 영상 쌍 및 상기 트레이닝 영상 쌍에 대응하는 트레이닝 정보를 수신하는 수신부; 및
제1 특징 정보들 및 제2 특징 정보들로부터 두 입력 영상이 유사한 지를 판단하는 검증부가 상기 트레이닝 영상 쌍을 비교한 결과가 상기 트레이닝 정보가 되도록, 상기 검증부의 파라미터를 학습하는 학습부
를 포함하고,
상기 제1 특징 정보들은,
상기 두 입력 영상으로부터 제1 레이어를 이용하여 추출되며,
상기 제2 특징 정보들은,
제2 레이어를 이용하여 추출되는,
영상을 검증하기 위한 특징을 학습하는 장치.
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US14/958,030 US10346726B2 (en) | 2014-12-15 | 2015-12-03 | Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image |
| EP15198654.4A EP3035246A3 (en) | 2014-12-15 | 2015-12-09 | Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image |
| US16/426,315 US11093805B2 (en) | 2014-12-15 | 2019-05-30 | Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020140180213 | 2014-12-15 | ||
| KR20140180213 | 2014-12-15 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20160072768A KR20160072768A (ko) | 2016-06-23 |
| KR102486699B1 true KR102486699B1 (ko) | 2023-01-11 |
Family
ID=56353413
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020150138491A Active KR102486699B1 (ko) | 2014-12-15 | 2015-10-01 | 영상 인식 방법, 영상 검증 방법, 장치, 및 영상 인식 및 검증에 대한 학습 방법 및 장치 |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US11093805B2 (ko) |
| KR (1) | KR102486699B1 (ko) |
Families Citing this family (24)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102450374B1 (ko) * | 2016-11-17 | 2022-10-04 | 삼성전자주식회사 | 데이터 인식 및 트레이닝 장치 및 방법 |
| KR101836096B1 (ko) * | 2016-12-02 | 2018-03-12 | 주식회사 수아랩 | 이미지 데이터의 상태 판단 방법, 장치 및 컴퓨터-판독가능 저장 매체에 저장된 컴퓨터 프로그램 |
| KR101986804B1 (ko) * | 2016-12-29 | 2019-07-10 | 주식회사 얍컴퍼니 | 시각적 콘텐츠 검색용 데이터베이스 생성 장치 및 방법 |
| KR101944069B1 (ko) * | 2016-12-29 | 2019-01-30 | 주식회사 마이다스아이티 | 기계 학습을 기반으로 한 알츠하이머 병 결정 방법 및 장치 |
| KR102400017B1 (ko) | 2017-05-17 | 2022-05-19 | 삼성전자주식회사 | 객체를 식별하는 방법 및 디바이스 |
| KR102376110B1 (ko) * | 2017-06-13 | 2022-03-17 | 주식회사 한화 | 딥 네트워크 구조 및 딥 러닝 기반 영상 인식 시스템 |
| KR102425578B1 (ko) | 2017-08-08 | 2022-07-26 | 삼성전자주식회사 | 객체를 인식하는 방법 및 장치 |
| KR102532748B1 (ko) * | 2017-09-08 | 2023-05-16 | 삼성전자주식회사 | 뉴럴 네트워크 학습 방법 및 장치 |
| KR102063294B1 (ko) * | 2017-10-11 | 2020-01-07 | 알레시오 주식회사 | 초음파 영상을 실사 영상으로 변환하는 방법 및 그 장치 |
| US20200327409A1 (en) * | 2017-11-16 | 2020-10-15 | Samsung Electronics Co., Ltd. | Method and device for hierarchical learning of neural network, based on weakly supervised learning |
| KR102534270B1 (ko) * | 2018-04-05 | 2023-05-18 | 에스케이텔레콤 주식회사 | 메타 데이터 제공 장치 및 방법 |
| KR102051032B1 (ko) | 2018-08-01 | 2019-12-02 | 경북대학교 산학협력단 | 객체 탐지 장치 및 제어 방법 |
| KR102568853B1 (ko) * | 2018-10-31 | 2023-08-21 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
| CN111340059A (zh) * | 2018-12-19 | 2020-06-26 | 北京嘀嘀无限科技发展有限公司 | 图像特征提取方法、装置、电子设备及存储介质 |
| US10997690B2 (en) * | 2019-01-18 | 2021-05-04 | Ramot At Tel-Aviv University Ltd. | Method and system for end-to-end image processing |
| KR102395937B1 (ko) * | 2019-06-11 | 2022-05-11 | 한국과학기술연구원 | 보행 시간-주파수 분석에 기초한 건강 상태 예측 방법 및 시스템 |
| KR102399672B1 (ko) * | 2019-06-11 | 2022-05-20 | 한국과학기술연구원 | 보행 시간-주파수 분석에 기초한 개인 식별 방법 및 시스템 |
| CN110659701B (zh) * | 2019-10-09 | 2022-08-12 | 京东科技控股股份有限公司 | 信息处理方法、装置、电子设备及介质 |
| KR102379637B1 (ko) * | 2019-11-12 | 2022-03-30 | 이지스로직 주식회사 | 딥 러닝 인공신경망 기반 영상 인식 방법 및 시스템 |
| CN111178392B (zh) * | 2019-12-10 | 2023-06-09 | 中国民航大学 | 基于深度神经网络的航空发动机孔探图像损伤分割方法 |
| CN112183639B (zh) * | 2020-09-30 | 2022-04-19 | 四川大学 | 一种矿物图像识别与分类方法 |
| CN112560701B (zh) * | 2020-12-17 | 2022-10-25 | 成都新潮传媒集团有限公司 | 一种人脸图像提取方法、装置及计算机存储介质 |
| CN113095251B (zh) * | 2021-04-20 | 2022-05-27 | 清华大学深圳国际研究生院 | 一种人体姿态估计方法及系统 |
| US11600074B2 (en) * | 2021-06-29 | 2023-03-07 | Anno.Ai, Inc. | Object re-identification |
Family Cites Families (21)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2533942B2 (ja) | 1989-03-13 | 1996-09-11 | 株式会社日立製作所 | 知識抽出方法およびプロセス運転支援システム |
| US6038338A (en) | 1997-02-03 | 2000-03-14 | The United States Of America As Represented By The Secretary Of The Navy | Hybrid neural network for pattern recognition |
| KR100328937B1 (ko) | 1997-12-23 | 2002-09-25 | 포항종합제철 주식회사 | 신경망을이용한전로취련예측방법 |
| EP1515270A1 (en) | 2003-09-09 | 2005-03-16 | Semeion | An artificial neural network |
| KR20050043869A (ko) | 2005-04-20 | 2005-05-11 | 송희성 | 적응 퍼지-뉴럴 네트워크를 이용한 유방암 자동 진단기의개발 |
| KR100716376B1 (ko) | 2005-10-17 | 2007-05-11 | 현대자동차주식회사 | 인공신경망을 이용한 자동차 시트표피재의 촉감 평가 방법및 시스템 |
| US8026840B2 (en) | 2005-10-28 | 2011-09-27 | Raytheon Company | Biometric radar system and method for identifying persons and positional states of persons |
| KR100846500B1 (ko) * | 2006-11-08 | 2008-07-17 | 삼성전자주식회사 | 확장된 가보 웨이브렛 특징 들을 이용한 얼굴 인식 방법 및장치 |
| WO2010030794A1 (en) | 2008-09-10 | 2010-03-18 | Digital Infuzion, Inc. | Machine learning methods and systems for identifying patterns in data |
| US8615476B2 (en) | 2009-04-15 | 2013-12-24 | University Of Southern California | Protecting military perimeters from approaching human and vehicle using biologically realistic neural network |
| KR20120052610A (ko) | 2010-11-16 | 2012-05-24 | 삼성전자주식회사 | 신경망 학습을 통한 동작 인식 방법 및 장치 |
| US9075824B2 (en) | 2012-04-27 | 2015-07-07 | Xerox Corporation | Retrieval system and method leveraging category-level labels |
| KR101254181B1 (ko) | 2012-12-13 | 2013-04-19 | 위아코퍼레이션 주식회사 | 하이브리드 방식의 영상 데이터 전처리 기법 및 방사형 기저함수 기반 신경회로망을 이용한 얼굴 인식 방법 |
| US9811775B2 (en) | 2012-12-24 | 2017-11-07 | Google Inc. | Parallelizing neural networks during training |
| US9519858B2 (en) | 2013-02-10 | 2016-12-13 | Microsoft Technology Licensing, Llc | Feature-augmented neural networks and applications of same |
| US9330171B1 (en) | 2013-10-17 | 2016-05-03 | Google Inc. | Video annotation using deep network architectures |
| EP3074918B1 (en) | 2013-11-30 | 2019-04-03 | Beijing Sensetime Technology Development Co., Ltd. | Method and system for face image recognition |
| US9400955B2 (en) | 2013-12-13 | 2016-07-26 | Amazon Technologies, Inc. | Reducing dynamic range of low-rank decomposition matrices |
| US9767385B2 (en) | 2014-08-12 | 2017-09-19 | Siemens Healthcare Gmbh | Multi-layer aggregation for object detection |
| US10387773B2 (en) | 2014-10-27 | 2019-08-20 | Ebay Inc. | Hierarchical deep convolutional neural network for image classification |
| US9836641B2 (en) | 2014-12-17 | 2017-12-05 | Google Inc. | Generating numeric embeddings of images |
-
2015
- 2015-10-01 KR KR1020150138491A patent/KR102486699B1/ko active Active
-
2019
- 2019-05-30 US US16/426,315 patent/US11093805B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| KR20160072768A (ko) | 2016-06-23 |
| US11093805B2 (en) | 2021-08-17 |
| US20190279052A1 (en) | 2019-09-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102486699B1 (ko) | 영상 인식 방법, 영상 검증 방법, 장치, 및 영상 인식 및 검증에 대한 학습 방법 및 장치 | |
| KR102734298B1 (ko) | 객체 인식 방법 및 장치, 및 인식기 학습 방법 및 장치 | |
| KR102564857B1 (ko) | 데이터 인식 및 트레이닝 장치 및 방법 | |
| KR102608470B1 (ko) | 데이터 인식 장치 및 방법과 트레이닝 장치 및 방법 | |
| US10346726B2 (en) | Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image | |
| KR102374747B1 (ko) | 객체를 인식하는 장치 및 방법 | |
| KR102564855B1 (ko) | 표정 변화에 강인한 객체 및 표정 인식 장치 및 방법, 객체 및 표정 트레이닝 장치 및 방법 | |
| US20160217198A1 (en) | User management method and apparatus | |
| US20180157892A1 (en) | Eye detection method and apparatus | |
| CN111382666B (zh) | 具有用户验证的设备和方法 | |
| CN110414550B (zh) | 人脸识别模型的训练方法、装置、系统和计算机可读介质 | |
| KR20160061856A (ko) | 객체 인식 방법 및 장치, 및 인식기 학습 방법 및 장치 | |
| KR20190081243A (ko) | 정규화된 표현력에 기초한 표정 인식 방법, 표정 인식 장치 및 표정 인식을 위한 학습 방법 | |
| KR20170016231A (ko) | 사용자 인증을 위한 멀티-모달 퓨전 방법 및 사용자 인증 방법 | |
| KR102483650B1 (ko) | 사용자 인증 장치 및 방법 | |
| KR102570070B1 (ko) | 일반화된 사용자 모델을 이용한 사용자 인증 방법 및 장치 | |
| KR102796793B1 (ko) | 변환 모델을 이용한 인증 방법 및 장치 | |
| KR102427853B1 (ko) | 사용자 인증을 위한 등록 데이터베이스의 적응적 갱신 방법 및 장치 | |
| KR20200140571A (ko) | 데이터 인식 방법 및 장치 | |
| Taalimi et al. | Robust coupling in space of sparse codes for multi-view recognition | |
| KR102160955B1 (ko) | 딥 러닝 기반 3d 데이터 생성 방법 및 장치 | |
| Okokpujie et al. | Development of an adaptive trait-aging invariant face recognition system using convolutional neural networks | |
| KR20170057118A (ko) | 오브젝트 인식 방법 및 장치, 인식 모델 학습 방법 및 장치 | |
| KR20170082778A (ko) | 사용자 자세에 기초한 키스트로크 패턴을 이용한 사용자 분류 장치 및 방법 | |
| CN112380369B (zh) | 图像检索模型的训练方法、装置、设备和存储介质 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| A201 | Request for examination | ||
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 4 |