JP6815743B2 - 画像処理装置及びその方法、プログラム - Google Patents
画像処理装置及びその方法、プログラム Download PDFInfo
- Publication number
- JP6815743B2 JP6815743B2 JP2016082329A JP2016082329A JP6815743B2 JP 6815743 B2 JP6815743 B2 JP 6815743B2 JP 2016082329 A JP2016082329 A JP 2016082329A JP 2016082329 A JP2016082329 A JP 2016082329A JP 6815743 B2 JP6815743 B2 JP 6815743B2
- Authority
- JP
- Japan
- Prior art keywords
- discrimination
- discriminating
- discriminating means
- image
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7747—Organisation of the process, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Description
<判別処理部の構成>
図5は、本実施形態によるパターン判別を実現可能なパターン判別装置の一構成例を示すブロック図である。パターン判別装置は、入力部501、データ保持部502、通信部503、表示部504、CPU505、ROM506、RAM507、判別処理部508を備える。詳細は後述する。
図2に示す論理構造に基づいて、図7に示す本パターン判別装置で処理する第1−3判別処理の動作を説明する。
図1は、本実施形態におけるパターン判別処理の手順を示すフローチャートである。ステップS101では、一枚の入力画像から特徴画像を2枚生成し、特徴画像保持部602に保持する。
ステップS104では、第1判別処理のための弱判別器201に対応する第1パラメータ(D1,1,j、T1,1)を読出す。第1パラメータのD1,1,jは、第1特徴画像における座標であり、第1パラメータのT1,1は閾値である。第j番目(j:1〜K、K:弱判別器が参照する特徴画像上のデータの数)のパラメータD1,1,jを式(1)に示す。X1,1,jはX座標であり、Y1,1,jはY座標である。
ステップS107では、スコアS1,1とステップS104で読み出された閾値T1,1を比較する。閾値を超えない場合、判別条件は満足されず、判別結果は不成功となり、ステップ109に進む。ステップ109では、第2判別処理の中止信号を送信することによって第2判別処理を強制的に終了させ、ステップS118に進む。閾値を超えた場合、判別条件は満足され、判別結果は成功となり、ステップS108に進む。ステップS108では、第2判別処理が終了するまで待機する。
ステップS110では、第2判別処理のループを開始する。
ステップS115では、第1判別処理からの中止信号を受信したかどうかを判断する。中止信号を受信した場合、第2判別処理を終了させ、ステップS118に進む。中止信号を受信していない場合、ステップS116に進む。
ステップS121では、第3判別処理のループを開始する。
ステップS126では、スコアS3,iとステップS122で読み出された閾値T3,iを比較する。閾値を超えない場合、通過しないと判定し、第3判別処理を終了させ、ステップS128に進む。閾値を超えた場合、通過すると判定し、ステップS127に進む。第3判別処理において、最後の弱判別器205まで通過した場合には、第3判別処理の判別結果が成功であり、入力画像に所定パターンが存在すると判別する。
図3に、第1判別処理の判別結果が不成功であり、入力画像に所定パターンが存在しない場合の例を示す。時間軸301は処理サイクルを示す。
図5は、本実施形態によるパターン判別を実現可能なパターン判別装置の一構成例を示すブロック図である。
第1の実施形態では、入力画像と特徴画像(2次元データ・2次元配列)に対し、パターン判別を行うという例について説明したが、任意次元の入力データ列と任意次元の特徴データ列でも良い。
602 特徴画像保持部
603 制御部
604 並列弱判別器処理部
605 パラメータ保持部
606 判別結果保持部
Claims (12)
- 画像から特徴データを生成する生成手段と、
前記特徴データを参照して所定のパターンを判別する複数の判別手段と、
前記複数の判別手段の動作を制御する制御手段とを有し、
前記複数の判別手段は、処理結果が相互に依存しない第1及び第2の判別手段と、前記第1の判別手段と共通する特徴データを同一のメモリから参照する第3の判別手段とを含み、
前記制御手段は、前記第1及び第2の判別手段を並列に動作させ、前記共通する特徴データを参照する前記第1及び第3の判別手段を順番に動作させ、前記第1及び第2の判別手段の何れかが判別条件を満足しないと判断した場合に、前記複数の判別手段の全ての動作を中止し、前記第1及び第2の判別手段が判別条件を満足した場合に、該第1及び第2の判別手段の判別結果を用いて、前記第3の判別手段を動作させることを特徴とする画像処理装置。 - 前記第1及び第2の判別手段の何れかは、前記複数の判別手段における他の判別手段より処理時間が短いことを特徴する請求項1に記載の画像処理装置。
- 前記制御手段は、前記複数の判別手段の処理時間に基づいて当該複数の判別手段を動作させる順番を決定することを特徴とする請求項1または2に記載の画像処理装置。
- 前記制御手段は、前記複数の判別手段のそれぞれが判別条件を満たした確率を予め算出しておき、当該確率に基づいて当該判別手段を動作させる順番を決定することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
- 前記生成手段が、特性の異なる複数の特徴データを生成することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
- 前記生成手段が、画像にそれぞれ異なる種類のフィルタを作用させて前記特性の異なる複数の特徴データを生成することを特徴とする請求項5に記載の画像処理装置。
- 前記制御手段は、ある入力画像に対して、前記第1及び第2の判別手段の何れかが判別条件を満足しないと判断した場合に、前記複数の判別手段の全ての動作を中止し、次の入力画像に対して、前記第1及び第2の判別手段の動作を開始させることを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。
- 前記判別手段が、前記特徴データからスコアを算出し、該スコアと閾値とを比較することで前記判別条件を満足するかを判断することを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。
- 前記特徴データは特徴画像であり、前記判別手段が、当該特徴画像の複数の点のデータから前記スコアを算出することを特徴とする請求項8に記載の画像処理装置。
- 前記判別手段が、前記特徴画像の複数の点のデータの総和に基づいて前記スコアを算出することを特徴とする請求項9に記載の画像処理装置。
- 画像から特徴データを生成する生成工程と、
前記特徴データを参照して所定のパターンを複数の判別手段により判別する判別工程とを有し、
前記複数の判別手段は、処理結果が相互に依存しない第1及び第2の判別手段と、前記第1の判別手段と共通する特徴データを同一のメモリから参照する第3の判別手段とを含み、
前記判別工程では、前記第1及び第2の判別手段を並列に動作させ、前記共通する特徴データを参照する前記第1及び第3の判別手段を順番に動作させ、前記第1及び第2の判別手段の何れかが判別条件を満足しないと判断した場合に、前記複数の判別手段の全ての動作を中止し、前記第1及び第2の判別手段が判別条件を満足した場合に、該第1及び第2の判別手段の判別結果を用いて、前記第3の判別手段を動作させることを特徴とする画像処理方法。 - コンピュータを請求項1乃至10のいずれか1項に記載の画像処理装置の各手段として機能させることを特徴とするプログラム。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016082329A JP6815743B2 (ja) | 2016-04-15 | 2016-04-15 | 画像処理装置及びその方法、プログラム |
| US15/483,359 US10402693B2 (en) | 2016-04-15 | 2017-04-10 | Apparatus and method for classifying pattern in image |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016082329A JP6815743B2 (ja) | 2016-04-15 | 2016-04-15 | 画像処理装置及びその方法、プログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2017191571A JP2017191571A (ja) | 2017-10-19 |
| JP6815743B2 true JP6815743B2 (ja) | 2021-01-20 |
Family
ID=60038334
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016082329A Active JP6815743B2 (ja) | 2016-04-15 | 2016-04-15 | 画像処理装置及びその方法、プログラム |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US10402693B2 (ja) |
| JP (1) | JP6815743B2 (ja) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2005119356A2 (en) | 2004-05-28 | 2005-12-15 | Erik Jan Banning | Interactive direct-pointing system and calibration method |
| US9285897B2 (en) | 2005-07-13 | 2016-03-15 | Ultimate Pointer, L.L.C. | Easily deployable interactive direct-pointing system and calibration method therefor |
| CN111598833B (zh) * | 2020-04-01 | 2023-05-26 | 江汉大学 | 一种目标样本瑕疵检测的方法、装置及电子设备 |
Family Cites Families (20)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6996549B2 (en) * | 1998-05-01 | 2006-02-07 | Health Discovery Corporation | Computer-aided image analysis |
| WO2006020627A1 (en) * | 2004-08-11 | 2006-02-23 | Aureon Laboratories, Inc. | Systems and methods for automated diagnosis and grading of tissue images |
| US8135202B2 (en) * | 2008-06-02 | 2012-03-13 | Nec Laboratories America, Inc. | Automated method and system for nuclear analysis of biopsy images |
| JP4513898B2 (ja) * | 2008-06-09 | 2010-07-28 | 株式会社デンソー | 画像識別装置 |
| JP5100596B2 (ja) | 2008-10-03 | 2012-12-19 | キヤノン株式会社 | 情報処理装置及び情報処理方法 |
| US8644624B2 (en) * | 2009-07-28 | 2014-02-04 | Samsung Electronics Co., Ltd. | System and method for indoor-outdoor scene classification |
| US8648959B2 (en) * | 2010-11-11 | 2014-02-11 | DigitalOptics Corporation Europe Limited | Rapid auto-focus using classifier chains, MEMS and/or multiple object focusing |
| US20170337711A1 (en) * | 2011-03-29 | 2017-11-23 | Lyrical Labs Video Compression Technology, LLC | Video processing and encoding |
| US9092692B2 (en) * | 2012-09-13 | 2015-07-28 | Los Alamos National Security, Llc | Object detection approach using generative sparse, hierarchical networks with top-down and lateral connections for combining texture/color detection and shape/contour detection |
| CA2804439A1 (en) * | 2012-12-13 | 2014-06-13 | Ehsan Fazl Ersi | System and method for categorizing an image |
| US9292743B1 (en) * | 2013-03-14 | 2016-03-22 | Puretech Systems, Inc. | Background modeling for fixed, mobile, and step- and-stare video camera surveillance |
| US9082015B2 (en) * | 2013-03-15 | 2015-07-14 | State Farm Mutual Automobile Insurance Company | Automatic building assessment |
| US9129161B2 (en) * | 2013-05-31 | 2015-09-08 | Toyota Jidosha Kabushiki Kaisha | Computationally efficient scene classification |
| US9730643B2 (en) * | 2013-10-17 | 2017-08-15 | Siemens Healthcare Gmbh | Method and system for anatomical object detection using marginal space deep neural networks |
| CN103632136B (zh) * | 2013-11-11 | 2017-03-29 | 北京天诚盛业科技有限公司 | 人眼定位方法和装置 |
| US9471889B2 (en) * | 2014-04-24 | 2016-10-18 | Xerox Corporation | Video tracking based method for automatic sequencing of vehicles in drive-thru applications |
| JP6706788B2 (ja) * | 2015-03-06 | 2020-06-10 | パナソニックIpマネジメント株式会社 | 画像認識方法、画像認識装置およびプログラム |
| JP6603477B2 (ja) * | 2015-04-30 | 2019-11-06 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
| US10037456B2 (en) * | 2015-09-04 | 2018-07-31 | The Friedland Group, Inc. | Automated methods and systems for identifying and assigning attributes to human-face-containing subimages of input images |
| US10268881B2 (en) * | 2015-09-30 | 2019-04-23 | Canon Kabushiki Kaisha | Pattern classifying apparatus, information processing apparatus, pattern classifying method, and non-transitory computer readable storage medium |
-
2016
- 2016-04-15 JP JP2016082329A patent/JP6815743B2/ja active Active
-
2017
- 2017-04-10 US US15/483,359 patent/US10402693B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| US10402693B2 (en) | 2019-09-03 |
| US20170300787A1 (en) | 2017-10-19 |
| JP2017191571A (ja) | 2017-10-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11557085B2 (en) | Neural network processing for multi-object 3D modeling | |
| RU2718222C1 (ru) | Распознавание лиц с помощью искусственной нейронной сети | |
| EP3811337A1 (en) | System for predicting articulated object feature location | |
| CN114202026B (zh) | 多任务模型训练方法和装置、多任务处理方法和装置 | |
| EP2608108A1 (en) | Face feature vector construction | |
| KR102476022B1 (ko) | 얼굴검출 방법 및 그 장치 | |
| CN112149694B (zh) | 一种基于卷积神经网络池化模块的图像处理方法、系统、存储介质及终端 | |
| CN113378770A (zh) | 手势识别方法、装置、设备、存储介质以及程序产品 | |
| JP2023526899A (ja) | 画像修復モデルを生成するための方法、デバイス、媒体及びプログラム製品 | |
| US12127726B2 (en) | System and method for robust image-query understanding based on contextual features | |
| CN114038045B (zh) | 一种跨模态人脸识别模型构建方法、装置及电子设备 | |
| JP2010165046A (ja) | 情報処理装置及び情報処理方法 | |
| CN113378773A (zh) | 手势识别方法、装置、设备、存储介质以及程序产品 | |
| CN113885956A (zh) | 服务部署方法及装置、电子设备和存储介质 | |
| CN108596079B (zh) | 手势识别方法、装置及电子设备 | |
| CN115170819A (zh) | 目标识别方法及装置、电子设备和介质 | |
| JP6815743B2 (ja) | 画像処理装置及びその方法、プログラム | |
| US10579909B2 (en) | Information processing apparatus, information processing method, and non-transitory computer readable storage medium | |
| CN113971742A (zh) | 关键点检测、模型的训练、直播方法、装置、设备及介质 | |
| US20180032793A1 (en) | Apparatus and method for recognizing objects | |
| KR102570286B1 (ko) | 3차원 콘텐츠를 렌더링하기 위한 단말 및 그 동작 방법 | |
| KR102206990B1 (ko) | 딥 뉴럴 네트워크를 사용하여 대략적에서 정밀적으로의 손 검출 방법 | |
| JP6742837B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
| US20180144536A1 (en) | Identifying duplicate indices in an input index stream | |
| KR101834279B1 (ko) | 지연 특징 추출을 이용하여 얼굴을 검출하기 위한 이미지 처리 방법 및 시스템 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190410 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200313 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200526 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200722 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201124 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201223 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 6815743 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |