JP6844564B2 - 検査システム、識別システム、及び学習データ生成装置 - Google Patents
検査システム、識別システム、及び学習データ生成装置 Download PDFInfo
- Publication number
- JP6844564B2 JP6844564B2 JP2018047260A JP2018047260A JP6844564B2 JP 6844564 B2 JP6844564 B2 JP 6844564B2 JP 2018047260 A JP2018047260 A JP 2018047260A JP 2018047260 A JP2018047260 A JP 2018047260A JP 6844564 B2 JP6844564 B2 JP 6844564B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- learning
- classifier
- learning data
- difficulty level
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2115—Selection of the most significant subset of features by evaluating different subsets according to an optimisation criterion, e.g. class separability, forward selection or backward elimination
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2132—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
まず、本発明の基本的な構成の一例について説明する。学習用データセットを利用した機械学習により識別器を構築する場合に、次のような問題が生じ得る。すなわち、多くの学習用データセットを一度に利用して機械学習を実施すると、学習用データ群に表れる特徴を判定する局所解に陥ってしまう等の理由により、汎化能力の高い識別器を構築することができない可能性がある。これにより、機械学習を実施するのに十分な件数の学習用データセットを用意しても、用意した学習用データセットにより構築した識別器では、対象のデータに含まれる特徴を比較的に精度よく判定することができない可能性がある。
[ハードウェア構成]
<学習データ生成装置>
次に、図2を用いて、本実施形態に係る学習データ生成装置1のハードウェア構成の一例について説明する。図2は、本実施形態に係る学習データ生成装置1のハードウェア構成の一例を模式的に例示する。
次に、図3を用いて、本実施形態に係る学習装置2のハードウェア構成の一例について説明する。図3は、本実施形態に係る学習装置2のハードウェア構成の一例を模式的に例示する。
次に、図4を用いて、本実施形態に係る検査装置3のハードウェア構成の一例について説明する。図4は、本実施形態に係る検査装置3のハードウェア構成の一例を模式的に例示する。
<学習データ生成装置>
次に、図5を用いて、本実施形態に係る学習データ生成装置1のソフトウェア構成の一例を説明する。図5は、本実施形態に係る学習データ生成装置1のソフトウェア構成の一例を模式的に例示する。
次に、各第1識別器5の構成について説明する。図5に示されるとおり、本実施形態に係る第1識別器5は、ニューラルネットワークにより構成される。具体的には、第1識別器5は、いわゆる深層学習に用いられる多層構造のニューラルネットワークにより構成されており、入力層51、中間層(隠れ層)52、及び出力層53を備えている。
次に、図6を用いて、本実施形態に係る学習装置2のソフトウェア構成の一例について説明する。図6は、本実施形態に係る学習装置2のソフトウェア構成の一例を模式的に例示する。
次に、図7を用いて、本実施形態に係る検査装置3のソフトウェア構成の一例について説明する。図7は、本実施形態に係る検査装置3のソフトウェア構成の一例を模式的に例示する。
学習データ生成装置1、学習装置2、及び検査装置3の各ソフトウェアモジュールに関しては後述する動作例で詳細に説明する。なお、本実施形態では、学習データ生成装置1、学習装置2、及び検査装置3の各ソフトウェアモジュールがいずれも汎用のCPUによって実現される例について説明している。しかしながら、以上のソフトウェアモジュールの一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、学習データ生成装置1、学習装置2、及び検査装置3それぞれのソフトウェア構成に関して、実施形態に応じて、適宜、ソフトウェアモジュールの省略、置換及び追加が行われてもよい。
[第1識別器の作成手順]
次に、図8を用いて、第1識別器5を構築する際の学習装置2の動作例について説明する。図8は、本実施形態に係る学習装置2により第1識別器5を構築する処理手順の一例を例示するフローチャートである。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
ステップS101では、制御部21は、データ取得部211として動作し、学習用データ群120を取得する。
ステップS102では、制御部21は、学習処理部212として動作し、第1識別器5の機械学習に利用する複数件の学習用データセット121を学習用データ群120から選択する。これにより、制御部21は、選択された複数件の学習用データセット121で構成される部分データ群221を作成する。
ステップS103では、制御部21は、学習処理部212として動作し、ステップS102で作成した部分データ群221を利用した機械学習により、製品の良否を判定する能力を習得した第1識別器5を構築する。本実施形態では、制御部21は、部分データ群221を構成する各件の学習用データセット121を用いて、画像データ122を入力層51に入力すると、正解データ123に対応する出力値を出力層53から出力するようにニューラルネットワークの機械学習を実施する。
ステップS104では、制御部21は、学習処理部212として動作し、機械学習により構築された第1識別器5の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を第1学習結果データ224として記憶部22に格納する。これにより、制御部21は、本動作例に係る処理を終了する。
次に、図9を用いて、難易度付きの学習用データセット121を作成する際の学習データ生成装置1の動作例について説明する。図9は、本実施形態に係る学習データ生成装置1により難易度付きの学習用データセット121を作成する処理手順の一例を例示するフローチャートである。以下で説明する処理手順は、学習データ生成方法の一例である。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
ステップS201では、制御部11は、学習用データ取得部111として動作し、画像データ122及び正解データ123の組み合わせをそれぞれ含む複数件の学習用データセット121により構成された学習用データ群120を取得する。
ステップS202では、制御部11は、難易度設定部112として動作し、各件の学習用データセット121の画像データ122を各第1識別器5に入力し、各第1識別器5の演算処理を実行する。これにより、制御部11は、入力した画像データ122に写る製品の良否を判定した結果に対応する出力値を各第1識別器5から取得する。
第1の方法では、制御部11は、複数の第1識別器5から取得した出力値に基づいて製品の良否を判定した結果が正解データ123により示される正解と一致する比率(以下、「正答率」とも記載する)を利用して、各件の学習用データセット121の難易度を判定する。
上記のとおり、各第1識別器5の出力値は、入力した画像データ122に写る製品の良否を判定した結果に対応する。そのため、各第1識別器5の出力値の和及び積も、入力した画像データ122に写る製品の良否を判定した結果に対応する。例えば、各第1識別器5の出力値が、製品に欠陥が存在する又は存在しない確率を示している場合、複数の第1識別器5それぞれから取得した出力値の和又は積は、製品に欠陥が存在する又は存在しない程度をそのまま示す。
第3の方法では、制御部11は、出力値に基づいて製品の良否を判定した結果が、所定の確信度以上で正解データ123により示される正解と一致している第1識別器5の数を利用して、各件の学習用データセット121の難易度を判定する。
ステップS204では、制御部11は、保存処理部113として動作し、各件の学習用データセット121と設定した難易度との対応関係を示す難易度データ125を生成する。難易度データ125のデータ形式は、特に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。難易度データ125のデータ形式には、例えば、テーブル形式等の公知のデータ形式を採用することができる。
次に、図10を用いて、第2識別器6を構築する際の学習装置2の動作例について説明する。図10は、本実施形態に係る学習装置2により第2識別器6を構築する処理手順の一例を例示するフローチャートである。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
ステップS301では、制御部21は、データ取得部211として動作し、学習用データ群120を取得する。本ステップS301は、上記ステップS101と同様に処理されてよい。また、制御部21は、難易度データ125を取得する。学習用データ群120及び難易度データ125を取得すると、制御部21は、次のステップS302に処理を進める。
ステップS302及びS303では、制御部21は、学習処理部212として動作し、設定された難易度の低い学習用データセット121から順に利用した段階的な機械学習を実施することにより、製品の良否を判定する能力を習得した第2識別器6を構築する。
ステップS304では、制御部21は、学習処理部212として動作し、機械学習により構築された第2識別器6の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を第2学習結果データ229として記憶部22に格納する。これにより、制御部21は、本動作例に係る処理を終了する。
次に、図11を用いて、検査装置3の動作例について説明する。図11は、検査装置3の処理手順の一例を例示するフローチャートである。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
ステップS401では、制御部31は、対象データ取得部311として動作し、検査の対象となる製品Rの写る対象画像データ321を取得する。本実施形態では、検査装置3は、外部インタフェース34を介してカメラ41に接続されている。そのため、制御部31は、カメラ41から対象画像データ321を取得する。この対象画像データ321は、動画像データであってもよいし、静止画像データであってもよい。対象画像データ321を取得すると、制御部31は、次のステップS402に処理を進める。
ステップS402では、制御部31は、良否判定部312として動作し、取得した対象画像データ321を第2識別器6に入力して、当該第2識別器6の演算処理を実行することで、当該第2識別器6から出力値を取得する。そして、制御部31は、第2識別器6から取得した出力値に基づいて、対象画像データ321に写る製品Rの良否を判定する。
ステップS403では、制御部31は、出力部313として動作し、ステップS402により製品Rの良否を判定した結果を出力する。
次に、図12を用いて、追加の学習用データセット181を収集する際の学習データ生成装置1の動作例について説明する。図12は、学習データ生成装置1により追加の学習用データセット181を収集する処理手順の一例を例示するフローチャートである。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
ステップS501では、制御部11は、学習用データ取得部111として動作し、難易度データ125を参照し、各件の学習用データセット121に設定した難易度に基づいて、学習用データ群120から特定の難易度の学習用データセット180を抽出する。
ステップS502では、制御部11は、学習用データ取得部111として動作し、ステップS501で抽出した特定の難易度の学習用データセット180に含まれる画像データ122と類似する追加の画像データ182を収集する。
ステップS503では、制御部11は、学習用データ取得部111として動作し、ステップS502で収集した追加の画像データ182に対して、当該追加の画像データ182に写る製品の良否の判定に対する正解を示す正解データ183を付与することで、新たな学習用データセット181を生成する。
ステップS504では、制御部11は、学習用データ取得部111として動作し、生成した新たな学習用データセット181を、学習用データ群120が保存されている記憶領域に保存する。これにより、制御部11は、生成した新たな学習用データセット181を学習用データ群120に追加する。生成した新たな学習用データセット181の追加が完了すると、制御部11は、本動作例に係る処理を終了する。
機械学習に利用するための学習用データセットのなかには、識別しやすい学習用データセットと、識別し難い学習用データセットとが存在する。識別しやすい学習用データセットのみを利用して機械学習を実施した場合には、製品の良否の判定が困難なケースに対応可能な識別器を構築することができない可能性がある。一方で、識別し難い学習用データセットのみを利用して機械学習を実施した場合でも、特殊なケースの識別に適合し過ぎてしまい、汎化能力の高い識別器を構築することができない可能性がある。更に、識別しやすい学習用データセットと識別し難い学習用データセットとを混合した状態で機械学習を実施すると、学習用データ群に表れる製品の良否を判定する局所解に陥ってしまう等の理由により、汎化能力の高い識別器を構築することができない可能性がある。
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
上記実施形態では、各第1識別器5は、学習装置2により構築されている。しかしながら、第1識別器5を構築する装置は、学習装置2に限られなくてもよい。複数の第1識別器5のうちの少なくともいずれかは、学習装置2以外の他の情報処理装置により構築されてもよい。各第1識別器5が、他の情報処理装置により構築される場合、上記ステップS101〜S104の一連の処理の実行は省略されてよい。
上記実施形態では、各識別器(5、6)は、多層構造の全結合ニューラルネットワークにより構成されている。しかしながら、各識別器(5、6)を構成するニューラルネットワークの種類は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、各識別器(5、6)を構成するニューラルネットワークには、畳み込みニューラルネットワーク、再帰型ニューラルネットワーク等が採用されてよい。なお、複数の第1識別器5のうちの少なくとも一部の第1識別器5に採用されるニューラルネットワークの種類は、他の第1識別器5に採用されるニューラルネットワークの種類と異なっていてもよい。
上記実施形態では、学習用データ取得部111は、ステップS501〜S504の一連の処理により、新たな学習用データセット181を学習用データ群120に追加可能に構成されている。しかしながら、学習用データ取得部111は、このように構成されていなくてもよい。この場合、上記実施形態において、ステップS501〜S504の一連の処理の実行は省略されてもよい。
<4.4>
上記実施形態では、第1学習結果データ224及び第2学習結果データ229はそれぞれ、ニューラルネットワークの構成を示す情報を含んでいる。しかしながら、第1学習結果データ224及び第2学習結果データ229の構成は、このような例に限定されなくてもよく、学習済みの各識別器(5、6)の設定に利用可能であれば、実施の形態に応じて適宜決定されてよい。例えば、利用するニューラルネットワークの構成が各装置で共通化されている場合には、第1学習結果データ224及び第2学習結果データ229はそれぞれ、ニューラルネットワークの構成を示す情報を含んでいなくてもよい。
上記実施形態では、学習データ生成装置1は、複数の第1識別器5を利用して、各件の学習用データセット121の難易度を判定している。しかしながら、各件の学習用データセット121の難易度を判定する方法は、このような例に限定されなくてもよい。1つの第1識別器5により、各件の学習用データセット121の難易度を判定してもよい。
上記実施形態では、製品の外観検査を行う場面に本発明を適用した例を示している。しかしながら、本発明の適用範囲は、このような外観検査の場面に限られなくてもよい。本発明は、画像データから何らかの特徴、すなわち、被写体の状態を判定する場面に広く適用可能である。
上記実施形態及び変形例では、画像データから何らかの特徴(被写体の状態)を判定する場面に本発明を提供した例を示している。しかしながら、本発明の適用可能な範囲は、このような画像データから特徴を判定する場面に限られなくてもよい。本発明は、画像データ以外のデータ又は複数種類のデータから何らかの特徴を識別する場面に広く適用可能である。
11…制御部、12…記憶部、13…通信インタフェース、
14…入力装置、15…出力装置、16…ドライブ、
81…生成プログラム、91…記憶媒体、
111…学習用データ取得部、112…難易度設定部、
113…保存処理部、
120…学習用データ群、
121…学習用データセット、
122…画像データ、123…正解データ、
125…難易度データ、
2…学習装置、
21…制御部、22…記憶部、23…通信インタフェース、
24…入力装置、25…出力装置、26…ドライブ、
82…学習プログラム、92…記憶媒体、
211…データ取得部、212…学習処理部、
221…部分データ群、224…第1学習結果データ、
226…(難易度の低い)グループ、
228…(難易度の高い)グループ、
229…第2学習結果データ、
3…検査装置、
31…制御部、32…記憶部、33…通信インタフェース、
34…外部インタフェース、
35…入力装置、36…出力装置、37…ドライブ、
83…検査プログラム、93…記憶媒体、
311…対象データ取得部、312…良否判定部、
313…出力部、
321…対象画像データ、
41…カメラ、
5…第1識別器、
51…入力層、52…中間層(隠れ層)、53…出力層、
6…第2識別器、
61…入力層、62…中間層(隠れ層)、63…出力層
Claims (23)
- 製品の良否を検査する検査システムであって、
前記製品の写る画像データ、及び前記画像データに写る前記製品の良否の判定に対する正解を示す正解データの組み合わせをそれぞれ含む複数件の学習用データセットにより構成された学習用データ群を取得する学習用データ取得部と、
前記製品の良否を判定する能力を機械学習により習得済みである複数の第1識別器それぞれに前記各件の学習用データセットの前記画像データを入力することで、入力した前記画像データに写る前記製品の良否を判定した結果に対応する出力値を当該複数の第1識別器それぞれから取得し、前記複数の第1識別器それぞれから取得した出力値が、前記正解データの示す正解に適合する度合いに応じて、前記各件の学習用データセットに良否の判定の難易度を設定する難易度設定部と、
設定された前記難易度の低い学習用データセットから順に利用した段階的な機械学習を実施することにより、前記製品の良否を判定する第2識別器を構築する学習処理部であって、前記段階的な機械学習を実施することは、設定された前記難易度に応じて前記各件の学習データセットを複数のグループに分類すること、及び難易度の低いグループから順にグループ毎に機械学習の処理を実行することにより構成される、学習処理部と、
検査の対象となる前記製品の写る対象画像データを取得する対象データ取得部と、
取得した前記対象画像データを前記第2識別器に入力することで、前記第2識別器から出力値を取得し、前記第2識別器から取得した前記出力値に基づいて、前記対象画像データに写る前記製品の良否を判定する良否判定部と、
を備える、
検査システム。 - 前記難易度設定部は、前記複数の第1識別器から取得した出力値に基づいて前記製品の良否を判定した結果が前記正解データの示す正解と一致する比率が高い学習用データセットほど低い難易度に設定する、
請求項1に記載の検査システム。 - 前記難易度設定部は、前記複数の第1識別器それぞれから取得した出力値の和又は積が、前記正解データの示す正解に適合する度合いに応じて、前記各件の学習用データセットに良否の判定の難易度を設定する、
請求項1に記載の検査システム。 - 前記難易度設定部は、前記出力値に基づいて前記製品の良否を判定した結果が、所定の確信度以上で前記正解データの示す正解と一致している第1識別器の数が多い学習用データセットほど低い難易度に設定する、
請求項1に記載の検査システム。 - 前記各第1識別器は、前記学習用データ群から選択された複数件の学習用データセットにより構成された部分データ群を利用した機械学習により構築されている、
請求項1から4のいずれか1項に記載の検査システム。 - 前記学習用データ取得部は、
前記各件の学習用データセットに設定した前記難易度に基づいて、前記学習用データ群から特定の難易度の学習用データセットを抽出し、
抽出した前記特定の難易度の学習用データセットに含まれる前記画像データと類似する追加の画像データを収集し、
収集した前記追加の画像データに対して、前記追加の画像データに写る前記製品の良否の判定に対する正解を示す正解データを付与することで、新たな学習用データセットを生成し、
生成した前記新たな学習用データセットを前記学習用データ群に追加する、
請求項1から5のいずれか1項に記載の検査システム。 - 製品の写る画像データ、及び前記画像データに写る前記製品の良否の判定に対する正解を示す正解データの組み合わせをそれぞれ含む複数件の学習用データセットにより構成された学習用データ群を取得する学習用データ取得部と、
前記製品の良否を判定する能力を機械学習により習得済みである複数の第1識別器それぞれに前記各件の学習用データセットの前記画像データを入力することで、入力した前記画像データに写る前記製品の良否を判定した結果に対応する出力値を当該複数の第1識別器それぞれから取得し、前記複数の第1識別器それぞれから取得した出力値が、前記正解データの示す正解に適合する度合いに応じて、前記各件の学習用データセットに良否の判定の難易度を設定する難易度設定部と、
難易度に応じて複数のグループに分類し、難易度の低いグループから順にグループ毎に機械学習の処理を実行するために前記各件の学習用データセットと設定した難易度との対応関係を示す難易度データを生成し、生成した当該難易度データを前記学習用データ群と共に所定の記憶領域に保存する保存処理部と、
を備える、
学習データ生成装置。 - 製品の良否を検査する検査システムであって、
前記製品の写る画像データ、及び前記画像データに写る前記製品の良否の判定に対する正解を示す正解データの組み合わせをそれぞれ含む複数件の学習用データセットにより構成された学習用データ群を取得する学習用データ取得部と、
機械学習により前記製品の良否を判定する能力を習得済みである第1識別器に前記各件の学習用データセットの前記画像データを入力することで、入力した前記画像データに写る前記製品の良否を判定した結果に対応する出力値を当該第1識別器から取得し、前記第1識別器から取得した出力値と前記製品の良否を判定するための前記第1識別器の決定境界との距離を算出し、算出した距離に応じて、前記各件の学習用データセットに良否の判定の難易度を設定する難易度設定部と、
設定された前記難易度の低い学習用データセットから順に利用した段階的な機械学習を実施することにより、前記製品の良否を判定する第2識別器を構築する学習処理部であって、前記段階的な機械学習を実施することは、設定された前記難易度に応じて前記各件の学習データセットを複数のグループに分類すること、及び難易度の低いグループから順にグループ毎に機械学習の処理を実行することにより構成される、学習処理部と、
検査の対象となる前記製品の写る対象画像データを取得する対象データ取得部と、
取得した前記対象画像データを前記第2識別器に入力することで、前記第2識別器から出力値を取得し、前記第2識別器から取得した前記出力値に基づいて、前記対象画像データに写る前記製品の良否を判定する良否判定部と、
を備える、
検査システム。 - 製品の写る画像データ、及び前記画像データに写る前記製品の良否の判定に対する正解を示す正解データの組み合わせをそれぞれ含む複数件の学習用データセットにより構成された学習用データ群を取得する学習用データ取得部と、
機械学習により前記製品の良否を判定する能力を習得済みである第1識別器に前記各件の学習用データセットの前記画像データを入力することで、入力した前記画像データに写る前記製品の良否を判定した結果に対応する出力値を当該第1識別器から取得し、前記第1識別器から取得した出力値と前記製品の良否を判定するための前記第1識別器の決定境界との距離を算出し、算出した距離に応じて、前記各件の学習用データセットに良否の判定の難易度を設定する難易度設定部と、
難易度に応じて複数のグループに分類し、難易度の低いグループから順にグループ毎に機械学習の処理を実行するために前記各件の学習用データセットと設定した難易度との対応関係を示す難易度データを生成し、生成した当該難易度データを前記学習用データ群と共に所定の記憶領域に保存する保存処理部と、
を備える、
学習データ生成装置。 - 画像データ、及び前記画像データに写る被写体の状態の判定に対する正解を示す正解データの組み合わせをそれぞれ含む複数件の学習用データセットにより構成された学習用データ群を取得する学習用データ取得部と、
前記被写体の状態を判定する能力を機械学習により習得済みである複数の第1識別器それぞれに前記各件の学習用データセットの前記画像データを入力することで、入力した前記画像データに写る前記被写体の状態を判定した結果に対応する出力値を当該複数の第1識別器それぞれから取得し、前記複数の第1識別器それぞれから取得した出力値が、前記正解データの示す正解に適合する度合いに応じて、前記各件の学習用データセットに判定の難易度を設定する難易度設定部と、
設定された前記難易度の低い学習用データセットから順に利用した段階的な機械学習を実施することにより、前記被写体の状態を判定する第2識別器を構築する学習処理部であって、前記段階的な機械学習を実施することは、設定された前記難易度に応じて前記各件の学習データセットを複数のグループに分類すること、及び難易度の低いグループから順にグループ毎に機械学習の処理を実行することにより構成される、学習処理部と、
状態を判定する対象となる前記被写体の写る対象画像データを取得する対象データ取得部と、
取得した前記対象画像データを前記第2識別器に入力することで、前記第2識別器から出力値を取得し、前記第2識別器から取得した前記出力値に基づいて、前記対象画像データに写る前記被写体の状態を判定する状態判定部と、
を備える、
識別システム。 - 画像データ、及び前記画像データに写る被写体の状態の判定に対する正解を示す正解データの組み合わせをそれぞれ含む複数件の学習用データセットにより構成された学習用データ群を取得する学習用データ取得部と、
前記被写体の状態を判定する能力を機械学習により習得済みである複数の第1識別器それぞれに前記各件の学習用データセットの前記画像データを入力することで、入力した前記画像データに写る前記被写体の状態を判定した結果に対応する出力値を当該複数の第1識別器それぞれから取得し、前記複数の第1識別器それぞれから取得した出力値が、前記正解データの示す正解に適合する度合いに応じて、前記各件の学習用データセットに判定の難易度を設定する難易度設定部と、
難易度に応じて複数のグループに分類し、難易度の低いグループから順にグループ毎に機械学習の処理を実行するために前記各件の学習用データセットと設定した難易度との対応関係を示す難易度データを生成し、生成した当該難易度データを前記学習用データ群と共に所定の記憶領域に保存する保存処理部と、
を備える、
学習データ生成装置。 - 画像データ、及び前記画像データに写る被写体の状態の判定に対する正解を示す正解データの組み合わせをそれぞれ含む複数件の学習用データセットにより構成された学習用データ群を取得する学習用データ取得部と、
機械学習により前記被写体の状態を判定する能力を習得済みである第1識別器に前記各件の学習用データセットの前記画像データを入力することで、入力した前記画像データに写る前記被写体の状態を判定した結果に対応する出力値を当該第1識別器から取得し、前記第1識別器から取得した出力値と前記被写体の状態を判定するための前記第1識別器の決定境界との距離を算出し、算出した距離に応じて、前記各件の学習用データセットに判定の難易度を設定する難易度設定部と、
設定された前記難易度の低い学習用データセットから順に利用した段階的な機械学習を実施することにより、前記被写体の状態を判定する第2識別器を構築する学習処理部であって、前記段階的な機械学習を実施することは、設定された前記難易度に応じて前記各件の学習データセットを複数のグループに分類すること、及び難易度の低いグループから順にグループ毎に機械学習の処理を実行することにより構成される、学習処理部と、
状態を判定する対象となる前記被写体の写る対象画像データを取得する対象データ取得部と、
取得した前記対象画像データを前記第2識別器に入力することで、前記第2識別器から出力値を取得し、前記第2識別器から取得した前記出力値に基づいて、前記対象画像データに写る前記被写体の状態を判定する状態判定部と、
を備える、
識別システム。 - 画像データ、及び前記画像データに写る被写体の状態の判定に対する正解を示す正解データの組み合わせをそれぞれ含む複数件の学習用データセットにより構成された学習用データ群を取得する学習用データ取得部と、
機械学習により前記被写体の状態を判定する能力を習得済みである第1識別器に前記各件の学習用データセットの前記画像データを入力することで、入力した前記画像データに写る前記被写体の状態を判定した結果に対応する出力値を当該第1識別器から取得し、前記第1識別器から取得した出力値と前記被写体の状態を判定するための前記第1識別器の決定境界との距離を算出し、算出した距離に応じて、前記各件の学習用データセットに判定の難易度を設定する難易度設定部と、
難易度に応じて複数のグループに分類し、難易度の低いグループから順にグループ毎に機械学習の処理を実行するために前記各件の学習用データセットと設定した難易度との対応関係を示す難易度データを生成し、生成した当該難易度データを前記学習用データ群と共に所定の記憶領域に保存する保存処理部と、
を備える、
学習データ生成装置。 - 所定種類のデータ、及び前記データに含まれる特徴の判定に対する正解を示す正解データの組み合わせをそれぞれ含む複数件の学習用データセットにより構成された学習用データ群を取得する学習用データ取得部と、
前記特徴を判定する能力を機械学習により習得済みである複数の第1識別器それぞれに前記各件の学習用データセットの前記データを入力することで、入力した前記データに含まれる前記特徴を判定した結果に対応する出力値を当該複数の第1識別器それぞれから取得し、前記複数の第1識別器それぞれから取得した出力値が、前記正解データの示す正解に適合する度合いに応じて、前記各件の学習用データセットに判定の難易度を設定する難易度設定部と、
設定された前記難易度の低い学習用データセットから順に利用した段階的な機械学習を実施することにより、前記特徴を判定する第2識別器を構築する学習処理部であって、前記段階的な機械学習を実施することは、設定された前記難易度に応じて前記各件の学習データセットを複数のグループに分類すること、及び難易度の低いグループから順にグループ毎に機械学習の処理を実行することにより構成される、学習処理部と、
判定する対象となる前記特徴を含む対象データを取得する対象データ取得部と、
取得した前記対象データを前記第2識別器に入力することで、前記第2識別器から出力値を取得し、前記第2識別器から取得した前記出力値に基づいて、前記対象データに含まれる前記特徴を判定する特徴判定部と、
を備える、
識別システム。 - 前記難易度設定部は、前記複数の第1識別器から取得した出力値に基づいて前記特徴を判定した結果が前記正解データの示す正解と一致する比率が高い学習用データセットほど低い難易度に設定する、
請求項14に記載の識別システム。 - 前記難易度設定部は、前記複数の第1識別器それぞれから取得した出力値の和又は積が、前記正解データの示す正解に適合する度合いに応じて、前記各件の学習用データセットに良否の判定の難易度を設定する、
請求項14に記載の識別システム。 - 前記難易度設定部は、前記出力値に基づいて前記特徴を判定した結果が、所定の確信度以上で前記正解データの示す正解と一致している第1識別器の数が多い学習用データセットほど低い難易度に設定する、
請求項14に記載の識別システム。 - 前記各第1識別器は、前記学習用データ群から選択された複数件の学習用データセットにより構成された部分データ群を利用した機械学習により構築されている、
請求項14から17のいずれか1項に記載の識別システム。 - 前記学習用データ取得部は、
前記各件の学習用データセットに設定した前記難易度に基づいて、前記学習用データ群から特定の難易度の学習用データセットを抽出し、
抽出した前記特定の難易度の学習用データセットに含まれる前記データと類似する追加のデータを収集し、
収集した前記追加のデータに対して、前記データに含まれる前記特徴の判定に対する正解を示す正解データを付与することで、新たな学習用データセットを生成し、
生成した前記新たな学習用データセットを前記学習用データ群に追加する、
請求項14から18のいずれか1項に記載の識別システム。 - 前記複数の第1識別器はそれぞれ、異なる学習条件の機械学習により構築されている、
請求項14から19のいずれか1項に記載の識別システム。 - 所定種類のデータ、及び前記データに含まれる特徴の判定に対する正解を示す正解データの組み合わせをそれぞれ含む複数件の学習用データセットにより構成された学習用データ群を取得する学習用データ取得部と、
前記特徴を判定する能力を機械学習により習得済みである複数の第1識別器それぞれに前記各件の学習用データセットの前記データを入力することで、入力した前記データに含まれる前記特徴を判定した結果に対応する出力値を当該複数の第1識別器それぞれから取得し、前記複数の第1識別器それぞれから取得した出力値が、前記正解データの示す正解に適合する度合いに応じて、前記各件の学習用データセットに判定の難易度を設定する難易度設定部と、
難易度に応じて複数のグループに分類し、難易度の低いグループから順にグループ毎に機械学習の処理を実行するために前記各件の学習用データセットと設定した難易度との対応関係を示す難易度データを生成し、生成した当該難易度データを前記学習用データ群と共に所定の記憶領域に保存する保存処理部と、
を備える、
学習データ生成装置。 - 所定種類のデータ、及び前記データに含まれる特徴の判定に対する正解を示す正解データの組み合わせをそれぞれ含む複数件の学習用データセットにより構成された学習用データ群を取得する学習用データ取得部と、
機械学習により前記特徴を判定する能力を習得済みである第1識別器に前記各件の学習用データセットの前記データを入力することで、入力した前記データに含まれる前記特徴を判定した結果に対応する出力値を当該第1識別器から取得し、前記第1識別器から取得した出力値と前記特徴を判定するための前記第1識別器の決定境界との距離を算出し、算出した距離に応じて、前記各件の学習用データセットに判定の難易度を設定する難易度設定部と、
設定された前記難易度の低い学習用データセットから順に利用した段階的な機械学習を実施することにより、前記特徴を判定する第2識別器を構築する学習処理部であって、前記段階的な機械学習を実施することは、設定された前記難易度に応じて前記各件の学習データセットを複数のグループに分類すること、及び難易度の低いグループから順にグループ毎に機械学習の処理を実行することにより構成される、学習処理部と、
判定する対象となる前記特徴を含む対象データを取得する対象データ取得部と、
取得した前記対象データを前記第2識別器に入力することで、前記第2識別器から出力値を取得し、前記第2識別器から取得した前記出力値に基づいて、前記対象データに含まれる前記特徴を判定する特徴判定部と、
を備える、
識別システム。 - 所定種類のデータ、及び前記データに含まれる特徴の判定に対する正解を示す正解データの組み合わせをそれぞれ含む複数件の学習用データセットにより構成された学習用データ群を取得する学習用データ取得部と、
機械学習により前記特徴を判定する能力を習得済みである第1識別器に前記各件の学習用データセットの前記データを入力することで、入力した前記データに含まれる前記特徴を判定した結果に対応する出力値を当該第1識別器から取得し、前記第1識別器から取得した出力値と前記特徴を判定するための前記第1識別器の決定境界との距離を算出し、算出した距離に応じて、前記各件の学習用データセットに判定の難易度を設定する難易度設定部と、
難易度に応じて複数のグループに分類し、難易度の低いグループから順にグループ毎に機械学習の処理を実行するために前記各件の学習用データセットと設定した難易度との対応関係を示す難易度データを生成し、生成した当該難易度データを前記学習用データ群と共に所定の記憶領域に保存する保存処理部と、
を備える、
学習データ生成装置。
Priority Applications (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018047260A JP6844564B2 (ja) | 2018-03-14 | 2018-03-14 | 検査システム、識別システム、及び学習データ生成装置 |
| EP19767896.4A EP3767582A4 (en) | 2018-03-14 | 2019-03-13 | INSPECTION SYSTEM, DISCRIMINATION SYSTEM AND LEARNING DATA GENERATOR |
| CN201980013728.9A CN111758117B (zh) | 2018-03-14 | 2019-03-13 | 检查系统、识别系统以及学习数据生成装置 |
| US16/976,461 US12159386B2 (en) | 2018-03-14 | 2019-03-13 | Inspection system, discrimination system, and learning data generation device |
| PCT/JP2019/010179 WO2019176989A1 (ja) | 2018-03-14 | 2019-03-13 | 検査システム、識別システム、及び学習データ生成装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018047260A JP6844564B2 (ja) | 2018-03-14 | 2018-03-14 | 検査システム、識別システム、及び学習データ生成装置 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019159959A JP2019159959A (ja) | 2019-09-19 |
| JP6844564B2 true JP6844564B2 (ja) | 2021-03-17 |
Family
ID=67907902
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018047260A Active JP6844564B2 (ja) | 2018-03-14 | 2018-03-14 | 検査システム、識別システム、及び学習データ生成装置 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US12159386B2 (ja) |
| EP (1) | EP3767582A4 (ja) |
| JP (1) | JP6844564B2 (ja) |
| CN (1) | CN111758117B (ja) |
| WO (1) | WO2019176989A1 (ja) |
Families Citing this family (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11216686B2 (en) * | 2019-05-15 | 2022-01-04 | Getac Technology Corporation | Artificial neural network-based method for detecting surface pattern of object |
| JP7453767B2 (ja) * | 2019-09-25 | 2024-03-21 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
| WO2022009652A1 (ja) * | 2020-07-07 | 2022-01-13 | ソニーグループ株式会社 | データ収集システム、センサ装置、データ収集装置、及びデータ収集方法 |
| JP7658119B2 (ja) * | 2021-03-12 | 2025-04-08 | オムロン株式会社 | 支援装置および方法 |
| US20240185576A1 (en) * | 2021-04-05 | 2024-06-06 | Panasonic Intellectual Property Management Co., Ltd. | Image determination device, image determination method, and recording medium |
| JP7703359B2 (ja) * | 2021-05-12 | 2025-07-07 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
| JP7491274B2 (ja) * | 2021-07-29 | 2024-05-28 | トヨタ自動車株式会社 | 検査装置および検査方法 |
| JP7695179B2 (ja) * | 2021-11-24 | 2025-06-18 | 株式会社キーエンス | 外観検査装置及び外観検査方法 |
| TWI872808B (zh) * | 2022-11-16 | 2025-02-11 | 宏達國際電子股份有限公司 | 多標籤分類方法及多標籤分類系統 |
| JP2024128816A (ja) * | 2023-03-10 | 2024-09-24 | 株式会社日立製作所 | 学習用画像収集システム、学習用画像収集方法、及び学習用画像収集プログラム |
Family Cites Families (24)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4132229B2 (ja) * | 1998-06-03 | 2008-08-13 | 株式会社ルネサステクノロジ | 欠陥分類方法 |
| CN100538498C (zh) | 2003-07-15 | 2009-09-09 | 欧姆龙株式会社 | 对象决定装置和摄像装置 |
| JP4767595B2 (ja) | 2005-06-15 | 2011-09-07 | パナソニック株式会社 | 対象物検出装置及びその学習装置 |
| EP1986046B1 (en) | 2007-03-08 | 2014-07-16 | Cellavision AB | A method for determining an in-focus position and a vision inspection system |
| JP2009140369A (ja) * | 2007-12-07 | 2009-06-25 | Sony Corp | 集団学習装置及び集団学習方法、対象物検出装置及び対象物検出方法、並びにコンピュータ・プログラム |
| JP2010231455A (ja) | 2009-03-26 | 2010-10-14 | Panasonic Electric Works Co Ltd | 信号識別方法および信号識別装置 |
| JP5546317B2 (ja) * | 2010-03-31 | 2014-07-09 | 株式会社デンソーアイティーラボラトリ | 外観検査装置、外観検査用識別器の生成装置及び外観検査用識別器生成方法ならびに外観検査用識別器生成用コンピュータプログラム |
| JP2012026982A (ja) | 2010-07-27 | 2012-02-09 | Panasonic Electric Works Sunx Co Ltd | 検査装置 |
| AU2011326430B2 (en) * | 2010-11-11 | 2015-01-22 | Google Llc | Learning tags for video annotation using latent subtags |
| JP4741036B2 (ja) * | 2011-02-18 | 2011-08-03 | パナソニック株式会社 | 特徴抽出装置、対象物検出装置、特徴抽出方法、および対象物検出方法 |
| JP5941782B2 (ja) | 2012-07-27 | 2016-06-29 | 株式会社日立ハイテクノロジーズ | マッチング処理装置、マッチング処理方法、及びそれを用いた検査装置 |
| JP6299299B2 (ja) | 2014-03-14 | 2018-03-28 | オムロン株式会社 | 事象検出装置および事象検出方法 |
| JP6118752B2 (ja) * | 2014-03-28 | 2017-04-19 | セコム株式会社 | 学習データ生成装置 |
| JP6425468B2 (ja) * | 2014-09-02 | 2018-11-21 | 株式会社Screenホールディングス | 教師データ作成支援方法、画像分類方法、教師データ作成支援装置および画像分類装置 |
| WO2016057480A1 (en) * | 2014-10-07 | 2016-04-14 | Google Inc. | Training neural networks on partitioned training data |
| JP6606849B2 (ja) | 2015-04-06 | 2019-11-20 | 大日本印刷株式会社 | 識別器生成装置、識別器生成方法、推定装置、推定方法、およびプログラム |
| JP2017102906A (ja) * | 2015-11-25 | 2017-06-08 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
| JP2017211690A (ja) * | 2016-05-23 | 2017-11-30 | 株式会社ツクタ技研 | 画像処理装置、画像処理方法、および画像処理プログラム |
| JP2017211259A (ja) * | 2016-05-25 | 2017-11-30 | 株式会社シーイーシー | 検査装置、検査方法、及びプログラム |
| JP2018005640A (ja) | 2016-07-04 | 2018-01-11 | タカノ株式会社 | 分類器生成装置、画像検査装置、及び、プログラム |
| CN106548179B (zh) * | 2016-09-29 | 2019-09-17 | 北京市商汤科技开发有限公司 | 物体和服饰关键点的检测方法、装置和电子设备 |
| US10664722B1 (en) * | 2016-10-05 | 2020-05-26 | Digimarc Corporation | Image processing arrangements |
| EP3577570A4 (en) * | 2017-01-31 | 2020-12-02 | Mocsy Inc. | EXTRACTING INFORMATION FROM DOCUMENTS |
| US11475351B2 (en) * | 2017-11-15 | 2022-10-18 | Uatc, Llc | Systems and methods for object detection, tracking, and motion prediction |
-
2018
- 2018-03-14 JP JP2018047260A patent/JP6844564B2/ja active Active
-
2019
- 2019-03-13 EP EP19767896.4A patent/EP3767582A4/en not_active Withdrawn
- 2019-03-13 WO PCT/JP2019/010179 patent/WO2019176989A1/ja not_active Ceased
- 2019-03-13 CN CN201980013728.9A patent/CN111758117B/zh active Active
- 2019-03-13 US US16/976,461 patent/US12159386B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| CN111758117B (zh) | 2023-10-27 |
| CN111758117A (zh) | 2020-10-09 |
| WO2019176989A1 (ja) | 2019-09-19 |
| EP3767582A1 (en) | 2021-01-20 |
| JP2019159959A (ja) | 2019-09-19 |
| US20210004721A1 (en) | 2021-01-07 |
| US12159386B2 (en) | 2024-12-03 |
| EP3767582A4 (en) | 2021-12-15 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6844564B2 (ja) | 検査システム、識別システム、及び学習データ生成装置 | |
| US11715190B2 (en) | Inspection system, image discrimination system, discrimination system, discriminator generation system, and learning data generation device | |
| CN114240821B (zh) | 一种基于改进型yolox的焊缝缺陷检测方法 | |
| CN110428475B (zh) | 一种医学图像的分类方法、模型训练方法和服务器 | |
| JP6924413B2 (ja) | データ生成装置、データ生成方法及びデータ生成プログラム | |
| JP7056259B2 (ja) | 検査システム、識別システム、及び識別器評価装置 | |
| JP2015087903A (ja) | 情報処理装置及び情報処理方法 | |
| JP2017062713A (ja) | 識別器作成装置、識別器作成方法、およびプログラム | |
| JP7298825B2 (ja) | 学習支援装置、学習装置、学習支援方法及び学習支援プログラム | |
| JP2017076287A (ja) | データ解析装置、データ解析方法及びプログラム | |
| JP2019159820A (ja) | 検査装置、画像識別装置、識別装置、検査方法、及び検査プログラム | |
| JP7059889B2 (ja) | 学習装置、画像生成装置、学習方法、及び学習プログラム | |
| CN117355038B (zh) | 用于线路板软板的x型孔加工方法及其系统 | |
| CN113139932A (zh) | 一种基于集成学习的深度学习缺陷图像识别方法及系统 | |
| JP7070308B2 (ja) | 推定器生成装置、検査装置、推定器生成方法、及び推定器生成プログラム | |
| CN118052809A (zh) | 一种考虑提示学习的零样本点云异常检测方法及系统 | |
| JP2021165909A (ja) | 情報処理装置、情報処理装置の情報処理方法およびプログラム | |
| JP7206892B2 (ja) | 画像検査装置、画像検査のための学習方法および画像検査プログラム | |
| CN114582012A (zh) | 一种骨架人体行为识别方法、装置及设备 | |
| CN117372428A (zh) | 一种晶圆的缺陷检测方法、装置、电子设备及存储介质 | |
| CN117474915B (zh) | 一种异常检测方法、电子设备及存储介质 | |
| JP7418158B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
| US20210004954A1 (en) | Neural network-type image processing device, appearance inspection apparatus and appearance inspection method | |
| Banerjee et al. | Manufacturing Flaw Forecasting via CNN-RF Fusion Techniques | |
| JP2025030031A (ja) | 学習方法、分類方法、学習装置、分類方法、学習プログラム、及び分類プログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200305 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201110 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210104 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210126 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210208 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6844564 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |