JP7563495B2 - 学習装置、学習方法、及び、プログラム - Google Patents
学習装置、学習方法、及び、プログラム Download PDFInfo
- Publication number
- JP7563495B2 JP7563495B2 JP2022577920A JP2022577920A JP7563495B2 JP 7563495 B2 JP7563495 B2 JP 7563495B2 JP 2022577920 A JP2022577920 A JP 2022577920A JP 2022577920 A JP2022577920 A JP 2022577920A JP 7563495 B2 JP7563495 B2 JP 7563495B2
- Authority
- JP
- Japan
- Prior art keywords
- teacher
- data
- learning
- models
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Description
学習済みの複数の教師モデルと、
入力された疑似正解ラベルに基づいて生成データを生成するデータ生成手段であって、前記生成データが入力された前記複数の教師モデルの各々が、前記疑似正解ラベルに近しい教師予測ラベルを出力するようなデータを前記生成データとして生成するデータ生成手段と、
前記生成データを入力とし、前記複数の教師モデルを用いて生徒モデルの蒸留学習を行う学習手段と、を備える。
コンピュータにより実行される学習方法であって、
学習済みの複数の教師モデルを取得し、
入力された疑似正解ラベルに基づいて生成データを生成し、
前記生成データを入力とし、前記複数の教師モデルを用いて生徒モデルの蒸留学習を行い、
前記生成データは、当該生成データが入力された前記複数の教師モデルの各々が、前記疑似正解ラベルに近しい教師予測ラベルを出力するようなデータである。
学習済みの複数の教師モデルを取得し、
入力された疑似正解ラベルに基づいて生成データを生成し、
前記生成データを入力とし、前記複数の教師モデルを用いて生徒モデルの蒸留学習を行う処理であって、
前記生成データは、当該生成データが入力された前記複数の教師モデルの各々が、前記疑似正解ラベルに近しい教師予測ラベルを出力するようなデータである処理をコンピュータに実行させる。
<第1実施形態>
[基本概念]
一般的に、蒸留の手法を用いて生徒モデルの学習(以下、「蒸留学習」とも呼ぶ。)を行う場合、教師モデルの学習に使用した学習データを用いて生徒モデルを学習する。また、教師モデルの学習に使用した学習データが入手できない場合、GANなどを用いて生成した画像を用いて生徒モデルを学習する。しかし、GANを用いて生成する画像がターゲットドメインの画像とかけ離れていると、蒸留学習による生徒モデルの性能向上が期待できない。そこで、本実施形態では、GANが生成する画像を、教師モデルの学習を行ったドメイン、即ちターゲットドメインに近づけることにより、蒸留学習による生徒モデルの性能を向上させる。
図1は、第1実施形態に係る学習装置のハードウェア構成を示すブロック図である。図示のように、学習装置10は、インタフェース(I/F)12と、プロセッサ13と、メモリ14と、記録媒体15と、データベース(DB)16と、を備える。
次に、学習装置10による学習処理の概要について説明する。図2は、学習処理の全体の流れを示すフローチャートである。学習処理は、大別して教師モデルの学習(ステップS10)と、データ生成部の学習(ステップS20)と、生徒モデルの学習(ステップS30)とにより構成される。
まず、教師モデルの学習について説明する。
(基本概念)
教師モデルの学習では、個々の現場(ターゲットドメイン)において、その現場で得られた画像を用いて教師モデルを学習する。即ち、個々のターゲットドメイン毎に教師モデルの学習を行い、複数のターゲットドメインに対応する複数の教師モデルを学習する。ここで、各々の教師モデルは、次の2つの目的を同時に満たすように学習される。
目的B:ターゲットドメイン以外の画像に対しては、各教師モデルの出力分布がなるべく異なるようにする。即ち、各教師モデルは、ターゲットドメイン以外の画像に対する出力の不一致度を故意に高くするように学習される。
図4は、教師モデルの学習方法を模式的に示す。この例では、N個の教師モデル20-1~20-Nを学習するものとする。各教師モデル20-1~20-Nは、ニューラルネットワークを用いたモデルである。なお、以下の説明においては、個々の教師モデル20-1~20-Nを区別しない場合には、単に「教師モデル20」と表記することがある。また、以下の図面においては、学習の対象となる要素をグレーで示すものとする。
"Maximum Classifier Discrepancy for Unsupervised Domain Adaptation",Kuniaki Saito, Kohei Watanabe, Yoshitaka Ushiku, Tatsuya Harada; Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018, pp. 3723-3732
次に、データ生成部の学習について説明する。
(基本概念)
データ生成部は、GANを用いて画像を生成する。ここで、本実施形態では、データ生成部が生成した画像がターゲットドメインの画像に近くなるようにGANを学習する。具体的には、GANの学習において、損失関数としてコンシステンシーロス(consistency loss)を加える。即ち、GANが生成した画像を複数の教師モデルに入力したとき、複数の教師モデルの出力分布が一致するほど小さくなるようなロスを加える。上記の教師モデルの学習により、各教師モデルは、ターゲットドメインの画像に対しては一致度の高い予測ラベルを出力し、非ターゲットドメインの画像に対しては一致度の低い予測ラベルを出力するように学習されている。よって、ある画像を各教師モデルに入力したときに各教師モデルが出力した予測ラベルの一致度が高い場合(コンシステンシーロスが小さい場合)、その画像はターゲットドメインの画像に近いと考えられる。逆に、ある画像を各教師モデルに入力したときに各教師モデルが出力した予測ラベルの一致度が低い場合(コンシステンシーロスが大きい場合)、その画像はターゲットドメインの画像に近くないと考えられる。
図5は、データ生成部の学習を行う際の学習装置10の機能構成を示す。学習装置10は、乱数発生器31と、データ生成部32と、教師モデル20-1~20-Nと、ラベル誤差最小化部33と、ラベル分布決定部34とを備える。ここでは、グレーで示すデータ生成部32が学習の対象となる。また、教師モデル20-1~20-Nは、上述した方向により学習済みのものである。
次に、生徒モデルの学習について説明する。
(機能構成)
図7は、生徒モデルの学習を行う際の学習装置10の機能構成を示す。学習装置10は、乱数発生器31と、データ生成部32と、教師モデル20-1~20-Nと、ラベル分布決定部34と、生徒モデル40と、蒸留学習部41とを備える。ここでは、生徒モデル40が学習の対象となる。なお、各教師モデル20-1~20-N及びデータ生成部32は、前述の学習方法により学習済みである。また、乱数発生器31、ラベル分布決定部34は、図5に示すデータ生成部の学習時のものと同様である。
図8は、図7に示す学習装置10による生徒モデルの学習処理のフローチャートである。この処理は、図1に示すプロセッサ13が、予め用意されたプログラムを実行することにより実現される。
次に、本発明の第2実施形態について説明する。図9は、第2実施形態に係る学習装置50の機能構成を示す。なお、学習装置50のハードウェア構成は、図1に示すものと同様である。
学習済みの複数の教師モデルと、
入力された疑似正解ラベルに基づいて生成データを生成するデータ生成手段であって、前記生成データが入力された前記複数の教師モデルの各々が、前記疑似正解ラベルに近しい教師予測ラベルを出力するようなデータを前記生成データとして生成するデータ生成手段と、
前記生成データを入力とし、前記複数の教師モデルを用いて生徒モデルの蒸留学習を行う学習手段と、
を備える学習装置。
前記学習手段は、前記生成データを前記複数の教師モデル及び生徒モデルに入力し、前記複数の教師モデルが出力する教師予測ラベルを正解ラベルとして用いて、前記生徒モデルの学習を行う付記1に記載の学習装置。
前記複数の教師モデルは、既知の入力データに対して各々が出力する教師予測ラベルが正解ラベルと近しくなり、未知の入力データに対して各々が出力する教師予測ラベルの不一致度を最大化するように学習済みである付記1又は2に記載の学習装置。
前記既知の入力データは前記教師モデルの学習に用いたデータであり、前記未知の入力データは前記教師モデルの学習に用いられていないデータである付記3に記載の学習装置。
前記既知の入力データはターゲットドメインのデータであり、前記未知の入力データは前記ターゲットドメインのデータ以外のデータである付記3又は4記載の学習装置。
前記データ生成手段は、前記生成データを前記複数の教師モデルに入力した場合に、前記複数の教師モデルの各々が出力する教師予測ラベルの分布が一致するほど小さくなる損失関数を最小化するように学習済みである付記1乃至5のいずれか一項に記載の学習装置。
前記学習手段は、前記生徒モデルが出力する生徒予測ラベルと前記複数の教師モデルが出力する教師予測ラベルとの誤差と、前記生徒予測ラベルと前記疑似正解ラベルとの誤差の和を最小化するように前記生徒モデルを学習する付記1乃至6のいずれか一項に記載の学習装置。
前記複数の教師モデルが出力する教師予測ラベルが各クラスに均等に分布するように前記疑似正解ラベルの値を調整するラベル分布決定手段を備える付記1乃至7のいずれか一項に記載の学習装置。
学習済みの複数の教師モデルを取得し、
入力された疑似正解ラベルに基づいて生成データを生成し、
前記生成データを入力とし、前記複数の教師モデルを用いて生徒モデルの蒸留学習を行い、
前記生成データは、当該生成データが入力された前記複数の教師モデルの各々が、前記疑似正解ラベルに近しい教師予測ラベルを出力するようなデータである学習方法。
学習済みの複数の教師モデルを取得し、
入力された疑似正解ラベルに基づいて生成データを生成し、
前記生成データを入力とし、前記複数の教師モデルを用いて生徒モデルの蒸留学習を行う処理であって、
前記生成データは、当該生成データが入力された前記複数の教師モデルの各々が、前記疑似正解ラベルに近しい教師予測ラベルを出力するようなデータである処理をコンピュータに実行させるプログラムを記録した記録媒体。
20 教師モデル
31 乱数発生器
32 データ生成部
33 ラベル誤差最小化部
34 ラベル分布決定部
40 生徒モデル
41 蒸留学習部
Claims (10)
- 学習済みの複数の教師モデルと、
入力された疑似正解ラベルに基づいて生成データを生成するデータ生成手段であって、
前記生成データが入力された前記複数の教師モデルの各々が、前記疑似正解ラベルに近しい教師予測ラベルを出力するようなデータを前記生成データとして生成するデータ生成手段と、
前記生成データを入力とし、前記複数の教師モデルを用いて生徒モデルの蒸留学習を行う学習手段と、
を備える学習装置。 - 前記学習手段は、前記生成データを前記複数の教師モデル及び生徒モデルに入力し、前記複数の教師モデルが出力する教師予測ラベルを正解ラベルとして用いて、前記生徒モデルの学習を行う請求項1に記載の学習装置。
- 前記複数の教師モデルは、既知の入力データに対して各々が出力する教師予測ラベルが正解ラベルと近しくなり、未知の入力データに対して各々が出力する教師予測ラベルの不一致度を最大化するように学習済みである請求項1又は2に記載の学習装置。
- 前記既知の入力データは前記教師モデルの学習に用いたデータであり、前記未知の入力データは前記教師モデルの学習に用いられていないデータである請求項3に記載の学習装置。
- 前記既知の入力データはターゲットドメインのデータであり、前記未知の入力データは前記ターゲットドメインのデータ以外のデータである請求項3又は4記載の学習装置。
- 前記データ生成手段は、前記生成データを前記複数の教師モデルに入力した場合に、前記複数の教師モデルの各々が出力する教師予測ラベルの分布が一致するほど小さくなる損失関数を最小化するように学習済みである請求項1乃至5のいずれか一項に記載の学習装置。
- 前記学習手段は、前記生徒モデルが出力する生徒予測ラベルと前記複数の教師モデルが出力する教師予測ラベルとの誤差と、前記生徒予測ラベルと前記疑似正解ラベルとの誤差の和を最小化するように前記生徒モデルを学習する請求項1乃至6のいずれか一項に記載の学習装置。
- 前記複数の教師モデルが出力する教師予測ラベルが各クラスに均等に分布するように前記疑似正解ラベルの値を調整するラベル分布決定手段を備える請求項1乃至7のいずれか一項に記載の学習装置。
- コンピュータにより実行される学習方法であって、
学習済みの複数の教師モデルを取得し、
入力された疑似正解ラベルに基づいて生成データを生成し、
前記生成データを入力とし、前記複数の教師モデルを用いて生徒モデルの蒸留学習を行い、
前記生成データは、当該生成データが入力された前記複数の教師モデルの各々が、前記疑似正解ラベルに近しい教師予測ラベルを出力するようなデータである学習方法。 - 学習済みの複数の教師モデルを取得し、
入力された疑似正解ラベルに基づいて生成データを生成し、
前記生成データを入力とし、前記複数の教師モデルを用いて生徒モデルの蒸留学習を行う処理であって、
前記生成データは、当該生成データが入力された前記複数の教師モデルの各々が、前記疑似正解ラベルに近しい教師予測ラベルを出力するようなデータである処理をコンピュータに実行させるプログラム。
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2021/003058 WO2022162839A1 (ja) | 2021-01-28 | 2021-01-28 | 学習装置、学習方法、及び、記録媒体 |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JPWO2022162839A1 JPWO2022162839A1 (ja) | 2022-08-04 |
| JPWO2022162839A5 JPWO2022162839A5 (ja) | 2023-10-18 |
| JP7563495B2 true JP7563495B2 (ja) | 2024-10-08 |
Family
ID=82652722
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022577920A Active JP7563495B2 (ja) | 2021-01-28 | 2021-01-28 | 学習装置、学習方法、及び、プログラム |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP7563495B2 (ja) |
| WO (1) | WO2022162839A1 (ja) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN117496509B (zh) * | 2023-12-25 | 2024-03-19 | 江西农业大学 | 一种融合多教师知识蒸馏的Yolov7柚子计数方法 |
| CN118627571B (zh) * | 2024-07-12 | 2024-11-22 | 腾讯科技(深圳)有限公司 | 模型训练方法、装置、电子设备及计算机可读存储介质 |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111695699A (zh) | 2020-06-12 | 2020-09-22 | 北京百度网讯科技有限公司 | 用于模型蒸馏的方法、装置、电子设备及可读存储介质 |
-
2021
- 2021-01-28 JP JP2022577920A patent/JP7563495B2/ja active Active
- 2021-01-28 WO PCT/JP2021/003058 patent/WO2022162839A1/ja not_active Ceased
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111695699A (zh) | 2020-06-12 | 2020-09-22 | 北京百度网讯科技有限公司 | 用于模型蒸馏的方法、装置、电子设备及可读存储介质 |
Non-Patent Citations (1)
| Title |
|---|
| 福田 隆 外,広帯域用ニューラルネットワーク音響モデル群から狭帯域用音響モデルへの知識蒸留,情報処理学会研究報告 音楽情報科学(MUS) 2018-MUS-118巻 15号,2018年02月13日,pp. 1-6,CSNG201800485005 |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2022162839A1 (ja) | 2022-08-04 |
| JPWO2022162839A1 (ja) | 2022-08-04 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Schuman et al. | Evolutionary optimization for neuromorphic systems | |
| US12315221B2 (en) | Control method and information processing apparatus | |
| CN111191709B (zh) | 深度神经网络的持续学习框架及持续学习方法 | |
| JP7059458B2 (ja) | 生成的敵対神経網ベースの分類システム及び方法 | |
| US9619749B2 (en) | Neural network and method of neural network training | |
| US9390373B2 (en) | Neural network and method of neural network training | |
| CN113963165B (zh) | 一种基于自监督学习的小样本图像分类方法及系统 | |
| CN113139664B (zh) | 一种跨模态的迁移学习方法 | |
| Cheng et al. | Evolutionary support vector machine inference system for construction management | |
| JP7172612B2 (ja) | データ拡張プログラム、データ拡張方法およびデータ拡張装置 | |
| US20210224647A1 (en) | Model training apparatus and method | |
| WO2020075462A1 (ja) | 学習器推定装置、学習器推定方法、リスク評価装置、リスク評価方法、プログラム | |
| Singh Gill et al. | Efficient image classification technique for weather degraded fruit images | |
| JP7563495B2 (ja) | 学習装置、学習方法、及び、プログラム | |
| Dionysiou et al. | Exploring model inversion attacks in the black-box setting | |
| CN117011647A (zh) | 一种基于组合纠错编码策略的多示例多标签学习方法 | |
| Zhai et al. | Generative neural architecture search | |
| CN112541530A (zh) | 针对聚类模型的数据预处理方法及装置 | |
| CN113537269B (zh) | 图像处理方法、装置及设备 | |
| JP7405148B2 (ja) | 情報処理装置、学習方法、及び、プログラム | |
| US11973785B1 (en) | Two-tier cybersecurity method | |
| Valentim et al. | Evolutionary Model Validation—An Adversarial Robustness Perspective | |
| JP7688610B2 (ja) | 評価用データ出力装置、評価用データ出力方法及び評価用データ出力プログラム | |
| CN119904897B (zh) | 黑盒人脸分类模型反演攻击方法、装置、设备及存储介质 | |
| Smith-Miles et al. | Meta-learning for data summarization based on instance selection method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230725 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230725 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240625 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240724 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240827 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240909 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7563495 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |