JP7732591B2 - 連合学習システム、モデル学習装置、連合学習方法、モデル学習プログラム - Google Patents
連合学習システム、モデル学習装置、連合学習方法、モデル学習プログラムInfo
- Publication number
- JP7732591B2 JP7732591B2 JP2024522796A JP2024522796A JP7732591B2 JP 7732591 B2 JP7732591 B2 JP 7732591B2 JP 2024522796 A JP2024522796 A JP 2024522796A JP 2024522796 A JP2024522796 A JP 2024522796A JP 7732591 B2 JP7732591 B2 JP 7732591B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- learning
- model learning
- dual
- dual variable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/5055—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering software capabilities, i.e. software resources associated or available to the machine
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/54—Interprogram communication
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/54—Interprogram communication
- G06F9/545—Interprogram communication where tasks reside in different layers, e.g. user- and kernel-space
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Feedback Control In General (AREA)
Description
本発明は、複数のモデル学習装置を有し、それぞれのモデル学習装置は他のモデル学習装置のいずれかとネットワークを介して接続される連合学習システム、モデル学習装置、連合学習方法、モデル学習プログラムに関する。
個人端末内のメール,購買履歴,企業内の検討資料,IoT情報,病院の診断情報などを活用することで、マッチング,自動制御,AI診療など多くのメリットが期待できる。しかし、情報セキュリティおよび漏洩への不安に起因して活用できていない。個人情報などの機密情報の漏洩を防ぐ対策として、エンドユーザ端末でデータを解析し、機密情報を出さずにノウハウのみ(例えば、双対変数)を活用可能にする連合学習技術(もしくは、分散学習技術)がある。非特許文献1は、機械学習モデルの分散学習(distributed training of machine learning models)におけるドリフト問題(drift problem)を解決するため、ECL(Edge-Consensus Learning)の更新処理において、制約-強度制御パラメータ(constraint-strength control parameter)を最適に選択することでSVR(Stochastic Variance Reduction)の勾配修正を暗黙に増加させるように再構築している。図1に非特許文献1に示されたアルゴリズム2を示す。非特許文献2は、学習モデル(以下では、単に「モデル」と呼ぶ。)にノイズを加えることで、元データの再現リスクを低減している。図2に非特許文献2に示されたアルゴリズム1と式13a,13bを示す。
Niwa, K., Zhang, G., Kleijn, W.B., Harada, N., Sawada, H., Fujino, A.. (2021). Asynchronous Decentralized Optimization With Implicit Stochastic Variance Reduction. Proceedings of the 38th International Conference on Machine Learning, in Proceedings of Machine Learning Research.
ZonghanH, et al. "Differentially Private ADMM for Convex Distributed Learning: Improved Accuracy via Multi-Step Approximation", arXiv:2005.07890.
しかしながら、連合学習は、学習を分散して高速に実施できるが、ユーザが生成したモデルを用いた元データの再現リスクがあった。また、モデルの学習についてもどこまでの情報が送信されているか分からなかった。さらに、連合学習に差分プライバシーを付与する技術は、連合学習におけるユーザが生成したモデルにノイズを加えることで、元データの再現リスクを低減している。加えるノイズは大きいほど漏洩リスクを低減できるが、学習するモデルの精度が下がってしまう。既存の手法では加えるノイズは任意に決める必要があり、漏洩リスク低減と精度向上の両立という課題が残されている。
また、ユーザごとの端末で学習を行う場合、ユーザが保有するデータの分散はさまざまである。例えば、ユーザAは血圧の情報だけをもち、ユーザBは心拍数の情報だけを持つ場合などユーザごとに持っているデータの属性(ラベル)が違うこともある。また、ユーザAは10人分のデータを保持し、ユーザBは3人分のデータを保持する場合など保持しているデータ件数が違う場合もある。さらに、ユーザの端末ごとに性能も異なるし、通信環境も異なるので、ユーザ端末の計算・通信性能に大きな差がある場合もある。非特許文献1の技術においても、分散保持されたデータの分散が大きい場合、およびユーザ端末の計算・通信性能の差が大きい場合には、安定した連合学習を行いにくいという問題がある。
連合学習においては、いくつかの問題がある。本発明においては、まず、分散保持されたデータの分散が大きい場合、およびユーザの計算・通信性能の差が大きい場合であっても安定した連合学習を行うことを、課題とする。
本発明の連合学習システムは、複数のモデル学習装置を有し、それぞれのモデル学習装置は他のモデル学習装置のいずれかとネットワークを介して接続される。本発明の連合学習システムでは、モデルのパラメータ、双対変数、ステップサイズ、モデル学習用データ、制約パラメータは、あらかじめ定めた初期値に設定される。それぞれのモデル学習装置は、ミニバッチ抽出部、モデルパラメータ更新部、双対変数算出・送信部、双対変数受信部、双対変数設定部を備える。ミニバッチ抽出部は、モデル学習用データから、あらかじめ定めた量のデータをミニバッチとして抽出する。モデルパラメータ更新部は、双対変数、ステップサイズ、モデル学習用データのミニバッチ、制約パラメータ、あらかじめ定めた最適値ηとあらかじめ定めたハイパラメータαを用いた係数γを用いて学習を行い、モデルのパラメータを更新する。双対変数算出・送信部は、当該モデル学習装置と接続されている他のモデル学習装置ごとに、モデルパラメータ更新部が更新したモデルのパラメータと係数γを用いて双対変数を求め、送信する。双対変数受信部は、当該モデル学習装置と接続されている他のモデル学習装置から、双対変数を受信する。双対変数設定部は、受信した双対変数を、次の学習に用いる双対変数とする。
本発明の連合学習システムによれば、モデル学習装置のモデルパラメータ更新部が、あらかじめ定めた最適値ηとあらかじめ定めたハイパラメータαを用いた係数γを用いて更新する。また、双対変数算出・送信部が、当該モデル学習装置と接続されている他のモデル学習装置ごとに、更新したモデルのパラメータと係数γを用いて双対変数を求め、送信する。係数γによって更新の程度を調整できるので、分散保持されたデータの分散が大きい場合、およびユーザの計算・通信性能の差が大きい場合であっても安定した連合学習を行うことができる。
以下、本発明の実施の形態について、詳細に説明する。なお、同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
図3に実施例1の連合学習システムの構成例を示す。図4に本発明のモデル学習装置がリング状に接続された例を、図5に本発明のモデル学習装置がランダムに接続された例を示す。図6は、実施例1の連合学習システムの処理フロー例を示す図である。実施例1の連合学習システム10は、N個のモデル学習装置1001,…,100Nを有し、それぞれのモデル学習装置100iは他のモデル学習装置100jのいずれかとネットワーク900を介して接続される。ここで、Nは2以上の整数、iは1以上N以下の整数、jはi以外の1以上N以下の整数である。それぞれのモデル学習装置100iは、初期設定部110、ミニバッチ抽出部130、モデルパラメータ更新部140、双対変数算出・送信部150、双対変数受信部160、双対変数設定部170を備える。
それぞれのモデル学習装置1001,…,100Nの初期設定部110では、モデルのパラメータwi、双対変数zi|j、ステップサイズμ、モデル学習用データxi、制約パラメータAi|jは、あらかじめ定めた初期値に設定される(S110)。例えば、w1,…,wNは同じ値に設定され、zi|j=0に設定される。
それぞれのモデル学習装置1001,…,100Nのミニバッチ抽出部130は、モデル学習用データxiから、あらかじめ定めた量のデータをミニバッチξi
r,kとして抽出する(S130)。例えば、学習用データの数が1万個あるときに500個もしくは1000個のミニパッチを任意に抽出すればよい。ξの右下のiはモデル学習装置の番号を示している。ξの右上のkは、それぞれのモデル学習装置1001,…,100Nで行う繰り返し処理(インナーループ過程)の繰り返し回数を示す整数である。インナーループ過程では、K回の繰り返し処理を行う。Kは2以上の整数であり、kは1以上K以下の整数である。ξの右上のrは、連合学習システム全体で、インナーループ過程の繰り返し処理(アウターループ過程)の繰り返し回数を示す整数である。アウターループ過程では、R回の繰り返し処理を行う。Rは2以上の整数であり、rは1以上R以下の整数である。以下の説明でも、記号の右下のi,jはモデル学習装置の番号を示し、記号の右上のrはアウターループ過程での繰り返し回数、右上のkはインナーループ過程での繰り返し回数を示す。なお、明細書中のテキストでは、右下の記号と右上の記号は横方向について同じ位置に記載することはできないので、ずらして記載している。一方、明細書中の数式及び図では記載できるので横方向について同じ位置に記載している。
それぞれのモデル学習装置1001,…,100Nのモデルパラメータ更新部140は、双対変数、ステップサイズ、モデル学習用データのミニバッチ、制約パラメータ、あらかじめ定めた最適値ηとあらかじめ定めたハイパラメータαを用いた係数γを用いて学習を行い、モデルのパラメータを更新する(S140)。具体的には、モデルパラメータ更新部140は、次式のように、モデルのパラメータを更新し、次回の処理で使用するモデルのパラメータwi
r,k+1を求める。
ただし、f-はコスト関数もしくはコスト関数と置換可能な関数、uは更新前のモデルのパラメータ、ξi r,kはモデル学習用データのミニバッチ、係数γは1+αη、Nは連合学習システムを構成するモデル学習装置の数、Ai|jは制約パラメータ、zi|j rは双対変数である。wi r,k+1はモデルのパラメータであり、インナーループのk+1回目の処理に使用する。なお、“f-”の“-”は、本来は“f”の上に配置されるが、明細書でのテキストの記載の制限から、“f-”のように記載している。
ただし、f-はコスト関数もしくはコスト関数と置換可能な関数、uは更新前のモデルのパラメータ、ξi r,kはモデル学習用データのミニバッチ、係数γは1+αη、Nは連合学習システムを構成するモデル学習装置の数、Ai|jは制約パラメータ、zi|j rは双対変数である。wi r,k+1はモデルのパラメータであり、インナーループのk+1回目の処理に使用する。なお、“f-”の“-”は、本来は“f”の上に配置されるが、明細書でのテキストの記載の制限から、“f-”のように記載している。
あらかじめ定めた最適値ηは、1/(μKEi)とすればよい。Eiは、モデル学習装置100iと接続されている他のモデル学習装置の数である。あらかじめ定めたハイパラメータαは、例えばα=2などがあるが、これに限られるものではない。連合システムごとに適したαは異なるので、連合学習システムごとに適宜定めればよいパラメータである。コスト関数もしくはコスト関数と置換可能な関数f-,モデルのパラメータu、制約パラメータAi|jなどは、非特許文献1と同じ関数とパラメータを用いればよい。例えば、関数f-としては、非特許文献1の“4.1 Problem definition”に記載された以下の関数qi(wi)を用いればよい。
ただし、giはコスト関数fiの微分関数である。
ただし、giはコスト関数fiの微分関数である。
それぞれのモデル学習装置1001,…,100Nの双対変数算出・送信部150は、当該モデル学習装置100iと接続されている他のモデル学習装置100jごとに、モデルパラメータ更新部140が更新したモデルのパラメータwi
r,k+1と係数γを用いて双対変数yi|jを求め、他のモデル学習装置100jごとに送信する(S150)。具体的には、双対変数算出・送信部150は、次式のように双対変数yi|jを求める。なお、他のモデル学習装置200jは、少なくとも1つは存在するが、2つ以上であってもよい。また、式の矢印は、代入を意味している。
それぞれのモデル学習装置1001,…,100Nの双対変数受信部160は、当該モデル学習装置100iと接続されている他のモデル学習装置100jから、双対変数yj|iを受信する(S160)。双対変数受信部160が受信する双対変数yj|iは、モデル学習装置100jの双対変数算出・送信部150が算出・送信するので、双対変数算出・送信部150が算出・送信する双対変数yi|jとは“j”と“i”の位置が逆である。
それぞれのモデル学習装置1001,…,100Nの双対変数設定部170は、受信した双対変数yj|iを、次の学習に用いる双対変数zi|j
r,k+1とする(S170)。双対変数設定部170は、次式のように受信した双対変数yj|iを、次の学習に用いる双対変数zi|j
r,k+1とすればよい。
それぞれのモデル学習装置1001,…,100Nは、インナーループ過程の処理が終了したかを確認し、終了していないとき(Noのとき)は繰り返し処理を続け、終了しているとき(Yesのとき)はアウターループ過程の確認に進む(S180)。ステップS180がYesのときは、それぞれのモデル学習装置1001,…,100Nは、アウターループ過程の処理が終了したかを確認し、終了していないとき(Noのとき)は繰り返し処理を続け、終了しているとき(Yesのとき)は処理を終了する(S190)。
連合学習システム10によれば、モデル学習装置1001,…,100Nのモデルパラメータ更新部140が、あらかじめ定めた最適値ηとあらかじめ定めたハイパラメータαを用いた係数γを用いてモデルのパラメータwi
r,k+1を更新する。また、双対変数算出・送信部150が、当該モデル学習装置100iと接続されている他のモデル学習装置100jごとに、更新したモデルのパラメータと係数γを用いて双対変数を求め、送信する。係数γによって更新の程度を調整できるので、分散保持されたデータの分散が大きい場合、およびユーザの計算・通信性能の差が大きい場合であっても安定した連合学習を行うことができる。
実施例1では、第1の課題である「分散保持されたデータの分散が大きい場合や、ユーザの計算・通信性能の差が大きい場合であっても安定した連合学習を行う」を解決した。第1の課題を解決する手段に限定を付加することで、「漏洩リスク低減と精度向上の両立」という課題も解決可能である。そこで、実施例2では、「漏洩リスク低減と精度向上の両立」を第2の課題とする。
図7に実施例2の連合学習システムの構成例を示す。図4に本発明のモデル学習装置がリング状に接続された例を、図5に本発明のモデル学習装置がランダムに接続された例を示す。図8は、実施例2の連合学習システムの処理フロー例を示す図である。実施例2の連合学習システム20は、N個のモデル学習装置2001,…,200Nを有し、それぞれのモデル学習装置200iは他のモデル学習装置200jのいずれかとネットワークを介して接続される。それぞれのモデル学習装置200iは、初期設定部110、ノイズ生成部220、ミニバッチ抽出部130、モデルパラメータ更新部140、双対変数算出・送信部250、双対変数受信部160、双対変数設定部170を備える。
それぞれのモデル学習装置2001,…,200Nの初期設定部110、ミニバッチ抽出部130の処理(S130)は実施例1と同じである。それぞれのモデル学習装置2001,…,200Nのノイズ生成部220は、ノイズniを生成する(S220)。具体的には、あらかじめ定めた分散σ2に基づいてガウスノイズniを生成すればよい。
それぞれのモデル学習装置2001,…,200Nのモデルパラメータ更新部140は、双対変数、ステップサイズ、モデル学習用データのミニバッチ、制約パラメータ、あらかじめ定めた最適値ηとあらかじめ定めたハイパラメータαを用いた係数γを用いて学習を行い、モデルのパラメータを更新する(S140)。具体的には、モデルパラメータ更新部140は、次式のように、モデルのパラメータを更新し、次回の処理で使用するモデルのパラメータwi
r,k+1を求める。
ただし、f-はコスト関数もしくはコスト関数と置換可能な関数、uは更新前のモデルのパラメータ、ξi r,kはモデル学習用データのミニバッチ、係数γは1+αη、Nは連合学習システムを構成するモデル学習装置の数、Ai|jは制約パラメータ、zi|j rは双対変数である。wi r,k+1はモデルのパラメータであり、インナーループのk+1回目の処理に使用する。上述のモデルパラメータ更新部140の処理は、実施例1と同じである。ただし、後述する双対変数算出・送信部250によって双対変数zi|j rにはノイズが付加されているので、γはモデルのパラメータwi r,k+1を更新する際のノイズの影響を調整する役割も果たす。
ただし、f-はコスト関数もしくはコスト関数と置換可能な関数、uは更新前のモデルのパラメータ、ξi r,kはモデル学習用データのミニバッチ、係数γは1+αη、Nは連合学習システムを構成するモデル学習装置の数、Ai|jは制約パラメータ、zi|j rは双対変数である。wi r,k+1はモデルのパラメータであり、インナーループのk+1回目の処理に使用する。上述のモデルパラメータ更新部140の処理は、実施例1と同じである。ただし、後述する双対変数算出・送信部250によって双対変数zi|j rにはノイズが付加されているので、γはモデルのパラメータwi r,k+1を更新する際のノイズの影響を調整する役割も果たす。
それぞれのモデル学習装置2001,…,200Nの双対変数算出・送信部250は、モデル学習装置200iと接続されている他のモデル学習装置200jごとに、モデルパラメータ更新部140が更新したモデルのパラメータwi
r,k+1と係数γを用いて、ノイズを付加した双対変数yi|jを求め、他のモデル学習装置200jに送信する。なお、他のモデル学習装置200jは、少なくとも1つは存在するが、2つ以上であってもよい。具体的には、双対変数算出・送信部250は、次式のようにノイズが付加された双対変数yi|jを求める。
ただし、niはノイズ生成部220が生成したノイズである。双対変数算出・送信部250のγはノイズの影響を調整する役割と、情報漏洩防止の役割を果たしている。
ただし、niはノイズ生成部220が生成したノイズである。双対変数算出・送信部250のγはノイズの影響を調整する役割と、情報漏洩防止の役割を果たしている。
双対変数受信部160の処理(S160)と双対変数設定部170の処理(S170)は実施例1と同じである。また、実施例1と同じように、インナーループ過程の確認(S180)とアウターループ過程の確認(S190)を行い、繰り返し処理を実行する。
図9は、上述の実施例2の連合学習システム20のアルゴリズムを、非特許文献1と同様の記載で示した図である。連合学習システム20によれば、ξi
r,kにはノイズが付加されていないので、ノイズによる学習阻害の影響を低減できるのでモデル学習の精度を向上できる。一方で、他のモデル学習装置200jに送信する双対変数yi|jにはノイズを付加しているので、情報漏洩のリスクを低減できる。よって、第1の課題である「分散保持されたデータの分散が大きい場合や、ユーザの計算・通信性能の差が大きい場合であっても安定した連合学習を行う」の解決の他に、漏洩リスク低減と精度向上の両立という課題も解決できる。
[プログラム、記録媒体]
上述の各種の処理は、図10に示すコンピュータ2000の記録部2020に、上記方法の各ステップを実行させるプログラムを読み込ませ、制御部2010、入力部2030、出力部2040、表示部2050などに動作させることで実施できる。
上述の各種の処理は、図10に示すコンピュータ2000の記録部2020に、上記方法の各ステップを実行させるプログラムを読み込ませ、制御部2010、入力部2030、出力部2040、表示部2050などに動作させることで実施できる。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
10,20 連合学習システム
100,200 モデル学習装置
110 初期設定部
130 ミニバッチ抽出部
140 モデルパラメータ更新部
150,250 双対変数算出・送信部
160 双対変数受信部
170 双対変数設定部
220 ノイズ生成部
100,200 モデル学習装置
110 初期設定部
130 ミニバッチ抽出部
140 モデルパラメータ更新部
150,250 双対変数算出・送信部
160 双対変数受信部
170 双対変数設定部
220 ノイズ生成部
Claims (8)
- 複数のモデル学習装置を有し、それぞれのモデル学習装置は他のモデル学習装置のいずれかとネットワークを介して接続される連合学習システムであって、
モデルのパラメータ、双対変数、ステップサイズ、モデル学習用データ、制約パラメータは、あらかじめ定めた初期値に設定されており、
それぞれのモデル学習装置は、
前記モデル学習用データから、あらかじめ定めた量のデータをミニバッチとして抽出するミニバッチ抽出部と、
双対変数、ステップサイズ、モデル学習用データのミニバッチ、制約パラメータ、あらかじめ定めた最適値ηとあらかじめ定めたハイパラメータαを用いた係数γを用いて学習を行い、モデルのパラメータを更新するモデルパラメータ更新部と、
当該モデル学習装置と接続されている他のモデル学習装置ごとに、前記モデルパラメータ更新部が更新したモデルのパラメータと係数γを用いて双対変数を求め、送信する双対変数算出・送信部と、
当該モデル学習装置と接続されている他のモデル学習装置から、双対変数を受信する双対変数受信部と、
受信した双対変数を、次の学習に用いる双対変数とする双対変数設定部と、
を備える
ことを特徴とする連合学習システム。 - 複数のモデル学習装置を有し、それぞれのモデル学習装置は他のモデル学習装置のいずれかとネットワークを介して接続される連合学習システムであって、
モデルのパラメータ、双対変数、ステップサイズ、モデル学習用データ、制約パラメータは、あらかじめ定めた初期値に設定されており、
それぞれのモデル学習装置は、
ノイズを生成するノイズ生成部と、
前記モデル学習用データから、あらかじめ定めた量のデータをミニバッチとして抽出するミニバッチ抽出部と、
双対変数、ステップサイズ、モデル学習用データのミニバッチ、制約パラメータ、あらかじめ定めた最適値ηとあらかじめ定めたハイパラメータαを用いた係数γを用いて学習を行い、モデルのパラメータを更新するモデルパラメータ更新部と、
当該モデル学習装置と接続されている他のモデル学習装置ごとに、前記モデルパラメータ更新部が更新したモデルのパラメータと係数γを用いて、前記ノイズを付加した双対変数を求め、送信する双対変数算出・送信部と、
当該モデル学習装置と接続されている他のモデル学習装置から、双対変数を受信する双対変数受信部と、
受信した双対変数を、次の学習に用いる双対変数とする双対変数設定部と、
を備える
ことを特徴とする連合学習システム。 - 複数のモデル学習装置を有し、それぞれのモデル学習装置は他のモデル学習装置のいずれかとネットワークを介して接続される連合学習システムを構成する前記モデル学習装置であって、
モデルのパラメータ、双対変数、ステップサイズ、モデル学習用データ、制約パラメータは、あらかじめ定めた初期値に設定されており、
前記モデル学習用データから、あらかじめ定めた量のデータをミニバッチとして抽出するミニバッチ抽出部と、
双対変数、ステップサイズ、モデル学習用データのミニバッチ、制約パラメータ、あらかじめ定めた最適値ηとあらかじめ定めたハイパラメータαを用いた係数γを用いて学習を行い、モデルのパラメータを更新するモデルパラメータ更新部と、
当該モデル学習装置と接続されている他のモデル学習装置ごとに、前記モデルパラメータ更新部が更新したモデルのパラメータと係数γを用いて双対変数を求め、送信する双対変数算出・送信部と、
当該モデル学習装置と接続されている他のモデル学習装置から、双対変数を受信する双対変数受信部と、
受信した双対変数を、次の学習に用いる双対変数とする双対変数設定部と、
を備える
ことを特徴とするモデル学習装置。 - 請求項3記載のモデル学習装置であって、
前記モデルパラメータ更新部は、
ただし、wi r,k+1はモデルのパラメータ、rは連合学習システム全体での学習の繰り返し回数、kはモデル学習装置内での学習の繰り返し回数、iとjはモデル学習装置を示す符号、f-はコスト関数もしくはコスト関数と置換可能な関数、uは更新前のモデルのパラメータ、ξi r,kはモデル学習用データのミニバッチ、係数γは1+αη、Nは連合学習システムを構成するモデル学習装置の数、Ai|jは制約パラメータ、zi|j rは双対変数
のように、モデルのパラメータwi r,k+1を更新し、
前記双対変数算出・送信部は、
ただし、yi|jは双対変数
のように双対変数を求める
ことを特徴とするモデル学習装置。 - 複数のモデル学習装置を有し、それぞれのモデル学習装置は他のモデル学習装置のいずれかとネットワークを介して接続される連合学習システムを構成する前記モデル学習装置であって、
モデルのパラメータ、双対変数、ステップサイズ、モデル学習用データ、制約パラメータは、あらかじめ定めた初期値に設定されており、
ノイズを生成するノイズ生成部と、
前記モデル学習用データから、あらかじめ定めた量のデータをミニバッチとして抽出するミニバッチ抽出部と、
双対変数、ステップサイズ、モデル学習用データのミニバッチ、制約パラメータ、あらかじめ定めた最適値ηとあらかじめ定めたハイパラメータαを用いた係数γを用いて学習を行い、モデルのパラメータを更新するモデルパラメータ更新部と、
当該モデル学習装置と接続されている他のモデル学習装置ごとに、前記モデルパラメータ更新部が更新したモデルのパラメータと係数γを用いて、前記ノイズを付加した双対変数を求め、送信する双対変数算出・送信部と、
当該モデル学習装置と接続されている他のモデル学習装置から、双対変数を受信する双対変数受信部と、
受信した双対変数を、次の学習に用いる双対変数とする双対変数設定部と、
を備える
ことを特徴とするモデル学習装置。 - 請求項5記載のモデル学習装置であって、
前記モデルパラメータ更新部は、
ただし、wi r,k+1はモデルのパラメータ、rは連合学習システム全体での学習の繰り返し回数、kはモデル学習装置内での学習の繰り返し回数、iとjはモデル学習装置を示す符号、f-はコスト関数もしくはコスト関数と置換可能な関数、uは更新前のモデルのパラメータ、ξi r,kはモデル学習用データのミニバッチ、係数γは1+αη、Nは連合学習システムを構成するモデル学習装置の数、Ai|jは制約パラメータ、zi|j rは双対変数
のように、モデルのパラメータwi r,k+1を更新し、
前記双対変数算出・送信部は、
ただし、yi|jはノイズが付加された双対変数、niは前記ノイズ生成部が生成したノイズ
のようにノイズが付加された双対変数を求める
ことを特徴とするモデル学習装置。 - 複数のモデル学習装置を有し、それぞれのモデル学習装置は他のモデル学習装置のいずれかとネットワークを介して接続される連合学習システムを用いる連合学習方法であって、
モデルのパラメータ、双対変数、ステップサイズ、モデル学習用データ、制約パラメータは、あらかじめ定めた初期値に設定されており、
それぞれのモデル学習装置が、
双対変数、ステップサイズ、モデル学習用データのミニバッチ、制約パラメータ、あらかじめ定めた最適値ηとあらかじめ定めたハイパラメータαを用いた係数γを用いて学習を行い、モデルのパラメータを更新するモデルパラメータ更新ステップと、
当該モデル学習装置と接続されている他のモデル学習装置ごとに、前記モデルパラメータ更新ステップが更新したモデルのパラメータと係数γを用いて双対変数を求め、送信する双対変数算出・送信ステップと、
当該モデル学習装置と接続されている他のモデル学習装置から、双対変数を受信する双対変数受信ステップと、
受信した双対変数を、次の学習に用いる双対変数とする双対変数設定ステップと、
を第1所定回数実行するインナーループ過程を有し、
前記インナーループ過程を第2所定回数実行するアウターループ過程を有する
連合学習方法。 - 請求項3~6のいずれかに記載のモデル学習装置としてコンピュータを機能させるモデル学習プログラム。
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2022/021390 WO2023228317A1 (ja) | 2022-05-25 | 2022-05-25 | 連合学習システム、モデル学習装置、連合学習方法、モデル学習プログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPWO2023228317A1 JPWO2023228317A1 (ja) | 2023-11-30 |
| JP7732591B2 true JP7732591B2 (ja) | 2025-09-02 |
Family
ID=88918718
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2024522796A Active JP7732591B2 (ja) | 2022-05-25 | 2022-05-25 | 連合学習システム、モデル学習装置、連合学習方法、モデル学習プログラム |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US20250363386A1 (ja) |
| EP (1) | EP4535244A1 (ja) |
| JP (1) | JP7732591B2 (ja) |
| CN (1) | CN119156626A (ja) |
| WO (1) | WO2023228317A1 (ja) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2019198815A1 (ja) | 2018-04-12 | 2019-10-17 | 日本電信電話株式会社 | 機械学習システム、機械学習方法、プログラム |
| US20210073677A1 (en) | 2019-09-06 | 2021-03-11 | Oracle International Corporation | Privacy preserving collaborative learning with domain adaptation |
| WO2021059604A1 (ja) | 2019-09-26 | 2021-04-01 | 富士フイルム株式会社 | 機械学習システムおよび方法、統合サーバ、情報処理装置、プログラムならびに推論モデルの作成方法 |
| US20210374617A1 (en) | 2020-06-02 | 2021-12-02 | Lingyang CHU | Methods and systems for horizontal federated learning using non-iid data |
-
2022
- 2022-05-25 CN CN202280095719.0A patent/CN119156626A/zh active Pending
- 2022-05-25 JP JP2024522796A patent/JP7732591B2/ja active Active
- 2022-05-25 US US18/867,140 patent/US20250363386A1/en active Pending
- 2022-05-25 EP EP22943721.5A patent/EP4535244A1/en active Pending
- 2022-05-25 WO PCT/JP2022/021390 patent/WO2023228317A1/ja not_active Ceased
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2019198815A1 (ja) | 2018-04-12 | 2019-10-17 | 日本電信電話株式会社 | 機械学習システム、機械学習方法、プログラム |
| US20210073677A1 (en) | 2019-09-06 | 2021-03-11 | Oracle International Corporation | Privacy preserving collaborative learning with domain adaptation |
| WO2021059604A1 (ja) | 2019-09-26 | 2021-04-01 | 富士フイルム株式会社 | 機械学習システムおよび方法、統合サーバ、情報処理装置、プログラムならびに推論モデルの作成方法 |
| US20210374617A1 (en) | 2020-06-02 | 2021-12-02 | Lingyang CHU | Methods and systems for horizontal federated learning using non-iid data |
Non-Patent Citations (1)
| Title |
|---|
| NIWA, K et al.,Edge-consensus Learning: Deep Learning on P2P Networks with Nonhomogeneous Data,KDD '20: Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery & Data M,2020年,pp. 668-678,[取得日 2022.06.14], 取得先<URL: https://dl.acm.org/doi/10.1145/3394486.3403109>,<DOI: 10.1145/3394486.3403109> |
Also Published As
| Publication number | Publication date |
|---|---|
| CN119156626A (zh) | 2024-12-17 |
| JPWO2023228317A1 (ja) | 2023-11-30 |
| WO2023228317A1 (ja) | 2023-11-30 |
| US20250363386A1 (en) | 2025-11-27 |
| EP4535244A1 (en) | 2025-04-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Jere et al. | A taxonomy of attacks on federated learning | |
| Chen et al. | Privacy and fairness in federated learning: On the perspective of tradeoff | |
| De Cock et al. | Efficient and private scoring of decision trees, support vector machines and logistic regression models based on pre-computation | |
| US11194921B2 (en) | Data masking | |
| Jiang et al. | Towards a more reliable privacy-preserving recommender system | |
| WO2022257180A1 (en) | Dynamic differential privacy to federated learning systems | |
| CN111226209B (zh) | 在基于区块链的系统中执行映射迭代 | |
| Akram et al. | Privacy preserving inference for deep neural networks: Optimizing homomorphic encryption for efficient and secure classification | |
| Canary et al. | Summary goodness‐of‐fit statistics for binary generalized linear models with noncanonical link functions | |
| Shivashankar et al. | Privacy preservation of data using modified rider optimization algorithm: Optimal data sanitization and restoration model | |
| Bogdanova et al. | Risk and advantages of federated learning for health care data collaboration | |
| Firdaus et al. | Towards trustworthy collaborative healthcare data sharing | |
| JP7732591B2 (ja) | 連合学習システム、モデル学習装置、連合学習方法、モデル学習プログラム | |
| Luo et al. | Distributed Differentially Private Matrix Factorization for Implicit Data via Secure Aggregation | |
| Liu et al. | SecureBP from homomorphic encryption | |
| Huang et al. | Privacy preservation of large language models in the metaverse era: Research frontiers, categorical comparisons, and future directions | |
| Ali et al. | Evaluating machine unlearning: Applications, approaches, and accuracy | |
| Mohammadi | Balancing Privacy and Performance in Emerging Applications of Federated Learning | |
| WO2024116402A1 (ja) | 連合学習システム、モデル学習装置、連合学習方法、モデル学習プログラム | |
| Shen et al. | A novel differentially private advising framework in cloud server environment | |
| Steward et al. | Risk‐adjusted monitoring of healthcare quality: model selection and change‐point estimation | |
| CN119203248B (zh) | 一种基于数据集压缩的联邦元学习隐私保护的方法 | |
| US20240303548A1 (en) | Method for collaborative machine learning | |
| US20250315544A1 (en) | Systems and methods for encrypting parameters of a large language model | |
| Miyajima et al. | BP Methods for Securely Distributed System with Communication Failures |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20241016 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250722 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250804 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7732591 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |