[go: up one dir, main page]

JP7732591B2 - 連合学習システム、モデル学習装置、連合学習方法、モデル学習プログラム - Google Patents

連合学習システム、モデル学習装置、連合学習方法、モデル学習プログラム

Info

Publication number
JP7732591B2
JP7732591B2 JP2024522796A JP2024522796A JP7732591B2 JP 7732591 B2 JP7732591 B2 JP 7732591B2 JP 2024522796 A JP2024522796 A JP 2024522796A JP 2024522796 A JP2024522796 A JP 2024522796A JP 7732591 B2 JP7732591 B2 JP 7732591B2
Authority
JP
Japan
Prior art keywords
model
learning
model learning
dual
dual variable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2024522796A
Other languages
English (en)
Other versions
JPWO2023228317A1 (ja
Inventor
匠 深見
一凡 張
健太 丹羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Inc
NTT Inc USA
Original Assignee
Nippon Telegraph and Telephone Corp
NTT Inc USA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, NTT Inc USA filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2023228317A1 publication Critical patent/JPWO2023228317A1/ja
Application granted granted Critical
Publication of JP7732591B2 publication Critical patent/JP7732591B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/098Distributed learning, e.g. federated learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5055Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering software capabilities, i.e. software resources associated or available to the machine
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • G06F9/545Interprogram communication where tasks reside in different layers, e.g. user- and kernel-space
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Feedback Control In General (AREA)

Description

本発明は、複数のモデル学習装置を有し、それぞれのモデル学習装置は他のモデル学習装置のいずれかとネットワークを介して接続される連合学習システム、モデル学習装置、連合学習方法、モデル学習プログラムに関する。
個人端末内のメール,購買履歴,企業内の検討資料,IoT情報,病院の診断情報などを活用することで、マッチング,自動制御,AI診療など多くのメリットが期待できる。しかし、情報セキュリティおよび漏洩への不安に起因して活用できていない。個人情報などの機密情報の漏洩を防ぐ対策として、エンドユーザ端末でデータを解析し、機密情報を出さずにノウハウのみ(例えば、双対変数)を活用可能にする連合学習技術(もしくは、分散学習技術)がある。非特許文献1は、機械学習モデルの分散学習(distributed training of machine learning models)におけるドリフト問題(drift problem)を解決するため、ECL(Edge-Consensus Learning)の更新処理において、制約-強度制御パラメータ(constraint-strength control parameter)を最適に選択することでSVR(Stochastic Variance Reduction)の勾配修正を暗黙に増加させるように再構築している。図1に非特許文献1に示されたアルゴリズム2を示す。非特許文献2は、学習モデル(以下では、単に「モデル」と呼ぶ。)にノイズを加えることで、元データの再現リスクを低減している。図2に非特許文献2に示されたアルゴリズム1と式13a,13bを示す。
Niwa, K., Zhang, G., Kleijn, W.B., Harada, N., Sawada, H., Fujino, A.. (2021). Asynchronous Decentralized Optimization With Implicit Stochastic Variance Reduction. Proceedings of the 38th International Conference on Machine Learning, in Proceedings of Machine Learning Research. ZonghanH, et al. "Differentially Private ADMM for Convex Distributed Learning: Improved Accuracy via Multi-Step Approximation", arXiv:2005.07890.
しかしながら、連合学習は、学習を分散して高速に実施できるが、ユーザが生成したモデルを用いた元データの再現リスクがあった。また、モデルの学習についてもどこまでの情報が送信されているか分からなかった。さらに、連合学習に差分プライバシーを付与する技術は、連合学習におけるユーザが生成したモデルにノイズを加えることで、元データの再現リスクを低減している。加えるノイズは大きいほど漏洩リスクを低減できるが、学習するモデルの精度が下がってしまう。既存の手法では加えるノイズは任意に決める必要があり、漏洩リスク低減と精度向上の両立という課題が残されている。
また、ユーザごとの端末で学習を行う場合、ユーザが保有するデータの分散はさまざまである。例えば、ユーザAは血圧の情報だけをもち、ユーザBは心拍数の情報だけを持つ場合などユーザごとに持っているデータの属性(ラベル)が違うこともある。また、ユーザAは10人分のデータを保持し、ユーザBは3人分のデータを保持する場合など保持しているデータ件数が違う場合もある。さらに、ユーザの端末ごとに性能も異なるし、通信環境も異なるので、ユーザ端末の計算・通信性能に大きな差がある場合もある。非特許文献1の技術においても、分散保持されたデータの分散が大きい場合、およびユーザ端末の計算・通信性能の差が大きい場合には、安定した連合学習を行いにくいという問題がある。
連合学習においては、いくつかの問題がある。本発明においては、まず、分散保持されたデータの分散が大きい場合、およびユーザの計算・通信性能の差が大きい場合であっても安定した連合学習を行うことを、課題とする。
本発明の連合学習システムは、複数のモデル学習装置を有し、それぞれのモデル学習装置は他のモデル学習装置のいずれかとネットワークを介して接続される。本発明の連合学習システムでは、モデルのパラメータ、双対変数、ステップサイズ、モデル学習用データ、制約パラメータは、あらかじめ定めた初期値に設定される。それぞれのモデル学習装置は、ミニバッチ抽出部、モデルパラメータ更新部、双対変数算出・送信部、双対変数受信部、双対変数設定部を備える。ミニバッチ抽出部は、モデル学習用データから、あらかじめ定めた量のデータをミニバッチとして抽出する。モデルパラメータ更新部は、双対変数、ステップサイズ、モデル学習用データのミニバッチ、制約パラメータ、あらかじめ定めた最適値ηとあらかじめ定めたハイパラメータαを用いた係数γを用いて学習を行い、モデルのパラメータを更新する。双対変数算出・送信部は、当該モデル学習装置と接続されている他のモデル学習装置ごとに、モデルパラメータ更新部が更新したモデルのパラメータと係数γを用いて双対変数を求め、送信する。双対変数受信部は、当該モデル学習装置と接続されている他のモデル学習装置から、双対変数を受信する。双対変数設定部は、受信した双対変数を、次の学習に用いる双対変数とする。
本発明の連合学習システムによれば、モデル学習装置のモデルパラメータ更新部が、あらかじめ定めた最適値ηとあらかじめ定めたハイパラメータαを用いた係数γを用いて更新する。また、双対変数算出・送信部が、当該モデル学習装置と接続されている他のモデル学習装置ごとに、更新したモデルのパラメータと係数γを用いて双対変数を求め、送信する。係数γによって更新の程度を調整できるので、分散保持されたデータの分散が大きい場合、およびユーザの計算・通信性能の差が大きい場合であっても安定した連合学習を行うことができる。
非特許文献1に示されたアルゴリズム2を示す図。 非特許文献2に示されたアルゴリズム1と式13a,13bを示す図。 実施例1の連合学習システムの構成例を示す図。 本発明のモデル学習装置がリング状に接続された例を示す図。 本発明のモデル学習装置がランダムに接続された例を示す図。 実施例1の連合学習システムの処理フロー例を示す図。 実施例2の連合学習システムの構成例を示す図。 実施例2の連合学習システムの処理フロー例を示す図。 実施例2の連合学習システム20のアルゴリズムを、非特許文献1と同様の記載で示した図。 コンピュータの機能構成例を示す図。
以下、本発明の実施の形態について、詳細に説明する。なお、同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
図3に実施例1の連合学習システムの構成例を示す。図4に本発明のモデル学習装置がリング状に接続された例を、図5に本発明のモデル学習装置がランダムに接続された例を示す。図6は、実施例1の連合学習システムの処理フロー例を示す図である。実施例1の連合学習システム10は、N個のモデル学習装置100,…,100を有し、それぞれのモデル学習装置100は他のモデル学習装置100のいずれかとネットワーク900を介して接続される。ここで、Nは2以上の整数、iは1以上N以下の整数、jはi以外の1以上N以下の整数である。それぞれのモデル学習装置100は、初期設定部110、ミニバッチ抽出部130、モデルパラメータ更新部140、双対変数算出・送信部150、双対変数受信部160、双対変数設定部170を備える。
それぞれのモデル学習装置100,…,100の初期設定部110では、モデルのパラメータw、双対変数zi|j、ステップサイズμ、モデル学習用データx、制約パラメータAi|jは、あらかじめ定めた初期値に設定される(S110)。例えば、w,…,wは同じ値に設定され、zi|j=0に設定される。
それぞれのモデル学習装置100,…,100のミニバッチ抽出部130は、モデル学習用データxから、あらかじめ定めた量のデータをミニバッチξ r,kとして抽出する(S130)。例えば、学習用データの数が1万個あるときに500個もしくは1000個のミニパッチを任意に抽出すればよい。ξの右下のiはモデル学習装置の番号を示している。ξの右上のkは、それぞれのモデル学習装置100,…,100で行う繰り返し処理(インナーループ過程)の繰り返し回数を示す整数である。インナーループ過程では、K回の繰り返し処理を行う。Kは2以上の整数であり、kは1以上K以下の整数である。ξの右上のrは、連合学習システム全体で、インナーループ過程の繰り返し処理(アウターループ過程)の繰り返し回数を示す整数である。アウターループ過程では、R回の繰り返し処理を行う。Rは2以上の整数であり、rは1以上R以下の整数である。以下の説明でも、記号の右下のi,jはモデル学習装置の番号を示し、記号の右上のrはアウターループ過程での繰り返し回数、右上のkはインナーループ過程での繰り返し回数を示す。なお、明細書中のテキストでは、右下の記号と右上の記号は横方向について同じ位置に記載することはできないので、ずらして記載している。一方、明細書中の数式及び図では記載できるので横方向について同じ位置に記載している。
それぞれのモデル学習装置100,…,100のモデルパラメータ更新部140は、双対変数、ステップサイズ、モデル学習用データのミニバッチ、制約パラメータ、あらかじめ定めた最適値ηとあらかじめ定めたハイパラメータαを用いた係数γを用いて学習を行い、モデルのパラメータを更新する(S140)。具体的には、モデルパラメータ更新部140は、次式のように、モデルのパラメータを更新し、次回の処理で使用するモデルのパラメータw r,k+1を求める。

ただし、fはコスト関数もしくはコスト関数と置換可能な関数、uは更新前のモデルのパラメータ、ξ r,kはモデル学習用データのミニバッチ、係数γは1+αη、Nは連合学習システムを構成するモデル学習装置の数、Ai|jは制約パラメータ、zi|j は双対変数である。w r,k+1はモデルのパラメータであり、インナーループのk+1回目の処理に使用する。なお、“f”の“”は、本来は“f”の上に配置されるが、明細書でのテキストの記載の制限から、“f”のように記載している。
あらかじめ定めた最適値ηは、1/(μKE)とすればよい。Eは、モデル学習装置100と接続されている他のモデル学習装置の数である。あらかじめ定めたハイパラメータαは、例えばα=2などがあるが、これに限られるものではない。連合システムごとに適したαは異なるので、連合学習システムごとに適宜定めればよいパラメータである。コスト関数もしくはコスト関数と置換可能な関数f,モデルのパラメータu、制約パラメータAi|jなどは、非特許文献1と同じ関数とパラメータを用いればよい。例えば、関数fとしては、非特許文献1の“4.1 Problem definition”に記載された以下の関数q(w)を用いればよい。

ただし、gはコスト関数fの微分関数である。
それぞれのモデル学習装置100,…,100の双対変数算出・送信部150は、当該モデル学習装置100と接続されている他のモデル学習装置100ごとに、モデルパラメータ更新部140が更新したモデルのパラメータw r,k+1と係数γを用いて双対変数yi|jを求め、他のモデル学習装置100ごとに送信する(S150)。具体的には、双対変数算出・送信部150は、次式のように双対変数yi|jを求める。なお、他のモデル学習装置200は、少なくとも1つは存在するが、2つ以上であってもよい。また、式の矢印は、代入を意味している。
それぞれのモデル学習装置100,…,100の双対変数受信部160は、当該モデル学習装置100と接続されている他のモデル学習装置100から、双対変数yj|iを受信する(S160)。双対変数受信部160が受信する双対変数yj|iは、モデル学習装置100の双対変数算出・送信部150が算出・送信するので、双対変数算出・送信部150が算出・送信する双対変数yi|jとは“j”と“i”の位置が逆である。
それぞれのモデル学習装置100,…,100の双対変数設定部170は、受信した双対変数yj|iを、次の学習に用いる双対変数zi|j r,k+1とする(S170)。双対変数設定部170は、次式のように受信した双対変数yj|iを、次の学習に用いる双対変数zi|j r,k+1とすればよい。
それぞれのモデル学習装置100,…,100は、インナーループ過程の処理が終了したかを確認し、終了していないとき(Noのとき)は繰り返し処理を続け、終了しているとき(Yesのとき)はアウターループ過程の確認に進む(S180)。ステップS180がYesのときは、それぞれのモデル学習装置100,…,100は、アウターループ過程の処理が終了したかを確認し、終了していないとき(Noのとき)は繰り返し処理を続け、終了しているとき(Yesのとき)は処理を終了する(S190)。
連合学習システム10によれば、モデル学習装置100,…,100のモデルパラメータ更新部140が、あらかじめ定めた最適値ηとあらかじめ定めたハイパラメータαを用いた係数γを用いてモデルのパラメータw r,k+1を更新する。また、双対変数算出・送信部150が、当該モデル学習装置100と接続されている他のモデル学習装置100ごとに、更新したモデルのパラメータと係数γを用いて双対変数を求め、送信する。係数γによって更新の程度を調整できるので、分散保持されたデータの分散が大きい場合、およびユーザの計算・通信性能の差が大きい場合であっても安定した連合学習を行うことができる。
実施例1では、第1の課題である「分散保持されたデータの分散が大きい場合や、ユーザの計算・通信性能の差が大きい場合であっても安定した連合学習を行う」を解決した。第1の課題を解決する手段に限定を付加することで、「漏洩リスク低減と精度向上の両立」という課題も解決可能である。そこで、実施例2では、「漏洩リスク低減と精度向上の両立」を第2の課題とする。
図7に実施例2の連合学習システムの構成例を示す。図4に本発明のモデル学習装置がリング状に接続された例を、図5に本発明のモデル学習装置がランダムに接続された例を示す。図8は、実施例2の連合学習システムの処理フロー例を示す図である。実施例2の連合学習システム20は、N個のモデル学習装置200,…,200を有し、それぞれのモデル学習装置200は他のモデル学習装置200のいずれかとネットワークを介して接続される。それぞれのモデル学習装置200は、初期設定部110、ノイズ生成部220、ミニバッチ抽出部130、モデルパラメータ更新部140、双対変数算出・送信部250、双対変数受信部160、双対変数設定部170を備える。
それぞれのモデル学習装置200,…,200の初期設定部110、ミニバッチ抽出部130の処理(S130)は実施例1と同じである。それぞれのモデル学習装置200,…,200のノイズ生成部220は、ノイズnを生成する(S220)。具体的には、あらかじめ定めた分散σに基づいてガウスノイズnを生成すればよい。
それぞれのモデル学習装置200,…,200のモデルパラメータ更新部140は、双対変数、ステップサイズ、モデル学習用データのミニバッチ、制約パラメータ、あらかじめ定めた最適値ηとあらかじめ定めたハイパラメータαを用いた係数γを用いて学習を行い、モデルのパラメータを更新する(S140)。具体的には、モデルパラメータ更新部140は、次式のように、モデルのパラメータを更新し、次回の処理で使用するモデルのパラメータw r,k+1を求める。

ただし、fはコスト関数もしくはコスト関数と置換可能な関数、uは更新前のモデルのパラメータ、ξ r,kはモデル学習用データのミニバッチ、係数γは1+αη、Nは連合学習システムを構成するモデル学習装置の数、Ai|jは制約パラメータ、zi|j は双対変数である。w r,k+1はモデルのパラメータであり、インナーループのk+1回目の処理に使用する。上述のモデルパラメータ更新部140の処理は、実施例1と同じである。ただし、後述する双対変数算出・送信部250によって双対変数zi|j にはノイズが付加されているので、γはモデルのパラメータw r,k+1を更新する際のノイズの影響を調整する役割も果たす。
それぞれのモデル学習装置200,…,200の双対変数算出・送信部250は、モデル学習装置200と接続されている他のモデル学習装置200ごとに、モデルパラメータ更新部140が更新したモデルのパラメータw r,k+1と係数γを用いて、ノイズを付加した双対変数yi|jを求め、他のモデル学習装置200に送信する。なお、他のモデル学習装置200は、少なくとも1つは存在するが、2つ以上であってもよい。具体的には、双対変数算出・送信部250は、次式のようにノイズが付加された双対変数yi|jを求める。

ただし、nはノイズ生成部220が生成したノイズである。双対変数算出・送信部250のγはノイズの影響を調整する役割と、情報漏洩防止の役割を果たしている。
双対変数受信部160の処理(S160)と双対変数設定部170の処理(S170)は実施例1と同じである。また、実施例1と同じように、インナーループ過程の確認(S180)とアウターループ過程の確認(S190)を行い、繰り返し処理を実行する。
図9は、上述の実施例2の連合学習システム20のアルゴリズムを、非特許文献1と同様の記載で示した図である。連合学習システム20によれば、ξ r,kにはノイズが付加されていないので、ノイズによる学習阻害の影響を低減できるのでモデル学習の精度を向上できる。一方で、他のモデル学習装置200に送信する双対変数yi|jにはノイズを付加しているので、情報漏洩のリスクを低減できる。よって、第1の課題である「分散保持されたデータの分散が大きい場合や、ユーザの計算・通信性能の差が大きい場合であっても安定した連合学習を行う」の解決の他に、漏洩リスク低減と精度向上の両立という課題も解決できる。
[プログラム、記録媒体]
上述の各種の処理は、図10に示すコンピュータ2000の記録部2020に、上記方法の各ステップを実行させるプログラムを読み込ませ、制御部2010、入力部2030、出力部2040、表示部2050などに動作させることで実施できる。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
10,20 連合学習システム
100,200 モデル学習装置
110 初期設定部
130 ミニバッチ抽出部
140 モデルパラメータ更新部
150,250 双対変数算出・送信部
160 双対変数受信部
170 双対変数設定部
220 ノイズ生成部

Claims (8)

  1. 複数のモデル学習装置を有し、それぞれのモデル学習装置は他のモデル学習装置のいずれかとネットワークを介して接続される連合学習システムであって、
    モデルのパラメータ、双対変数、ステップサイズ、モデル学習用データ、制約パラメータは、あらかじめ定めた初期値に設定されており、
    それぞれのモデル学習装置は、
    前記モデル学習用データから、あらかじめ定めた量のデータをミニバッチとして抽出するミニバッチ抽出部と、
    双対変数、ステップサイズ、モデル学習用データのミニバッチ、制約パラメータ、あらかじめ定めた最適値ηとあらかじめ定めたハイパラメータαを用いた係数γを用いて学習を行い、モデルのパラメータを更新するモデルパラメータ更新部と、
    当該モデル学習装置と接続されている他のモデル学習装置ごとに、前記モデルパラメータ更新部が更新したモデルのパラメータと係数γを用いて双対変数を求め、送信する双対変数算出・送信部と、
    当該モデル学習装置と接続されている他のモデル学習装置から、双対変数を受信する双対変数受信部と、
    受信した双対変数を、次の学習に用いる双対変数とする双対変数設定部と、
    を備える
    ことを特徴とする連合学習システム。
  2. 複数のモデル学習装置を有し、それぞれのモデル学習装置は他のモデル学習装置のいずれかとネットワークを介して接続される連合学習システムであって、
    モデルのパラメータ、双対変数、ステップサイズ、モデル学習用データ、制約パラメータは、あらかじめ定めた初期値に設定されており、
    それぞれのモデル学習装置は、
    ノイズを生成するノイズ生成部と、
    前記モデル学習用データから、あらかじめ定めた量のデータをミニバッチとして抽出するミニバッチ抽出部と、
    双対変数、ステップサイズ、モデル学習用データのミニバッチ、制約パラメータ、あらかじめ定めた最適値ηとあらかじめ定めたハイパラメータαを用いた係数γを用いて学習を行い、モデルのパラメータを更新するモデルパラメータ更新部と、
    当該モデル学習装置と接続されている他のモデル学習装置ごとに、前記モデルパラメータ更新部が更新したモデルのパラメータと係数γを用いて、前記ノイズを付加した双対変数を求め、送信する双対変数算出・送信部と、
    当該モデル学習装置と接続されている他のモデル学習装置から、双対変数を受信する双対変数受信部と、
    受信した双対変数を、次の学習に用いる双対変数とする双対変数設定部と、
    を備える
    ことを特徴とする連合学習システム。
  3. 複数のモデル学習装置を有し、それぞれのモデル学習装置は他のモデル学習装置のいずれかとネットワークを介して接続される連合学習システムを構成する前記モデル学習装置であって、
    モデルのパラメータ、双対変数、ステップサイズ、モデル学習用データ、制約パラメータは、あらかじめ定めた初期値に設定されており、
    前記モデル学習用データから、あらかじめ定めた量のデータをミニバッチとして抽出するミニバッチ抽出部と、
    双対変数、ステップサイズ、モデル学習用データのミニバッチ、制約パラメータ、あらかじめ定めた最適値ηとあらかじめ定めたハイパラメータαを用いた係数γを用いて学習を行い、モデルのパラメータを更新するモデルパラメータ更新部と、
    当該モデル学習装置と接続されている他のモデル学習装置ごとに、前記モデルパラメータ更新部が更新したモデルのパラメータと係数γを用いて双対変数を求め、送信する双対変数算出・送信部と、
    当該モデル学習装置と接続されている他のモデル学習装置から、双対変数を受信する双対変数受信部と、
    受信した双対変数を、次の学習に用いる双対変数とする双対変数設定部と、
    を備える
    ことを特徴とするモデル学習装置。
  4. 請求項3記載のモデル学習装置であって、
    前記モデルパラメータ更新部は、

    ただし、w r,k+1はモデルのパラメータ、rは連合学習システム全体での学習の繰り返し回数、kはモデル学習装置内での学習の繰り返し回数、iとjはモデル学習装置を示す符号、fはコスト関数もしくはコスト関数と置換可能な関数、uは更新前のモデルのパラメータ、ξ r,kはモデル学習用データのミニバッチ、係数γは1+αη、Nは連合学習システムを構成するモデル学習装置の数、Ai|jは制約パラメータ、zi|j は双対変数
    のように、モデルのパラメータw r,k+1を更新し、
    前記双対変数算出・送信部は、

    ただし、yi|jは双対変数
    のように双対変数を求める
    ことを特徴とするモデル学習装置。
  5. 複数のモデル学習装置を有し、それぞれのモデル学習装置は他のモデル学習装置のいずれかとネットワークを介して接続される連合学習システムを構成する前記モデル学習装置であって、
    モデルのパラメータ、双対変数、ステップサイズ、モデル学習用データ、制約パラメータは、あらかじめ定めた初期値に設定されており、
    ノイズを生成するノイズ生成部と、
    前記モデル学習用データから、あらかじめ定めた量のデータをミニバッチとして抽出するミニバッチ抽出部と、
    双対変数、ステップサイズ、モデル学習用データのミニバッチ、制約パラメータ、あらかじめ定めた最適値ηとあらかじめ定めたハイパラメータαを用いた係数γを用いて学習を行い、モデルのパラメータを更新するモデルパラメータ更新部と、
    当該モデル学習装置と接続されている他のモデル学習装置ごとに、前記モデルパラメータ更新部が更新したモデルのパラメータと係数γを用いて、前記ノイズを付加した双対変数を求め、送信する双対変数算出・送信部と、
    当該モデル学習装置と接続されている他のモデル学習装置から、双対変数を受信する双対変数受信部と、
    受信した双対変数を、次の学習に用いる双対変数とする双対変数設定部と、
    を備える
    ことを特徴とするモデル学習装置。
  6. 請求項5記載のモデル学習装置であって、
    前記モデルパラメータ更新部は、

    ただし、w r,k+1はモデルのパラメータ、rは連合学習システム全体での学習の繰り返し回数、kはモデル学習装置内での学習の繰り返し回数、iとjはモデル学習装置を示す符号、fはコスト関数もしくはコスト関数と置換可能な関数、uは更新前のモデルのパラメータ、ξ r,kはモデル学習用データのミニバッチ、係数γは1+αη、Nは連合学習システムを構成するモデル学習装置の数、Ai|jは制約パラメータ、zi|j は双対変数
    のように、モデルのパラメータw r,k+1を更新し、
    前記双対変数算出・送信部は、

    ただし、yi|jはノイズが付加された双対変数、nは前記ノイズ生成部が生成したノイズ
    のようにノイズが付加された双対変数を求める
    ことを特徴とするモデル学習装置。
  7. 複数のモデル学習装置を有し、それぞれのモデル学習装置は他のモデル学習装置のいずれかとネットワークを介して接続される連合学習システムを用いる連合学習方法であって、
    モデルのパラメータ、双対変数、ステップサイズ、モデル学習用データ、制約パラメータは、あらかじめ定めた初期値に設定されており、
    それぞれのモデル学習装置が、
    双対変数、ステップサイズ、モデル学習用データのミニバッチ、制約パラメータ、あらかじめ定めた最適値ηとあらかじめ定めたハイパラメータαを用いた係数γを用いて学習を行い、モデルのパラメータを更新するモデルパラメータ更新ステップと、
    当該モデル学習装置と接続されている他のモデル学習装置ごとに、前記モデルパラメータ更新ステップが更新したモデルのパラメータと係数γを用いて双対変数を求め、送信する双対変数算出・送信ステップと、
    当該モデル学習装置と接続されている他のモデル学習装置から、双対変数を受信する双対変数受信ステップと、
    受信した双対変数を、次の学習に用いる双対変数とする双対変数設定ステップと、
    を第1所定回数実行するインナーループ過程を有し、
    前記インナーループ過程を第2所定回数実行するアウターループ過程を有する
    連合学習方法。
  8. 請求項3~6のいずれかに記載のモデル学習装置としてコンピュータを機能させるモデル学習プログラム。
JP2024522796A 2022-05-25 2022-05-25 連合学習システム、モデル学習装置、連合学習方法、モデル学習プログラム Active JP7732591B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/021390 WO2023228317A1 (ja) 2022-05-25 2022-05-25 連合学習システム、モデル学習装置、連合学習方法、モデル学習プログラム

Publications (2)

Publication Number Publication Date
JPWO2023228317A1 JPWO2023228317A1 (ja) 2023-11-30
JP7732591B2 true JP7732591B2 (ja) 2025-09-02

Family

ID=88918718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2024522796A Active JP7732591B2 (ja) 2022-05-25 2022-05-25 連合学習システム、モデル学習装置、連合学習方法、モデル学習プログラム

Country Status (5)

Country Link
US (1) US20250363386A1 (ja)
EP (1) EP4535244A1 (ja)
JP (1) JP7732591B2 (ja)
CN (1) CN119156626A (ja)
WO (1) WO2023228317A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019198815A1 (ja) 2018-04-12 2019-10-17 日本電信電話株式会社 機械学習システム、機械学習方法、プログラム
US20210073677A1 (en) 2019-09-06 2021-03-11 Oracle International Corporation Privacy preserving collaborative learning with domain adaptation
WO2021059604A1 (ja) 2019-09-26 2021-04-01 富士フイルム株式会社 機械学習システムおよび方法、統合サーバ、情報処理装置、プログラムならびに推論モデルの作成方法
US20210374617A1 (en) 2020-06-02 2021-12-02 Lingyang CHU Methods and systems for horizontal federated learning using non-iid data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019198815A1 (ja) 2018-04-12 2019-10-17 日本電信電話株式会社 機械学習システム、機械学習方法、プログラム
US20210073677A1 (en) 2019-09-06 2021-03-11 Oracle International Corporation Privacy preserving collaborative learning with domain adaptation
WO2021059604A1 (ja) 2019-09-26 2021-04-01 富士フイルム株式会社 機械学習システムおよび方法、統合サーバ、情報処理装置、プログラムならびに推論モデルの作成方法
US20210374617A1 (en) 2020-06-02 2021-12-02 Lingyang CHU Methods and systems for horizontal federated learning using non-iid data

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NIWA, K et al.,Edge-consensus Learning: Deep Learning on P2P Networks with Nonhomogeneous Data,KDD '20: Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery & Data M,2020年,pp. 668-678,[取得日 2022.06.14], 取得先<URL: https://dl.acm.org/doi/10.1145/3394486.3403109>,<DOI: 10.1145/3394486.3403109>

Also Published As

Publication number Publication date
CN119156626A (zh) 2024-12-17
JPWO2023228317A1 (ja) 2023-11-30
WO2023228317A1 (ja) 2023-11-30
US20250363386A1 (en) 2025-11-27
EP4535244A1 (en) 2025-04-09

Similar Documents

Publication Publication Date Title
Jere et al. A taxonomy of attacks on federated learning
Chen et al. Privacy and fairness in federated learning: On the perspective of tradeoff
De Cock et al. Efficient and private scoring of decision trees, support vector machines and logistic regression models based on pre-computation
US11194921B2 (en) Data masking
Jiang et al. Towards a more reliable privacy-preserving recommender system
WO2022257180A1 (en) Dynamic differential privacy to federated learning systems
CN111226209B (zh) 在基于区块链的系统中执行映射迭代
Akram et al. Privacy preserving inference for deep neural networks: Optimizing homomorphic encryption for efficient and secure classification
Canary et al. Summary goodness‐of‐fit statistics for binary generalized linear models with noncanonical link functions
Shivashankar et al. Privacy preservation of data using modified rider optimization algorithm: Optimal data sanitization and restoration model
Bogdanova et al. Risk and advantages of federated learning for health care data collaboration
Firdaus et al. Towards trustworthy collaborative healthcare data sharing
JP7732591B2 (ja) 連合学習システム、モデル学習装置、連合学習方法、モデル学習プログラム
Luo et al. Distributed Differentially Private Matrix Factorization for Implicit Data via Secure Aggregation
Liu et al. SecureBP from homomorphic encryption
Huang et al. Privacy preservation of large language models in the metaverse era: Research frontiers, categorical comparisons, and future directions
Ali et al. Evaluating machine unlearning: Applications, approaches, and accuracy
Mohammadi Balancing Privacy and Performance in Emerging Applications of Federated Learning
WO2024116402A1 (ja) 連合学習システム、モデル学習装置、連合学習方法、モデル学習プログラム
Shen et al. A novel differentially private advising framework in cloud server environment
Steward et al. Risk‐adjusted monitoring of healthcare quality: model selection and change‐point estimation
CN119203248B (zh) 一种基于数据集压缩的联邦元学习隐私保护的方法
US20240303548A1 (en) Method for collaborative machine learning
US20250315544A1 (en) Systems and methods for encrypting parameters of a large language model
Miyajima et al. BP Methods for Securely Distributed System with Communication Failures

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20241016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250722

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250804

R150 Certificate of patent or registration of utility model

Ref document number: 7732591

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150