[go: up one dir, main page]

WO2010035690A2 - Structure training device, structure training system, structure training method, program, and recording medium - Google Patents

Structure training device, structure training system, structure training method, program, and recording medium Download PDF

Info

Publication number
WO2010035690A2
WO2010035690A2 PCT/JP2009/066259 JP2009066259W WO2010035690A2 WO 2010035690 A2 WO2010035690 A2 WO 2010035690A2 JP 2009066259 W JP2009066259 W JP 2009066259W WO 2010035690 A2 WO2010035690 A2 WO 2010035690A2
Authority
WO
WIPO (PCT)
Prior art keywords
network structure
learning
network
agent
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2009/066259
Other languages
French (fr)
Japanese (ja)
Other versions
WO2010035690A9 (en
Inventor
貴之 中田
森永 聡
遼平 藤巻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2010530824A priority Critical patent/JPWO2010035690A1/en
Publication of WO2010035690A2 publication Critical patent/WO2010035690A2/en
Publication of WO2010035690A9 publication Critical patent/WO2010035690A9/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Definitions

  • the present invention relates to a structure learning device, a structure learning system, a structure learning method, a program, and a recording medium that improve the network structure learning result of the agent by sharing and using the network structure information of other agents.
  • Non-Patent Document 1 The learning method of the network structure learning system is described in Non-Patent Document 1, for example.
  • the network structure learning system described in Non-Patent Document 1 includes network structure learning means and network structure mixed parameter estimation means.
  • the network structure learning system having such a configuration operates as follows.
  • the network structure learning and the network structure mixed parameter estimation are performed by a method called an EM algorithm until the result converges.
  • Non-Patent Document 1 since the technique described in Non-Patent Document 1 does not consider sharing of the network structure by a plurality of agents, the plurality of agents share the network structure and cannot improve each learning result.
  • the present invention has been made in view of the above problems, and an object thereof is to provide a structure learning apparatus in which a plurality of agents can share a network structure and improve each learning result.
  • a structure learning device learns a network structure from a shared network and determines a candidate network structure, and a network structure made a candidate by the network structure learning means
  • Network structure mixed parameter estimating means for estimating the mixed parameters of the network structure at the network structure level
  • agent mixed parameter estimating means for estimating the network structure mixed parameters that are candidates by the network structure learning means at the agent level. It is characterized by.
  • the network structure generating means for generating a new network structure when the network structure learning means determines that there is no suitable network structure as a candidate.
  • the network structure learning means is characterized by repeatedly learning until the estimation results by the network structure mixed parameter estimating means and the agent mixed parameter estimating means converge.
  • the structure learning system according to the present invention includes a plurality of the structure learning devices described above.
  • the structure learning method is a network structure learning step for learning a network structure from a shared network and determining a network structure as a candidate, and a network structure mixed parameter determined by the network structure learning step as a network.
  • a network structure mixed parameter estimating step for estimating at a structure level, and an agent mixed parameter estimating step for estimating a network structure mixed parameter made a candidate by the network structure learning step at an agent level.
  • a network structure generation step is provided for generating a new network structure when it is determined in the network structure learning step that there is no network structure suitable as a candidate.
  • the network structure learning step is characterized in that learning is repeated until the estimation results of the network structure mixed parameter estimation step and the agent mixed parameter estimation step converge.
  • the program according to the present invention is characterized by causing a computer to execute the structure learning method described above.
  • the recording medium in the present invention is a computer-readable recording medium storing the above-described program.
  • a plurality of agents can share the network structure and improve each learning result.
  • FIG. 1 is a hardware configuration diagram of a network structure learning apparatus according to an embodiment of the present invention.
  • the apparatus includes an operation unit 1, a CPU 2, a memory 3, a ROM 4, and a network interface 5.
  • the CPU 2 controls the entire apparatus, and the ROM 4 stores programs executed by the CPU 2 and other fixed data.
  • the memory 3 is used for temporary storage of data when the CPU 2 performs calculations. Further, a network is realized by the network interface 5, and information can be input / output by the operation unit 1.
  • FIG. 2 is a system block diagram of the network structure learning apparatus according to the embodiment of the present invention.
  • the network structure learning apparatus includes an input unit 11, a network structure learning unit 12, a network structure generation unit 13, a network structure mixed parameter estimation unit 14, an agent mixed parameter estimation unit 15, and an output unit 16. Configured.
  • the input unit 11 takes in the data to be observed, and the network structure learning unit 12 learns the network structure that generates the observation data.
  • the network structure generation unit 13 generates a new network structure when the existing network structure does not match the observation value well by the network structure learning unit 12.
  • the network structure mixed parameter estimation means 14 estimates the mixing probability at the network structure level
  • the agent mixing parameter estimation means 15 estimates the mixing probability at the agent level.
  • the output means 16 outputs the learned network structure and the estimation result in the mixing probability.
  • step S1 data to be observed is captured by the input means 11 (step S1).
  • step S2 the network structure learning unit 12 learns the most suitable structure as a network structure for generating observation data (step S2). It is determined whether or not there is (step S3).
  • step S4 If there is no network structure that has been successfully matched by learning so far, a new most suitable network structure is generated from the distribution serving as the base of the network structure (step S4).
  • the network structure level is calculated to calculate what mixing probability the network structure has, and the mixing probability is estimated (step S5). It is determined whether or not it has converged (step S6). Here, when it does not converge, it returns to step S2 and learns again.
  • step S7 calculates what mixing probability the agent has at the agent level, estimates the mixing probability (step S7), and determines whether the estimation result has converged (step S8). .
  • step S8 determines whether the estimation result has converged.
  • step S9 output the network structure learned in step S2 and the mixing probability estimated in steps S5 and S7 (step S9).
  • the probability distribution T of the network is
  • Nj represents the number of observations of data at agent j.
  • the observation value is assumed to be exchangeable in the agent, and is generated according to the probability distribution xji to T ( ⁇
  • the network structure and its parameter ⁇ T: ji are generated from Gj,
  • nDP nested Dirichlet process
  • the index cj represents the mixed network structure that generates the network structure of agent j.
  • the index sji represents the network structure for generating the data point xji.
  • nDP and shared network structure can be performed based on Gibbs sampler, and the following steps are repeated until convergence.
  • (ii) and (iv) correspond to the network structure mixed parameter estimating means 14 of FIG. 2 and step S5 of FIG. 3, and (i) and (iii) are the agent mixed parameters of FIG. 3 corresponds to the estimation means 15 and step S7 in FIG. 3, and (v) corresponds to the network structure learning means 12, the network structure generation means 13 in FIG. 2, and steps S2 to S4 in FIG.
  • a plurality of agents can share a network structure and improve each learning result.
  • a mixed model is used for each agent model, a plurality of agents can be clustered into similar ones.
  • modeling, learning, and estimation are further performed using a nonparametric model, so that it is not necessary to set a finite value as the number of models mixed in advance.
  • the present invention can be used as follows.
  • the basic part correlation structure such as engine control shows similar behavior, but for example in the case of a hybrid vehicle, electronic motor control, etc. It has a parts correlation structure unique to the model.
  • the learning accuracy is improved by sharing information on other vehicle types, and the part correlation structure that can be found only in a specific vehicle type is learned independently for each vehicle type.
  • the present invention can be applied to such a case that vehicle types that share a part correlation structure with high uniqueness in the vehicle type are clustered as similar vehicle types.
  • the learning accuracy can be improved by sharing information of other banks.
  • each bank the number of specific operations, regional characteristics such as the occurrence of earthquakes and typhoons
  • the present invention can also be applied to applications such as sharing information between banks having the specific loss event correlation structure and clustering them as banks having a similar loss event correlation structure.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Provided is a structure training device in which a plurality of agents share a network structure, and the training result of each agent can be improved. The device is provided with: a network structure training means for learning a network structure from the shared network and determining a candidate network structure, a network structure mixed parameter estimation means for estimating the mixed parameters of the candidate network structure from the network structure training means at the network structure level, and an agent mixed parameter estimation means for estimating the mixed parameters of the candidate network structure from the network structure training means at the agent level.

Description

構造学習装置、構造学習システム、構造学習方法、プログラム及び記録媒体Structure learning device, structure learning system, structure learning method, program, and recording medium

 本発明は、他のエージェントが持つネットワーク構造情報を共有して利用することで、自身が持つネットワーク構造学習結果を改良する構造学習装置、構造学習システム、構造学習方法、プログラム及び記録媒体に関する。 The present invention relates to a structure learning device, a structure learning system, a structure learning method, a program, and a recording medium that improve the network structure learning result of the agent by sharing and using the network structure information of other agents.

 ネットワーク構造学習システムの学習方法としては、例えば非特許文献1に記載されている。 The learning method of the network structure learning system is described in Non-Patent Document 1, for example.

 非特許文献1記載のネットワーク構造学習システムは、ネットワーク構造学習手段と、ネットワーク構造混合パラメータ推定手段とから構成されている。このような構成を有するネットワーク構造学習システムは、次のように動作する。 The network structure learning system described in Non-Patent Document 1 includes network structure learning means and network structure mixed parameter estimation means. The network structure learning system having such a configuration operates as follows.

 すなわち、ネットワークの構造学習とネットワーク構造混合パラメータの推定を結果が収束するまでEMアルゴリズムと呼ばれる方法で計算を行う。 That is, the network structure learning and the network structure mixed parameter estimation are performed by a method called an EM algorithm until the result converges.

Marina Meila, Michael I. Jordan, "Learning with Mixtures of Trees", Journal of Machine Learning Research, Vol 1, p.1-48(2000)Marina Meila, Michael I. Jordan, "Learning with Mixtures of Trees", Journal of Machine Learning Research, Vol 1, p.1-48 (2000)

 しかしながら、非特許文献1に記載の技術は、複数エージェントによるネットワーク構造の共有が考慮されていないため、複数エージェントがネットワーク構造を共有し、各々の学習結果を改善することができない。 However, since the technique described in Non-Patent Document 1 does not consider sharing of the network structure by a plurality of agents, the plurality of agents share the network structure and cannot improve each learning result.

 また、複数エージェントによるネットワーク構造の共有、及び複数エージェントの類似性が考慮されていないため、複数エージェントを類似したもの同士にクラスタリングすることができない。 Also, since the network structure sharing by multiple agents and the similarity of multiple agents are not taken into consideration, the multiple agents cannot be clustered into similar ones.

 また、パラメトリックモデルを用いているため、モデルの混合数として有限の値をあらかじめ定める必要がある。 Also, since a parametric model is used, a finite value must be determined in advance as the number of models mixed.

 そこで本発明は、上記問題点に鑑みてなされたもので、複数エージェントがネットワーク構造を共有し、各々の学習結果を改善することができる構造学習装置を提供することを目的とする。 Therefore, the present invention has been made in view of the above problems, and an object thereof is to provide a structure learning apparatus in which a plurality of agents can share a network structure and improve each learning result.

 上記課題を解決するため、本発明における構造学習装置は、共有するネットワークからネットワーク構造を学習し、候補となるネットワーク構造を決定するネットワーク構造学習手段と、ネットワーク構造学習手段によって候補とされたネットワーク構造の混合パラメータをネットワーク構造レベルにて推定するネットワーク構造混合パラメータ推定手段と、ネットワーク構造学習手段によって候補とされたネットワーク構造の混合パラメータをエージェントレベルにて推定するエージェント混合パラメータ推定手段と、を備えることを特徴とする。 In order to solve the above problems, a structure learning device according to the present invention learns a network structure from a shared network and determines a candidate network structure, and a network structure made a candidate by the network structure learning means Network structure mixed parameter estimating means for estimating the mixed parameters of the network structure at the network structure level, and agent mixed parameter estimating means for estimating the network structure mixed parameters that are candidates by the network structure learning means at the agent level. It is characterized by.

 ネットワーク構造学習手段にて候補として適合するネットワーク構造が無かったと判断された場合に、新たなネットワーク構造を生成するネットワーク構造生成手段を備えることを特徴とする。 The network structure generating means for generating a new network structure when the network structure learning means determines that there is no suitable network structure as a candidate.

 ネットワーク構造学習手段は、ネットワーク構造混合パラメータ推定手段、及びエージェント混合パラメータ推定手段による推定結果が収束するまで繰り返し学習することを特徴とする。 The network structure learning means is characterized by repeatedly learning until the estimation results by the network structure mixed parameter estimating means and the agent mixed parameter estimating means converge.

 また、本発明における構造学習システムは、上記記載の構造学習装置を複数備えることを特徴とする。 The structure learning system according to the present invention includes a plurality of the structure learning devices described above.

 また、本発明における構造学習方法は、共有するネットワークからネットワーク構造を学習し、候補となるネットワーク構造を決定するネットワーク構造学習ステップと、ネットワーク構造学習ステップによって候補とされたネットワーク構造の混合パラメータをネットワーク構造レベルにて推定するネットワーク構造混合パラメータ推定ステップと、ネットワーク構造学習ステップによって候補とされたネットワーク構造の混合パラメータをエージェントレベルにて推定するエージェント混合パラメータ推定ステップと、を備えることを特徴とする。 The structure learning method according to the present invention is a network structure learning step for learning a network structure from a shared network and determining a network structure as a candidate, and a network structure mixed parameter determined by the network structure learning step as a network. A network structure mixed parameter estimating step for estimating at a structure level, and an agent mixed parameter estimating step for estimating a network structure mixed parameter made a candidate by the network structure learning step at an agent level.

 ネットワーク構造学習ステップにて候補として適合するネットワーク構造が無かったと判断された場合に、新たなネットワーク構造を生成するネットワーク構造生成ステップを備えることを特徴とする。 A network structure generation step is provided for generating a new network structure when it is determined in the network structure learning step that there is no network structure suitable as a candidate.

 ネットワーク構造学習ステップは、ネットワーク構造混合パラメータ推定ステップ、及びエージェント混合パラメータ推定ステップによる推定結果が収束するまで繰り返し学習することを特徴とする。 The network structure learning step is characterized in that learning is repeated until the estimation results of the network structure mixed parameter estimation step and the agent mixed parameter estimation step converge.

 また、本発明におけるプログラムは、上記記載の構造学習方法をコンピュータに実行させることを特徴とする。 The program according to the present invention is characterized by causing a computer to execute the structure learning method described above.

 また、本発明における記録媒体は、上記記載のプログラムを格納したコンピュータ読取可能な記録媒体であることを特徴とする。 The recording medium in the present invention is a computer-readable recording medium storing the above-described program.

 本発明により、複数エージェントによるネットワーク構造の共有を考慮したモデルを用いるため、複数エージェントがネットワーク構造を共有し、各々の学習結果を改善することができる。 According to the present invention, since a model that considers sharing of the network structure by a plurality of agents is used, a plurality of agents can share the network structure and improve each learning result.

本発明の実施形態に係る構成を示すハードウェア構成図である。It is a hardware block diagram which shows the structure which concerns on embodiment of this invention. 本発明の実施形態に係る構成を示すシステムブロック図である。It is a system block diagram which shows the structure which concerns on embodiment of this invention. 本発明の実施形態に係るフローチャート図である。It is a flowchart figure which concerns on embodiment of this invention. 本発明の実施形態に係る動作の具体例を示す図である。It is a figure which shows the specific example of the operation | movement which concerns on embodiment of this invention.

 次に、発明を実施するための最良の形態について図面を参照して詳細に説明する。 Next, the best mode for carrying out the invention will be described in detail with reference to the drawings.

 図1は、本発明の実施形態におけるネットワーク構造学習装置のハードウェア構成図である。本装置は、操作部1と、CPU2と、メモリ3と、ROM4と、ネットワークインターフェース5と、を有して構成される。 FIG. 1 is a hardware configuration diagram of a network structure learning apparatus according to an embodiment of the present invention. The apparatus includes an operation unit 1, a CPU 2, a memory 3, a ROM 4, and a network interface 5.

 CPU2は、装置全体の制御を司り、ROM4には、CPU2が実行するプログラム、その他の固定データが格納されている。また、メモリ3は、CPU2による演算の際等にデータの一時格納に用いられる。さらに、ネットワークインターフェース5により、ネットワークが実現され、操作部1にて情報の入出力を行うことが可能である。 The CPU 2 controls the entire apparatus, and the ROM 4 stores programs executed by the CPU 2 and other fixed data. The memory 3 is used for temporary storage of data when the CPU 2 performs calculations. Further, a network is realized by the network interface 5, and information can be input / output by the operation unit 1.

 図2は、本発明の実施形態におけるネットワーク構造学習装置のシステムブロック図である。本ネットワーク構造学習装置は、入力手段11と、ネットワーク構造学習手段12と、ネットワーク構造生成手段13と、ネットワーク構造混合パラメータ推定手段14と、エージェント混合パラメータ推定手段15と、出力手段16と、を有して構成される。 FIG. 2 is a system block diagram of the network structure learning apparatus according to the embodiment of the present invention. The network structure learning apparatus includes an input unit 11, a network structure learning unit 12, a network structure generation unit 13, a network structure mixed parameter estimation unit 14, an agent mixed parameter estimation unit 15, and an output unit 16. Configured.

 入力手段11は、観測対象のデータを取り込み、ネットワーク構造学習手段12では、観測データを生成するネットワーク構造を学習する。 The input unit 11 takes in the data to be observed, and the network structure learning unit 12 learns the network structure that generates the observation data.

 また、ネットワーク構造生成手段13は、ネットワーク構造学習手段12で既存のネットワーク構造が観測値にうまく適合しない場合に新たなネットワーク構造を生成する。 Further, the network structure generation unit 13 generates a new network structure when the existing network structure does not match the observation value well by the network structure learning unit 12.

 ネットワーク構造混合パラメータ推定手段14は、ネットワーク構造レベルの混合確率を推定し、エージェント混合パラメータ推定手段15は、エージェントレベルの混合確率の推定を行う。 The network structure mixed parameter estimation means 14 estimates the mixing probability at the network structure level, and the agent mixing parameter estimation means 15 estimates the mixing probability at the agent level.

 一方、出力手段16は、学習したネットワーク構造、及びその混合確率における推定結果の出力を行う。 On the other hand, the output means 16 outputs the learned network structure and the estimation result in the mixing probability.

 図3のフローチャートを参照して、本発明の実施形態における全体の動作について詳細に説明する。 Referring to the flowchart of FIG. 3, the overall operation in the embodiment of the present invention will be described in detail.

 まず、入力手段11により観測対象のデータを取り込む(ステップS1)。次に、ネットワーク構造学習手段12により観測データを生成するネットワーク構造として最も適合する構造を学習し(ステップS2)、今までに他エージェントも含め、学習して得られた構造でうまく適合するものがあるか否かを判断する(ステップS3)。 First, data to be observed is captured by the input means 11 (step S1). Next, the network structure learning unit 12 learns the most suitable structure as a network structure for generating observation data (step S2). It is determined whether or not there is (step S3).

 今までの学習で得られたネットワーク構造でうまく適合するものがない場合は、ネットワーク構造のベースとなる分布から新たに最も適合するネットワーク構造を生成する(ステップS4)。 If there is no network structure that has been successfully matched by learning so far, a new most suitable network structure is generated from the distribution serving as the base of the network structure (step S4).

 適合するネットワーク構造があった場合や新たなネットワーク構造生成後、ネットワーク構造レベルにおいて該ネットワーク構造がどのような混合確率を持っているか計算し、混合確率の推定を行い(ステップS5)、推定結果が収束したか否かを判断する(ステップS6)。ここで、収束しない場合には、ステップS2に戻って学習しなおす。 When there is a compatible network structure or after a new network structure is generated, the network structure level is calculated to calculate what mixing probability the network structure has, and the mixing probability is estimated (step S5). It is determined whether or not it has converged (step S6). Here, when it does not converge, it returns to step S2 and learns again.

 一方、収束すれば、エージェントレベルにおいてエージェントがどのような混合確率を持っているかを計算し、混合確率の推定を行い(ステップS7)、推定結果が収束したか否かを判断する(ステップS8)。ここで、収束しない場合には、ステップS2に戻って学習しなおす。 On the other hand, if it converges, it calculates what mixing probability the agent has at the agent level, estimates the mixing probability (step S7), and determines whether the estimation result has converged (step S8). . Here, when it does not converge, it returns to step S2 and learns again.

 学習・推定の結果が収束するまで繰り返し、最後に、ステップS2で学習したネットワーク構造、及びステップS5、S7で推定した混合確率の出力を行う(ステップS9)。 Repeat until the learning / estimation results converge, and finally output the network structure learned in step S2 and the mixing probability estimated in steps S5 and S7 (step S9).

 以下、図4を参照してより具体的に本発明を実施するための最良の形態の動作を説明する。 Hereinafter, the operation of the best mode for carrying out the present invention will be described more specifically with reference to FIG.

 ある属性を表す頂点集合{v∈V}と頂点間を結ぶ枝集合{(u,v)∈E}からなるネットワーク構造G=(V,E)が与えられたとき、ネットワークの観測データxの生成モデルを考える。 Given a network structure G = (V, E) consisting of a vertex set {vεV} representing a certain attribute and a branch set {(u, v) εE} connecting the vertices, the network observation data x Consider a generation model.

 ある頂点対およびその間の枝(u,v)∈Eの挙動を表すパラメータ集合をθE={θuv}(u,v)∈Eとし、ネットワーク構造も含めてθT={E,θE}と定義すると、ネットワークの確率分布Tは A parameter set representing the behavior of a vertex pair and a branch (u, v) ∈ E between them is defined as θE = {θuv} (u, v) ∈E, and θT = {E, θE} including the network structure is defined. The probability distribution T of the network is

Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000001

と表される。 It is expressed.

 次に、エージェントj,(j=1,...,J)が、エージェント間に共通の属性を表す頂点をそれぞれ持つ場合に、お互いのネットワーク構造に関する情報を共有する場合を考える。xji,(i=1,...,Nj)をエージェントj,(j=,...,J)からの観測値とする。ここでNjはエージェントjにおけるデータの観測数を表す。観測値はエージェント内において交換可能であるとし、確率分布xji~T(・|θT:ji)に従って生成される。ここでネットワーク構造とそのパラメータθT:jiはGjから生成されるとし、すべての Next, let us consider a case where agents j, (j = 1,..., J) share vertices representing common attributes among agents and share information about the network structure of each other. Let xji, (i = 1,..., Nj) be an observed value from agent j, (j =,..., J). Here, Nj represents the number of observations of data at agent j. The observation value is assumed to be exchangeable in the agent, and is generated according to the probability distribution xji to T (· | θT: ji). Here the network structure and its parameter θT: ji are generated from Gj,

Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000002

は、次のような数学的表現で表される混合モデルを経由してリンクされている。 Are linked via a mixed model represented by the following mathematical expression.

Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000003

Figure JPOXMLDOC01-appb-M000004
Figure JPOXMLDOC01-appb-M000004

Figure JPOXMLDOC01-appb-M000005
Figure JPOXMLDOC01-appb-M000005

Figure JPOXMLDOC01-appb-M000006
Figure JPOXMLDOC01-appb-M000006

Figure JPOXMLDOC01-appb-M000007
Figure JPOXMLDOC01-appb-M000007

 ここでδはDiracのデルタ関数である。混合確率πk,ωklは、 Where δ is the Dirac delta function. The mixing probability πk, ωkl is

Figure JPOXMLDOC01-appb-M000008
Figure JPOXMLDOC01-appb-M000008

Figure JPOXMLDOC01-appb-M000009
Figure JPOXMLDOC01-appb-M000009

Figure JPOXMLDOC01-appb-M000010
Figure JPOXMLDOC01-appb-M000010

Figure JPOXMLDOC01-appb-M000011
Figure JPOXMLDOC01-appb-M000011

に従う。これはDirichlet  processの構成法の一つでstick-breaking processと呼ばれる。これをπ(=(π1,...,πk))~Stick(α),ωk(=(ωk1,...,ωkl))~Stick(β)と表すことにする。Hはネットワーク構造とそのパラメータに対する事前分布である。 Follow. This is one of Dirichlet process processes and is called stick-breaking process. This is expressed as π (= (π1,..., Πk)) to Stick (α), ωk (= (ωk1,..., Ωkl)) to Stick (β). H is the prior distribution for the network structure and its parameters.

 上記処理において混合分布として利用される{G1,...,Gj}は、nested Dirichlet process(nDP)に従うという。パラメータはα,β,Hであり、nDP(α,β,H)と表される。nDPはネットワーク構造レベルとエージェントレベルの両方において混合分布を用いているので、ネットワーク構造とエージェントのクラスタリングを同時に行うことができる。 {G1, ..., Gj} used as a mixture distribution in the above process is said to follow the nested Dirichlet process (nDP). The parameters are α, β, H and are expressed as nDP (α, β, H). Since nDP uses a mixed distribution at both the network structure level and the agent level, network structure and agent clustering can be performed simultaneously.

 ここで次のようなインデックスを導入しておく。インデックスcjはエージェントjのネットワーク構造を生成する混合ネットワーク構造を表す。インデックスsjiはデータ点xji生成するネットワーク構造を表す。 Here, the following index is introduced. The index cj represents the mixed network structure that generates the network structure of agent j. The index sji represents the network structure for generating the data point xji.

 nDPおよび共有されるネットワーク構造の学習・推定はギブスサンプラーに基づいて行うことができ、収束するまで以下のステップを繰り返す。 ∙ Learning and estimation of nDP and shared network structure can be performed based on Gibbs sampler, and the following steps are repeated until convergence.

i). すべてのエージェントj=1,...,Jに対して、インデックスcjを、事後確率p(cj=k|{xji})従ってサンプルする。 i). For all agents j = 1,..., J, the index cj is sampled according to the posterior probability p (cj = k | {xji}).

ii). すべてのエージェントj=1,...,J、すべてのデータi=1,...,Njに対して、インデックスsjiを、事後確率p(sji=l|{xji})に従ってサンプルする。 ii). For all agents j = 1, ..., J and all data i = 1, ..., Nj, index sji is sampled according to posterior probability p (sji = 1 | {xji}) To do.

iii). エージェントレベルの混合重みπkを事後確率p(πk={xji},{cj})に従って生成する。 iii). The agent level mixture weight πk is generated according to the posterior probability p (πk = {xji}, {cj}).

iv). ネットワーク構造レベルの混合重みωklを事後確率p(ωkl={xji},{sji})に従って生成する。 iv). A network structure level mixed weight ωkl is generated according to the posterior probability p (ωkl = {xji}, {sji}).

v). ネットワーク構造とパラメータ v). Network structure and parameters

Figure JPOXMLDOC01-appb-M000012
Figure JPOXMLDOC01-appb-M000012

を事後確率 The posterior probability

Figure JPOXMLDOC01-appb-M000013
Figure JPOXMLDOC01-appb-M000013

に従ってサンプルする。もし観測値が割り当てられていない場合は事前分布Hから生成される。 According to the sample. If no observation is assigned, it is generated from the prior distribution H.

 上記で説明した処理は、(ii)、(iv)が図2のネットワーク構造混合パラメータ推定手段14、及び図3のステップS5に対応し、(i)、(iii)が図2のエージェント混合パラメータ推定手段15、及び図3のステップS7に対応し、(v)が図2のネットワーク構造学習手段12、ネットワーク構造生成手段13、及び図3のステップS2~S4に対応する。 In the processing described above, (ii) and (iv) correspond to the network structure mixed parameter estimating means 14 of FIG. 2 and step S5 of FIG. 3, and (i) and (iii) are the agent mixed parameters of FIG. 3 corresponds to the estimation means 15 and step S7 in FIG. 3, and (v) corresponds to the network structure learning means 12, the network structure generation means 13 in FIG. 2, and steps S2 to S4 in FIG.

 次に、本実施形態の効果について説明する。 Next, the effect of this embodiment will be described.

 本実施形態では、複数エージェントがネットワーク構造を共有するというように構成されているため、複数エージェントがネットワーク構造を共有し各々の学習結果を改善することができる。 In this embodiment, since a plurality of agents share a network structure, a plurality of agents can share a network structure and improve each learning result.

 また、本実施形態では、さらに、各エージェントのモデルに混合モデルを用いるというように構成されているため、複数エージェントを類似したもの同士にクラスタリングすることができる。 Further, in the present embodiment, since a mixed model is used for each agent model, a plurality of agents can be clustered into similar ones.

 また、本実施形態では、さらに、モデル化、学習、推定をノンパラメトリックなモデルを用いて行うため、モデルの混合数として有限の値をあらかじめ定める必要がない。 Further, in the present embodiment, modeling, learning, and estimation are further performed using a nonparametric model, so that it is not necessary to set a finite value as the number of models mixed in advance.

 本発明は、次のような利用可能性が考えられる。 The present invention can be used as follows.

 例えば、自動車などの機械システムにおいて,様々な車種の特定のパーツ間の挙動には相関構造が観察される。これらのパーツ相関構造は、ある特定の機能を実現した結果であり、車種間でほぼ同様のパーツ相関構造を共有している。 For example, in a mechanical system such as an automobile, a correlation structure is observed in the behavior between specific parts of various vehicle types. These parts correlation structures are the result of realizing a specific function, and almost the same parts correlation structure is shared among vehicle types.

 複数の車種(軽,トラック,ディーゼル,ハイブリッド,…)で考えた場合、エンジン制御などの基本的なパーツ相関構造は、類似した挙動を示すが、例えばハイブリッド車の場合などは、電子モーター制御など車種独自のパーツ相関構造を持つ。 When considering multiple vehicle types (light, truck, diesel, hybrid, etc.), the basic part correlation structure such as engine control shows similar behavior, but for example in the case of a hybrid vehicle, electronic motor control, etc. It has a parts correlation structure unique to the model.

 このような場合に、車種間において互いに共通するパーツ相関構造に関しては、他の車種の情報を共有することで学習精度を改善し、特定の車種のみに見られるパーツ相関構造は各車種独自に学習することが可能であり、さらに車種における独自性の高いパーツ相関構造を共有する車種同士を類似した車種としてクラスタリングする、といった用途に適用できる。 In such a case, with regard to the part correlation structure that is common among the vehicle types, the learning accuracy is improved by sharing information on other vehicle types, and the part correlation structure that can be found only in a specific vehicle type is learned independently for each vehicle type. Furthermore, the present invention can be applied to such a case that vehicle types that share a part correlation structure with high uniqueness in the vehicle type are clustered as similar vehicle types.

 また、金融機関が内部損失データを共有するデータコンソーシアムにおいて、各銀行の内部損失事象を考えた場合に、特定の損失事象間の発生には、通常は相関構造があるとされている。 Also, in a data consortium where financial institutions share internal loss data, when considering internal loss events of each bank, the occurrence between specific loss events is usually said to have a correlation structure.

 複数の銀行間で考えた場合、業務のうち預金業務や貸出業務などのある特定の業務にかかわる損失事象に関しては類似した損失事象相関構造を持っていると考えられる。 When considering between multiple banks, it is considered that there is a similar loss event correlation structure for loss events related to certain operations such as deposit operations and lending operations.

 このような場合に、銀行間において互いに共通する損失事象相関構造に関しては、他の銀行の情報を共有することで学習精度を改善することができる。 In this case, regarding the loss event correlation structure common to the banks, the learning accuracy can be improved by sharing information of other banks.

 しかしながら、各銀行の特性(特定の業務の多寡や有無,地震や台風の発生などの地域特性)を考慮した場合、特定の銀行のみに見られるような損失事象相関構造も存在し、この場合はその特定の損失事象相関構造を保有する銀行間で情報を共有し、それらを類似した損失事象相関構造を持つ銀行としてクラスタリングする、といった用途にも適用可能である。 However, when considering the characteristics of each bank (the number of specific operations, regional characteristics such as the occurrence of earthquakes and typhoons), there is also a loss event correlation structure that can be found only in specific banks. The present invention can also be applied to applications such as sharing information between banks having the specific loss event correlation structure and clustering them as banks having a similar loss event correlation structure.

 以上、本発明の好適な実施の形態により本発明を説明した。ここでは特定の具体例を示して本発明を説明したが、特許請求の範囲に定義された本発明の広範囲な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更が可能である。 The present invention has been described above by the preferred embodiments of the present invention. While the invention has been described with reference to specific embodiments thereof, various modifications and changes can be made to these embodiments without departing from the broader spirit and scope of the invention as defined in the claims. is there.

 なお、この出願は、2008年9月24日に出願した、日本特許出願番号2008-244168号を基礎とする優先権を主張し、その開示の全てをここに取り込む。 This application claims priority based on Japanese Patent Application No. 2008-244168 filed on September 24, 2008, the entire disclosure of which is incorporated herein.

 11  入力手段
 12  ネットワーク構造学習手段
 13  ネットワーク構造生成手段
 14  ネットワーク構造混合パラメータ推定手段
 15  エージェント混合パラメータ推定手段
 16  出力手段
DESCRIPTION OF SYMBOLS 11 Input means 12 Network structure learning means 13 Network structure generation means 14 Network structure mixed parameter estimation means 15 Agent mixed parameter estimation means 16 Output means

Claims (9)

 共有するネットワークからネットワーク構造を学習し、候補となるネットワーク構造を決定するネットワーク構造学習手段と、
 前記ネットワーク構造学習手段によって候補とされた前記ネットワーク構造の混合パラメータをネットワーク構造レベルにて推定するネットワーク構造混合パラメータ推定手段と、
 前記ネットワーク構造学習手段によって候補とされた前記ネットワーク構造の混合パラメータをエージェントレベルにて推定するエージェント混合パラメータ推定手段と、を備えることを特徴とする構造学習装置。
A network structure learning means for learning a network structure from a shared network and determining a candidate network structure;
Network structure mixed parameter estimation means for estimating the network structure mixed parameters that are candidates by the network structure learning means at a network structure level;
A structure learning apparatus comprising: an agent mixed parameter estimation unit that estimates a mixed parameter of the network structure that is a candidate by the network structure learning unit at an agent level.
 前記ネットワーク構造学習手段にて候補として適合する前記ネットワーク構造が無かったと判断された場合に、新たなネットワーク構造を生成するネットワーク構造生成手段を備えることを特徴とする請求項1記載の構造学習装置。 2. The structure learning device according to claim 1, further comprising network structure generation means for generating a new network structure when the network structure learning means determines that there is no network structure suitable as a candidate.  前記ネットワーク構造学習手段は、前記ネットワーク構造混合パラメータ推定手段、及び前記エージェント混合パラメータ推定手段による推定結果が収束するまで繰り返し学習することを特徴とする請求項1又は2記載の構造学習装置。 3. The structure learning apparatus according to claim 1, wherein the network structure learning means repeatedly learns until estimation results from the network structure mixed parameter estimation means and the agent mixed parameter estimation means converge.  請求項1から3のいずれか1項に記載の構造学習装置を複数備えることを特徴とする構造学習システム。 A structure learning system comprising a plurality of the structure learning devices according to any one of claims 1 to 3.  共有するネットワークからネットワーク構造を学習し、候補となるネットワーク構造を決定するネットワーク構造学習ステップと、
 前記ネットワーク構造学習ステップによって候補とされた前記ネットワーク構造の混合パラメータをネットワーク構造レベルにて推定するネットワーク構造混合パラメータ推定ステップと、
 前記ネットワーク構造学習ステップによって候補とされた前記ネットワーク構造の混合パラメータをエージェントレベルにて推定するエージェント混合パラメータ推定ステップと、を備えることを特徴とする構造学習方法。
A network structure learning step for learning a network structure from a shared network and determining a candidate network structure;
A network structure mixed parameter estimation step for estimating a network structure mixed parameter that is a candidate in the network structure learning step at a network structure level;
A structure learning method comprising: an agent mixed parameter estimation step that estimates a mixed parameter of the network structure that is a candidate in the network structure learning step at an agent level.
 前記ネットワーク構造学習ステップにて候補として適合する前記ネットワーク構造が無かったと判断された場合に、新たなネットワーク構造を生成するネットワーク構造生成ステップを備えることを特徴とする請求項5記載の構造学習方法。 6. The structure learning method according to claim 5, further comprising a network structure generation step of generating a new network structure when it is determined that there is no network structure suitable as a candidate in the network structure learning step.  前記ネットワーク構造学習ステップは、前記ネットワーク構造混合パラメータ推定ステップ、及び前記エージェント混合パラメータ推定ステップによる推定結果が収束するまで繰り返し学習することを特徴とする請求項5又は6記載の構造学習方法。 The structure learning method according to claim 5 or 6, wherein the network structure learning step repeatedly learns until estimation results obtained by the network structure mixed parameter estimation step and the agent mixture parameter estimation step converge.  請求項5から7のいずれか1項に記載の構造学習方法をコンピュータに実行させるプログラム。 A program for causing a computer to execute the structure learning method according to any one of claims 5 to 7.  請求項8に記載のプログラムを格納したコンピュータ読取可能な記録媒体。 A computer-readable recording medium storing the program according to claim 8.
PCT/JP2009/066259 2008-09-24 2009-09-17 Structure training device, structure training system, structure training method, program, and recording medium Ceased WO2010035690A2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010530824A JPWO2010035690A1 (en) 2008-09-24 2009-09-17 Structure learning device, structure learning system, structure learning method, program, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-244168 2008-09-24
JP2008244168 2008-09-24

Publications (2)

Publication Number Publication Date
WO2010035690A2 true WO2010035690A2 (en) 2010-04-01
WO2010035690A9 WO2010035690A9 (en) 2011-02-03

Family

ID=42060202

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/066259 Ceased WO2010035690A2 (en) 2008-09-24 2009-09-17 Structure training device, structure training system, structure training method, program, and recording medium

Country Status (2)

Country Link
JP (1) JPWO2010035690A1 (en)
WO (1) WO2010035690A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111602148A (en) * 2018-02-02 2020-08-28 谷歌有限责任公司 Regularized neural network architecture search

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106156856A (en) * 2015-03-31 2016-11-23 日本电气株式会社 The method and apparatus selected for mixed model

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111602148A (en) * 2018-02-02 2020-08-28 谷歌有限责任公司 Regularized neural network architecture search
US11669744B2 (en) 2018-02-02 2023-06-06 Google Llc Regularized neural network architecture search
CN111602148B (en) * 2018-02-02 2024-04-02 谷歌有限责任公司 Regularized Neural Network Architecture Search
US12400121B2 (en) 2018-02-02 2025-08-26 Google Llc Regularized neural network architecture search

Also Published As

Publication number Publication date
JPWO2010035690A1 (en) 2012-02-23
WO2010035690A9 (en) 2011-02-03

Similar Documents

Publication Publication Date Title
CN115943394B (en) Method, apparatus and system for secure longitudinal federal learning
Berg et al. Structure and evolution of protein interaction networks: a statistical model for link dynamics and gene duplications
Krull et al. Poseagent: Budget-constrained 6d object pose estimation via reinforcement learning
CN113344016B (en) Deep transfer learning method, device, electronic device and storage medium
Dulac-Arnold et al. Fast reinforcement learning with large action sets using error-correcting output codes for mdp factorization
KR101700030B1 (en) Method for visual object localization using privileged information and apparatus for performing the same
Liu et al. WTFM layer: An effective map extractor for unsupervised shape correspondence
Zhu et al. Trivialized momentum facilitates diffusion generative modeling on lie groups
Langford et al. Learning nonlinear dynamic models
Zeng et al. A nearsighted force-training approach to systematically generate training data for the machine learning of large atomic structures
Fan et al. Image steganalysis via random subspace fisher linear discriminant vector functional link network and feature mapping
Ruan et al. A robust and scalable solution for interpolative multidimensional scaling with weighting
Meier et al. Efficient Bayesian local model learning for control
WO2010035690A2 (en) Structure training device, structure training system, structure training method, program, and recording medium
CN116070437A (en) Lithium battery surface temperature modeling method, device, computer equipment and storage medium
Wong et al. State-space decomposition for reinforcement learning
Chen et al. Handwritten CAPTCHA recognizer: a text CAPTCHA breaking method based on style transfer network
Clementi et al. Folding Lennard‐Jones proteins by a contact potential
Chiu et al. Automatic complexity reduction in reinforcement learning
Varshney et al. Reduced order modeling and dynamic optimization of multiscale PDE/kMC process systems
JP2010134926A (en) Multi-modal green computing fusion system, computer program, method, and developing method of system (multi-modal green computing fusion using problem analytics)
CN119790405A (en) Model-based task processing
WO2020040007A1 (en) Learning device, learning method, and learning program
CN114255374B (en) Quantum method for soft interval support vector machine
Wang et al. Generalized flow matching for transition dynamics modeling

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09816105

Country of ref document: EP

Kind code of ref document: A2

WWE Wipo information: entry into national phase

Ref document number: 2010530824

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09816105

Country of ref document: EP

Kind code of ref document: A2