JP7163977B2 - 推定装置、学習装置、それらの方法、およびプログラム - Google Patents
推定装置、学習装置、それらの方法、およびプログラム Download PDFInfo
- Publication number
- JP7163977B2 JP7163977B2 JP2020569354A JP2020569354A JP7163977B2 JP 7163977 B2 JP7163977 B2 JP 7163977B2 JP 2020569354 A JP2020569354 A JP 2020569354A JP 2020569354 A JP2020569354 A JP 2020569354A JP 7163977 B2 JP7163977 B2 JP 7163977B2
- Authority
- JP
- Japan
- Prior art keywords
- state
- function
- parameters
- value
- observable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Testing And Monitoring For Control Systems (AREA)
Description
本実施形態は、時間発展と観測過程だけでなく、同時に観測過程の「逆関数」を学習することで、観測量だけから観測過程・時間発展・状態の全てを学習することを可能とする。具体的にはオートエンコーダネットワーク(参考文献1参照)を用いる。
(参考文献1)G. E. Hinton. "Reducing the Dimensionality of Data with Neural Networks", Science, 313(5786):504-507, July 2006.
xt+1 =f(xt) (1)
この状態xtから、観測量ytが観測過程、
yt=g(xt) (2)
を通じて得られる。このとき、観測量は何らかの方法で数値化されるもの(たとえば電流電圧、温度、音圧、画像など)であり、マイクロホンアレイで得られるような多次元データでもよい。
・状態の系列データ{x1,…,xT}
・時間発展の関数f(xt)
・観測過程の関数g(xt)
を決定することである。
(Koopmanモード分解)
基底関数
Ψ(xt+1)=Ψ(f(xt))= KΨ(xt) (4)
のように書き直すことができる。
図1に本実施形態の概要を記載している。観測量の系列データ{yt}を入力とし、状態xt、観測過程(^Ψ,B)、時間発展Kを学習する。学習後はある観測量ytから予測した観測量の系列データ^y1 (t),^y2 (t),…や状態xtを出力する。
本実施形態は二段階に分かれている。一つは観測量の時系列データから時間発展と観測過程ならびにその逆関数を学習する段階(以下、学習段階ともいう)である。一つは観測量から状態を取得する段階(以下、状態取得段階ともいう)である。
図4は学習装置100の機能ブロック図を、図5はその処理フローの例を示す。学習装置100は、初期化部110、推定部120、目的関数計算部130、パラメータ更新部140とを含む。
初期化部110は、学習に先立ち、推論に用いるパラメータwenc (k),wdec (k),K(k),B(k)を初期化し(S110)、初期化したパラメータwenc (0),wdec (0),K(0),B(0)を推定部120に出力する。また、更新回数を示すインデックスkをk=0とする。
推定部120は、学習用の観測量の系列データ{yt (L)}と初期化または更新したパラメータwenc (k),wdec (k),K(k),B(k)を入力とし、(1)基底関数の値の推定(推定値zt)、(2)状態の推定(推定値xt)、(3)再構成した基底関数の値の推定(推定値^zt)、(4)基底関数の予測(予測値^zτ (t))、(5)観測量の予測(予測値^yτ (t))を行い(S120)、推定値zt、xt、^zt、予測値^zτ (t)、^yτ (t)を出力する。以下、推定および予測を合わせて推定ともいう。以下、推定の詳細を説明する。
目的関数計算部130は、学習用の観測量の系列データ{yt+τ (L)}と、推定値の系列データ{zt+τ}、{xt+τ}、{^zt+τ}、予測値の系列データ{^zτ (t)}、{^yτ (t)}、パラメータwenc (k)、wdec (k)を入力とし、目的関数の値J(Θ)を計算し(S130)、出力する。なお、Θはパラメータwenc (k),wdec (k),K(k),B(k)の集合である。
パラメータ更新部140は、目的関数J(Θ)を受け取り、各パラメータwenc (k),wdec (k),K(k),B(k)を更新する(S140)。例えば、Back propagationを用いて各パラメータに対する勾配ΔΘJを計算し、各パラメータwenc (k),wdec (k),K(k),B(k)を更新する(Θ(k+1)=Θ(k)+ΔΘJ)。
図7は推定装置200の機能ブロック図を、図8はその処理フローの例を示す。推定装置200は、推定部220を含む。
図9のアルゴリズム2を実行する場合、推定装置200は、観測量ytを入力とし、観測量ytに対応する状態を推定し、yt以降の観測量の系列データを予測し、推定値xt、予測した系列データ{^yτ (t)}を出力する。図9のアルゴリズム2では、推定部220に適当な画像データに基づくデータを観測量ytとして、Τステップ先の画像データまで予測することができる。例えば、観測量の系列データyt,yt+1,…,yt+Nを入力とし、推定値の系列データxt,xt+1,…,xt+Nと、予測したN個の系列データ{^yτ (t)},{^yτ (t+1)},…,{^yτ (t+N)}を出力してもよい。
推定部220は、観測量ytを入力とし、観測量ytに対して所定の処理を行うことで状態を推定する(S220)。本実施形態では、所定の処理は、(1)基底関数の値の推定(推定値zt)、(2)状態の推定(推定値xt)である。さらに、推定部220は、(3)再構成した基底関数の値の推定(推定値^zt)、(4)基底関数の予測(予測値^zτ (t))、(5)観測量の予測(予測値^yτ (t))を行い(S220)、推定値xt、予測値の系列データ{^yτ (t)}を出力する。
図11のアルゴリズム3を実行する場合、推定装置200は、状態xtを入力とし、状態xtに対応する観測量を予測し、予測した系列データ{^yτ (t)}を出力する。図11のアルゴリズム3では、推定部220に適当な状態xtを与え、Τステップ先の画像まで予測することができる。
学習段階では、観測量だけから観測過程・時間発展・状態を学習することができる。
本実施形態では、観測量が画像データに基づくデータの場合について説明したが、他のデータであってもよい。例えば、音響データに基づくデータ、振動データに基づくデータ、音響データに基づくデータと振動データに基づくデータとの組合せなどが考えられる。以下に、より詳しく説明する。
観測量を音響データに基づくデータとした場合、マイクから取れた音圧の波形データまたはその特徴量(STFT やlog-Mel power など)を入力ytとする。なお、マイクロホンアレイで収音する場合、音圧の波形データまたはその特徴量を素子数分だけ結合したベクトルを入力ytとする。
観測量を振動データに基づくデータとした場合、振動ピックアップから取れた加速度の波形データまたはその特徴量(STFT やlog-Melpower など)を入力ytとする。複数の振動ピックアップでの収録する場合、波形データや特徴量を素子数分だけ結合したベクトルを入力とする。
観測量を上述の音響データに基づくデータと振動データに基づくデータとの組合せとした場合、振動ピックアップから取れた加速度の波形データまたはその特徴量とマイクから取れた音圧の波形データまたはその特徴量を素子数分だけ結合したベクトルを入力ytとする。
第一実施形態と異なる部分を中心に説明する。
異常検知装置300は、誤差ベクトル計算部310と平均分散共分散行列計算部320と検知部330とを含む(図12参照)。
まず、正常時の観測量のデータセットDnormal={y1,y2,…,yT_1}を用意する。ただし、下付き添え字A_BはABを意味する。ここから,系列の長さLの部分系列Dt={yt+1,…,yt+L}、t=1,2,…,T1-Lを取り出す。
異常検知の対象となる観測量のデータセットDnew={y'1,y'2,…,yT_2}が得られたとき、前処理のときと同様に、系列の長さLの部分系列D't'={yt'+1,…,yt'+L}、t'=1,2,…,T2-Lを取り出す。
Lt'=logdet(S)+(e't'-μ)TS-1(e't'-μ)T
この異常度合いLt'は誤差ベクトルを正規分布でフィッティングしたときの負の対数尤度に比例する量である。
第一実施形態と異なる部分を中心に説明する。
図16は学習装置100の機能ブロック図を、図5はその処理フローの例を示す。学習装置100は、初期化部110、推定部120、目的関数計算部130、パラメータ更新部140とを含む。
推定部120は、学習用の観測量の系列データ{yt}と初期化または更新したパラメータwenc (k),wdec (k),K(k),B(k)を入力とし、(1)状態の平均と分散パラメータの推定(推定値σt,μt)、(2)状態の推定(推定値xt)、(3)再構成した基底関数の値の推定(推定値^zt)、(4)基底関数の予測(予測値^zτ (t))、(5)観測量の予測(予測値^yτ (t))を行い(S120)、予測値^yτ (t)を出力する。(3)~(5)は第一実施形態と同様なので、(1),(2)について説明する。
目的関数計算部130は、学習用の観測量の系列データ{yt+τ}と、予測値の系列データ{^yτ (t)}、パラメータwenc (k)を入力とし、目的関数の値L(B(k),K(k),θ(k))を計算し(S130)、出力する。なお、θ(k)はパラメータwenc (k),wdec (k)の集合である。
図7は推定装置200の機能ブロック図を、図8はその処理フローの例を示す。推定装置200は、推定部220を含む。
観測量から状態を推定し、観測量を予測する場合(第一実施形態のアルゴリズム2の場合)、推定装置200は、観測量ytを入力とし、観測量ytに対応する状態を推定し、yt以降の観測量の系列データを予測し、推定値xt、予測した系列データ{^yτ (t)}を出力する。例えば、観測量の系列データyt,yt+1,…,yt+Nを入力とし、推定値の系列データxt,xt+1,…,xt+Nと、予測したN個の系列データ{^yτ (t)},{^yτ (t+1)},…,{^yτ (t+N)}を出力してもよい。
推定部220は、観測量ytを入力とし、観測量ytに対して所定の処理を行うことで状態を推定する(S220)。本実施形態では、所定の処理は、状態の平均と分散パラメータの推定(推定値σt,μt)、(2)状態の推定(推定値xt)である。さらに、推定部220は、(3)再構成した基底関数の値の推定(推定値^zt)、(4)基底関数の予測(予測値^zτ (t))、(5)観測量の予測(予測値^yτ (t))を行い(S220)、推定値xt、予測値の系列データ{^yτ (t)}を出力する。(3)~(5)は第一実施形態と同様なので、(1),(2)について説明する。
観測量から観測量を予測する場合(第一実施形態のアルゴリズム3の場合)、第一実施形態と同様である。
第一実施形態と同様の効果を得ることができる。生成モデルを考えることで、逆関数を考えることなく状態を推定する。なお、本実施形態と第一実施形態の変形例や第二実施形態を組合せてもよい。
第一実施形態および第三実施形態の推定部220を図17の機能ブロック図で表現することもできる。図18は推定部220の処理フローの例を示す。
状態推定部221は、オートエンコーダのエンコーダを用いて、観測量から状態を推定し(S221)、出力する。
観測量推定部222は、オートエンコーダのデコーダとを用いて、状態から観測量を推定し(S222)、出力する。
中間値推定部222Aは、推定処理に先立ちニューラルネットワークのパラメータwdecを受け取る。
中間観測値推定部222Bは、推定処理に先立ち展開係数Bを受け取る。
^zτ (t)=Kτ^zt
^yτ (t) = B^zτ (t)
つまり、^yt = B^ztである。
未来観測量推定部223は、推定処理に先立ちK、Bを受け取る。
学習装置および推定装置は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。学習装置および推定装置は、例えば、中央演算処理装置の制御のもとで各処理を実行する。学習装置および推定装置に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて中央演算処理装置へ読み出されて他の処理に利用される。学習装置および推定装置の各処理部は、少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。学習装置および推定装置が備える各記憶部は、例えば、RAM(Random Access Memory)などの主記憶装置、またはリレーショナルデータベースやキーバリューストアなどのミドルウェアにより構成することができる。ただし、各記憶部は、必ずしも学習装置および推定装置がその内部に備える必要はなく、ハードディスクや光ディスクもしくはフラッシュメモリ(Flash Memory)のような半導体メモリ素子により構成される補助記憶装置により構成し、学習装置および推定装置の外部に備える構成としてもよい。
本発明は上記の実施形態及び変形例に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
また、上記の実施形態及び変形例で説明した各装置における各種の処理機能をコンピュータによって実現してもよい。その場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
Claims (6)
- エンコーダを用いて、観測量から状態を推定する状態推定部と、
デコーダとを用いて、前記状態推定部で推定した前記状態から観測量を推定する観測量推定部と、
時間発展を表すパラメータKを用いて、前記観測量が時間推移により変動した値である未来観測量を推定する未来観測量推定部と、を有し、
前記エンコーダのパラメータと、前記デコーダのパラメータと、前記パラメータKとは、同時に最適化されたものであり、
前記状態推定部が行う処理は第一の関数で、前記観測量推定部が行う処理は第二の関数で定義され、
前記第一の関数は前記第二の関数の逆関数であり、
前記第二の関数はオートエンコーダのデコーダのパラメータである、基底関数のパラメータを用い、前記第一の関数は前記オートエンコーダのエンコーダのパラメータである、前記基底関数の逆関数のパラメータを用い、
前記未来観測量推定部は、推定した前記状態と、前記基底関数のパラメータ、前記パラメータK、展開係数とを用いて、(1)再構成した基底関数の値の推定、(2)基底関数の予測、(3)観測量の予測を行い、
前記状態は非線形で時間推移するものであり、
前記観測量は状態の時間推移に伴い非線形で時間推移する観測処理を行うことで得ることができるものである、
推定装置。 - 請求項1の推定装置であって、
前記エンコーダのパラメータと、前記デコーダのパラメータと、前記パラメータKとは、前記状態推定部をエンコーダとし、前記観測量推定部をデコータとする変分オートエンコーダにより最適化されたものであり、
前記観測量は時系列観測量である、
推定装置。 - 請求項1から請求項2の何れかの推定装置であって、
前記観測量推定部は、
前記状態から中間値を推定する中間値推定部と、
推定した前記中間値から、観測値を推定する中間観測値推定部と、を含み、
前記未来観測量推定部は、前記パラメータKを用いて得られる、前記中間値が時間推移により変動した値である未来中間値から前記未来観測量を推定する、
推定装置。 - 請求項1の推定装置で用いるパラメータを学習する学習装置であって、
学習用の観測量の系列データと、前記基底関数のパラメータ、前記逆関数のパラメータ、前記パラメータK、展開係数とを用いて、(1)基底関数の値の推定、(2)状態の推定、(3)再構成した基底関数の値の推定、(4)基底関数の予測、(5)学習用の観測量の予測を行う推定部と、
前記学習用の観測量の系列データと、基底関数の推定値の系列データ、状態の推定値の系列データ、再構成した基底関数の推定値の系列データ、基底関数の予測値の系列データ、観測量の予測値の系列データを用いて、(i)観測量の予測誤差、(ii)基底関数の予測誤差、(iii)前記基底関数のパラメータ、前記逆関数のパラメータに基づくニューラルネットワークの重みに対する正則化項、(iv)前記状態の滑らかさと非ガウス性を求め、求めた値から目的関数の値を求める目的関数計算部と、
前記目的関数に基づき、前記基底関数のパラメータ、前記逆関数のパラメータ、前記パラメータK、前記展開係数とを更新する更新部とを含む、
学習装置。 - エンコーダを用いて、観測量から状態を推定する状態推定ステップと、
デコーダとを用いて、前記状態推定ステップで推定した前記状態から観測量を推定する観測量推定ステップと、
時間発展を表すパラメータKを用いて、前記観測量が時間推移により変動した値である未来観測量を推定する未来観測量推定ステップと、を有し、
前記エンコーダのパラメータと、前記デコーダのパラメータと、前記パラメータKとは、同時に最適化されたものであり、
前記状態推定ステップにおいて行う処理は第一の関数で、前記観測量推定ステップにおいて行う処理は第二の関数で定義され、
前記第一の関数は前記第二の関数の逆関数であり、
前記第二の関数はオートエンコーダのデコーダのパラメータである、基底関数のパラメータを用い、前記第一の関数は前記オートエンコーダのエンコーダのパラメータである、前記基底関数の逆関数のパラメータを用い、
前記未来観測量推定ステップは、推定した前記状態と、前記基底関数のパラメータ、前記パラメータK、展開係数とを用いて、(1)再構成した基底関数の値の推定、(2)基底関数の予測、(3)観測量の予測を行い、
前記状態は非線形で時間推移するものであり、
前記観測量は状態の時間推移に伴い非線形で時間推移する観測処理を行うことで得ることができるものである、
推定方法。 - 請求項1から請求項3の何れかの推定装置、または、請求項4の学習装置としてコンピュータを機能させるためのプログラム。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019011981 | 2019-01-28 | ||
| JP2019011981 | 2019-01-28 | ||
| PCT/JP2019/034216 WO2020158032A1 (ja) | 2019-01-28 | 2019-08-30 | 推定装置、学習装置、それらの方法、およびプログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPWO2020158032A1 JPWO2020158032A1 (ja) | 2021-09-30 |
| JP7163977B2 true JP7163977B2 (ja) | 2022-11-01 |
Family
ID=71840041
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020569354A Active JP7163977B2 (ja) | 2019-01-28 | 2019-08-30 | 推定装置、学習装置、それらの方法、およびプログラム |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US20240028872A1 (ja) |
| JP (1) | JP7163977B2 (ja) |
| WO (1) | WO2020158032A1 (ja) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7542821B2 (ja) * | 2020-10-27 | 2024-09-02 | 日本電信電話株式会社 | 学習方法、系列解析方法、学習装置、系列解析装置、及びプログラム |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018052875A1 (en) | 2016-09-15 | 2018-03-22 | Google Llc | Image depth prediction neural networks |
| JP2019502212A (ja) | 2016-01-14 | 2019-01-24 | 株式会社Preferred Networks | 時系列データ適合およびセンサ融合のシステム、方法、および装置 |
Family Cites Families (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8095210B2 (en) * | 2007-01-19 | 2012-01-10 | California Institute Of Technology | Prosthetic devices and methods and systems related thereto |
| US10643153B2 (en) * | 2017-04-24 | 2020-05-05 | Virginia Tech Intellectual Properties, Inc. | Radio signal identification, identification system learning, and identifier deployment |
| US11334807B1 (en) * | 2017-06-23 | 2022-05-17 | Virginia Tech Intellectual Properties, Inc. | Learning approximate estimation networks for communication channel state information |
| US20190228110A1 (en) * | 2018-01-19 | 2019-07-25 | General Electric Company | System and method for abstracting characteristics of cyber-physical systems |
| US12033080B2 (en) * | 2018-06-15 | 2024-07-09 | Google Llc | Sparse recovery autoencoder |
| US20200082272A1 (en) * | 2018-09-11 | 2020-03-12 | International Business Machines Corporation | Enhancing Data Privacy in Remote Deep Learning Services |
| US10671889B2 (en) * | 2018-09-27 | 2020-06-02 | Deepmind Technologies Limited | Committed information rate variational autoencoders |
| EP3667439A1 (en) * | 2018-12-13 | 2020-06-17 | ABB Schweiz AG | Predictions for a process in an industrial plant |
| US11172195B2 (en) * | 2019-01-26 | 2021-11-09 | Qualcomm Incorporated | Excluding intra coded reference samples from local illumination compensation parameter derivation |
-
2019
- 2019-08-30 US US17/425,684 patent/US20240028872A1/en not_active Abandoned
- 2019-08-30 JP JP2020569354A patent/JP7163977B2/ja active Active
- 2019-08-30 WO PCT/JP2019/034216 patent/WO2020158032A1/ja not_active Ceased
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019502212A (ja) | 2016-01-14 | 2019-01-24 | 株式会社Preferred Networks | 時系列データ適合およびセンサ融合のシステム、方法、および装置 |
| WO2018052875A1 (en) | 2016-09-15 | 2018-03-22 | Google Llc | Image depth prediction neural networks |
Non-Patent Citations (1)
| Title |
|---|
| 石黒 慎 他,リアルタイム人口を用いたStacked denoising Autoencodersによるタクシー将来需要予測,情報処理学会 論文誌(ジャーナル),情報処理学会,2019年01月15日,第60巻 第1号,第118頁-第128頁 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20240028872A1 (en) | 2024-01-25 |
| WO2020158032A1 (ja) | 2020-08-06 |
| JPWO2020158032A1 (ja) | 2021-09-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11797872B2 (en) | Quantum bit prediction | |
| US11574164B2 (en) | Neural network cooperation | |
| Zhang et al. | Remaining useful life estimation for mechanical systems based on similarity of phase space trajectory | |
| US20230316720A1 (en) | Anomaly detection apparatus, anomaly detection method, and program | |
| CN108140146A (zh) | 用于使用绝热量子计算机进行机器学习的离散变分自动编码器系统和方法 | |
| WO2019220620A1 (ja) | 異常検出装置、異常検出方法及びプログラム | |
| JP7542821B2 (ja) | 学習方法、系列解析方法、学習装置、系列解析装置、及びプログラム | |
| US20220230067A1 (en) | Learning device, learning method, and learning program | |
| WO2022009010A1 (en) | Model fidelity monitoring and regeneration for manufacturing process decision support | |
| KR20220145007A (ko) | 텐서 스트림 데이터에서 손실, 이상치, 패턴을 검출 및 복구하는 데이터 처리 방법 | |
| CN117708728A (zh) | 传感器测量异常检测 | |
| CN120124767A (zh) | 一种量子神经网络训练方法、数据处理方法、设备及介质 | |
| EP4402608B1 (en) | System and method for training of neural network model for control of high dimensional physical systems | |
| JP7163977B2 (ja) | 推定装置、学習装置、それらの方法、およびプログラム | |
| KR20190141581A (ko) | 데이터 예측을 위한 인공신경망을 학습하는 방법 및 장치 | |
| JP7655446B2 (ja) | 解析装置及びプログラム | |
| Li et al. | Structural damage quantification using long short-term memory (LSTM) auto-encoder and impulse response functions | |
| JP2019095894A (ja) | 推定装置、学習装置、学習済みモデル、推定方法、学習方法、及びプログラム | |
| JP7579632B2 (ja) | 推定装置、システム及び方法 | |
| Li et al. | Pygpphs: A python package for Bayesian modeling of port-Hamiltonian systems | |
| JP7672844B2 (ja) | 性能予測装置、性能予測方法及び性能予測プログラム | |
| CN110309869A (zh) | 面向未知场景的稳定识别方法及装置 | |
| JP7575008B2 (ja) | 制御方法、制御装置、及びプログラム | |
| JP2019113962A (ja) | 解析装置、解析方法及びプログラム | |
| Kocijan | System identification with GP models |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210510 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220322 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220519 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220920 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221003 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7163977 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |