JP7235125B2 - 認識システム、モデル処理装置、モデル処理方法、及び、プログラム - Google Patents
認識システム、モデル処理装置、モデル処理方法、及び、プログラム Download PDFInfo
- Publication number
- JP7235125B2 JP7235125B2 JP2021541407A JP2021541407A JP7235125B2 JP 7235125 B2 JP7235125 B2 JP 7235125B2 JP 2021541407 A JP2021541407 A JP 2021541407A JP 2021541407 A JP2021541407 A JP 2021541407A JP 7235125 B2 JP7235125 B2 JP 7235125B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- unit
- learning
- edge
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Description
複数の端末装置と、サーバ装置とを備える認識システムであって、
前記端末装置は、
認識処理に使用するモデルを規定するモデル情報を前記サーバ装置に送信する端末側送信手段と、
前記サーバ装置により生成された更新後のモデルを規定するモデル情報を受信する端末側受信手段と、
を備え、
前記サーバ装置は、
前記複数の端末装置から前記モデル情報を受信するサーバ側受信手段と、
前記複数の端末装置から受信したモデル情報を統合して統合モデルを生成するモデル統合手段と、
モデル更新の対象となる端末装置から受信したモデル情報が規定するモデルを、前記統合モデルを用いて学習することにより更新して前記更新後のモデルを生成するモデル更新手段と、
前記更新後のモデルを示すモデル情報を、前記モデル更新の対象となる端末装置に送信するサーバ側送信手段と、
を備える。
前記複数の端末装置から、認識処理に使用するモデルを規定するモデル情報を受信する受信手段と、
前記複数の端末装置から受信したモデル情報を統合して統合モデルを生成するモデル統合手段と、
モデル更新の対象となる端末装置から受信したモデル情報が規定するモデルを、前記統合モデルを用いて学習することにより更新して更新後のモデルを生成するモデル更新手段と、
前記更新後のモデルを示すモデル情報を、前記モデル更新の対象となる端末装置に送信する送信手段と、
を備える。
複数の端末装置から、認識処理に使用するモデルを規定するモデル情報を受信し、
前記複数の端末装置から受信したモデル情報を統合して統合モデルを生成し、
モデル更新の対象となる端末装置から受信したモデル情報が規定するモデルを、前記統合モデルを用いて学習することにより更新して更新後のモデルを生成し、
前記更新後のモデルを示すモデル情報を、前記モデル更新の対象となる端末装置に送信する。
<第1実施形態>
[全体構成]
図1は、第1実施形態に係る物体認識システムの構成を示すブロック図である。物体認識システム1は、例えば映像監視システムなどに用いられ、図示のように、複数のエッジ装置100と、サーバ装置200とを備える。複数のエッジ装置100と、サーバ装置200とは通信可能に構成される。エッジ装置100は、物体認識を行う場所に設置される端末装置であり、カメラなどにより撮影された画像データから物体認識を行う。通常、複数のエッジ装置100は、それぞれ異なる場所に設置され、その場所(以下、「現場」とも呼ぶ。)で撮影された画像データに対して物体認識を行う。具体的に、エッジ装置100は、学習用の画像データに基づいて、内部に有する物体認識のためのモデル(以下、「エッジモデル」とも呼ぶ。)を学習する。そして、学習により得られたモデル(以下、「学習済エッジモデル」と呼ぶ。)を用いて、実際に現場で撮影された画像データから物体認識を行う。また、エッジ装置100は、内部の学習済エッジモデルを規定するモデル情報をサーバ装置200へ送信する。なお、エッジ装置100は、本発明の端末装置の一例である。
(エッジ装置)
図2(A)は、エッジ装置100のハードウェア構成を示すブロック図である。図示のように、エッジ装置100は、通信部102と、プロセッサ103と、メモリ104と、記録媒体105と、データベース(DB)106と、表示部107と、を備える。
図2(B)は、サーバ装置200のハードウェア構成を示すブロック図である。図示のように、サーバ装置200は、通信部202と、プロセッサ203と、メモリ204と、記録媒体205と、データベース(DB)206と、を備える。
次に、物体認識システム1の機能構成について説明する。図3は、物体認識システム1の機能構成を示すブロック図である。エッジ装置100は、認識部111と、モデル記憶部112と、モデル学習部113と、モデル情報受信部114と、モデル情報送信部115と、認識結果提示部116とを備える。サーバ装置200は、モデル情報送信部211と、モデル情報受信部212と、モデル蓄積部213と、モデル更新部250と、を備える。
次に、物体認識システム1の動作について説明する。エッジ装置100は、物体認識処理と、学習処理と、モデル更新処理とを行う。また、サーバ装置200は、モデル蓄積処理と、モデル更新処理とを行う。
上記の実施形態については、以下の応用例を適用することができる。
(応用例1)
上記の実施形態では、モデル更新処理が行われると、エッジ装置100は、モデル更新処理を行う前のエッジモデル(以下、「更新前エッジモデル」と呼ぶ。)を、サーバ装置200から受信した更新後エッジモデルで置き換え、その後の物体認識処理に使用している。その代わりに、エッジ装置100は、いったん更新前エッジモデルと更新後エッジモデルの両方を保持し、そのうちの1つを選択してその後の物体認識処理に使用することとしてもよい。この場合、例えば、エッジ装置100の認識結果提示部116は、更新前エッジモデルと更新後エッジモデルによる認識結果をユーザに提示し、ユーザが選択した方のモデルをその後の物体認識処理に使用することとしてもよい。その場合には、エッジ装置100は、2つのエッジモデルによる認識結果を、例えば特定の比較用テスト画像データに対する認識結果、具体的には、比較用テスト画像データ上に認識された物体を示す枠及び認識の信頼度を表示した画像により表示してもよい。その代わりに、エッジ装置100は、比較用テスト画像データに対して認識された物体の種類及び数を示すリストを表示してもよい。また、比較用テスト画像データに対して正解データが用意されている場合には、エッジ装置100は、各エッジモデルによる認識精度を示す数値を表示することとしてもよい。さらに、このように正解データに基づいて2つのエッジモデルの認識結果を算出できる場合には、ユーザに選択させるのではなく、数値化された認識結果に基づいてエッジ装置100がより性能の良い方のモデルを自動的に選択するようにしてもよい。
上記の実施形態では、エッジ装置100とサーバ装置200の間で、物体を認識するためのモデルにおいて使用するクラスコードを統一する必要がある。よって、複数のエッジ装置100で使用しているエッジモデル間でクラスコードの体系が異なっている場合には、サーバ装置200は、クラスコードの体系を統一してから大規模モデルを生成し、モデル更新処理を行う。
次に、サーバ装置200のモデル更新部250の実施例について詳しく説明する。
(第1実施例)
図6は、モデル更新部250の第1実施例の機能構成を示すブロック図である。モデル更新部250は、まず複数の物体認識部を含む大規模モデルを学習するステップ(以下、「大規模モデル学習ステップ」と呼ぶ。)を実行し、次に学習済みの大規模モデルを用いて、更新後エッジモデルに相当するターゲットモデルを学習するステップ(以下、「ターゲットモデル学習ステップ」と呼ぶ。)を実行する。なお、物体認識部はエッジ装置100で使用されるエッジモデルを用いて物体を認識するユニットである。
”Learning Efficient Object Detection Models with Knowledge Distillation”,NeurIPS2017
以下、ロス算出部227が算出するロスを「大規模モデルロス」とも呼ぶ。
上記のモデル更新部250の第1実施例については、以下の変形例を適用することができる。
(1)上記の第1実施例では、各物体認識部が出力するスコア情報および座標情報を用いて学習を行っているが、座標情報は用いず、スコア情報のみを用いて学習を行うこととしてもよい。
次に、モデル更新部250の第2実施例について説明する。第1実施例では、まず、大規模モデルを学習し、その後に大規模モデルを用いてターゲットモデルを学習している。これに対し、第2実施例では、大規模モデルの学習とターゲットモデルの学習を同時に行う。
次に、モデル更新部250の第3実施例について説明する。第3実施例は、画像データの撮影環境情報を用いて、各物体認識部に対する重み付けを行うものである。
図12は、第2実施形態に係る物体認識システムの構成を示すブロック図である。第2実施形態の物体認識システムは、複数の端末装置170と、サーバ装置270とを備える。端末装置170は、端末側送信部171と、端末側受信部172と、を備える。また、サーバ装置270は、サーバ側受信部271と、モデル統合部272と、モデル更新部273と、サーバ側送信部274とを備える。
複数の端末装置と、サーバ装置とを備える認識システムであって、
前記端末装置は、
認識処理に使用するモデルを規定するモデル情報を前記サーバ装置に送信する端末側送信部と、
前記サーバ装置により生成された更新後のモデルを規定するモデル情報を受信する端末側受信部と、
を備え、
前記サーバ装置は、
前記複数の端末装置から前記モデル情報を受信するサーバ側受信部と、
前記複数の端末装置から受信したモデル情報を統合して統合モデルを生成するモデル統合部と、
モデル更新の対象となる端末装置から受信したモデル情報が規定するモデルを、前記統合モデルを用いて学習することにより更新して前記更新後のモデルを生成するモデル更新部と、
前記更新後のモデルを示すモデル情報を、前記モデル更新の対象となる端末装置に送信するサーバ側送信部と、
を備える認識システム。
前記モデル統合部は、前記複数の端末装置から受信したモデル情報が規定するモデルによる認識結果を重み付け加算して、前記統合モデルを生成する付記1に記載の認識システム。
前記モデル情報は、モデルの構造を示すモデル構造と、当該モデル構造に対して設定されるパラメータのセットとを含み、
前記モデル更新部は、前記モデル更新の対象となる端末装置から受信したモデル情報に含まれるパラメータのセットを更新する付記1又は2に記載の認識システム。
前記モデル更新の対象となる端末装置の前記端末側送信部は、当該端末装置が設置された場所で得られた画像データを前記サーバ装置へ送信し、
前記サーバ側受信部は、前記画像データを受信し、
前記モデル統合部は、前記画像データを用いて前記統合モデルを生成し、
前記モデル更新部は、前記画像データを用いて前記モデルを更新する付記1乃至3のいずれか一項に記載の認識システム。
前記サーバ装置は、前記モデル更新部が前記モデルを更新した後、前記画像データを消去する付記4に記載の認識システム。
前記端末側送信部は、前記画像データの撮影環境情報を前記サーバ装置へ送信し、
前記モデル統合部は、前記撮影環境情報も使用して前記統合モデルを生成する付記4又は5に記載の認識システム。
前記端末装置は、当該端末装置が設置された場所で得られた画像データを用いてモデルを学習する学習部を備え、
前記端末側送信部は、前記学習部による学習が終わるたびに、学習後のモデルに対応するモデル情報を前記サーバ装置へ送信する付記1乃至6のいずれか一項に記載の認識システム。
前記端末装置は、前記サーバ装置による更新前のモデル及び前記サーバ装置による更新後のモデルによる認識結果を提示する認識結果提示部を備える付記1乃至7のいずれか一項に記載の認識システム。
前記端末側送信部は、前記モデルによる認識対象物と、当該認識対象物のクラスコードとの対応関係を示すコード体系情報を前記サーバ装置へ送信し、
前記モデル統合部は、前記コード体系情報に基づいて、複数の端末装置におけるモデルによるクラスコードを統一し、前記統合モデルを生成する付記1乃至8のいずれか一項に記載の認識システム。
前記端末側送信部は、標準コード体系に従って各認識対象物に対してクラスコードを付与したモデル情報を前記サーバ装置へ送信し、
前記標準コード体系は、前記モデルによる認識対象物と、当該認識対象物のクラスコードとの対応関係を示すコード体系であって、前記複数の端末装置及び前記サーバ装置が統一的に使用するコード体系である付記1乃至8のいずれか一項に記載の認識システム。
複数の端末装置と通信可能なモデル処理装置であって、
前記複数の端末装置から、認識処理に使用するモデルを規定するモデル情報を受信する受信部と、
前記複数の端末装置から受信したモデル情報を統合して統合モデルを生成するモデル統合部と、
モデル更新の対象となる端末装置から受信したモデル情報が規定するモデルを、前記統合モデルを用いて学習することにより更新して更新後のモデルを生成するモデル更新部と、
前記更新後のモデルを示すモデル情報を、前記モデル更新の対象となる端末装置に送信する送信部と、
を備えるモデル処理装置。
複数の端末装置から、認識処理に使用するモデルを規定するモデル情報を受信し、
前記複数の端末装置から受信したモデル情報を統合して統合モデルを生成し、
モデル更新の対象となる端末装置から受信したモデル情報が規定するモデルを、前記統合モデルを用いて学習することにより更新して更新後のモデルを生成し、
前記更新後のモデルを示すモデル情報を、前記モデル更新の対象となる端末装置に送信するモデル処理方法。
複数の端末装置から、認識処理に使用するモデルを規定するモデル情報を受信し、
前記複数の端末装置から受信したモデル情報を統合して統合モデルを生成し、
モデル更新の対象となる端末装置から受信したモデル情報が規定するモデルを、前記統合モデルを用いて学習することにより更新して更新後のモデルを生成し、
前記更新後のモデルを示すモデル情報を、前記モデル更新の対象となる端末装置に送信する処理をコンピュータに実行させるプログラムを記録した記録媒体。
100 エッジ装置
103 プロセッサ
111 認識部
112 モデル記憶部
113 モデル学習部
114 モデル情報受信部
115 モデル情報送信部
116 認識結果提示部
170 端末装置
200、270 サーバ装置
211 モデル情報送信部
212 モデル情報受信部
213 モデル蓄積部
214 一時的画像データ
250 モデル更新部
Claims (10)
- 複数の端末装置と、サーバ装置とを備える認識システムであって、
前記端末装置は、
認識処理に使用するモデルを規定するモデル情報を前記サーバ装置に送信する端末側送信手段と、
前記サーバ装置により生成された更新後のモデルを規定するモデル情報を受信する端末側受信手段と、
を備え、
前記サーバ装置は、
前記複数の端末装置から前記モデル情報を受信するサーバ側受信手段と、
前記複数の端末装置から受信したモデル情報を統合して統合モデルを生成するモデル統合手段と、
モデル更新の対象となる端末装置から受信したモデル情報が規定するモデルを、前記統合モデルを用いて学習することにより更新して前記更新後のモデルを生成するモデル更新手段と、
前記更新後のモデルを示すモデル情報を、前記モデル更新の対象となる端末装置に送信するサーバ側送信手段と、
を備える認識システム。 - 前記モデル統合手段は、前記複数の端末装置から受信したモデル情報が規定するモデルによる認識結果を重み付け加算して、前記統合モデルを生成する請求項1に記載の認識システム。
- 前記モデル情報は、モデルの構造を示すモデル構造と、当該モデル構造に対して設定されるパラメータのセットとを含み、
前記モデル更新手段は、前記モデル更新の対象となる端末装置から受信したモデル情報に含まれるパラメータのセットを更新する請求項1又は2に記載の認識システム。 - 前記モデル更新の対象となる端末装置の前記端末側送信手段は、当該端末装置が設置された場所で得られた画像データを前記サーバ装置へ送信し、
前記サーバ側受信手段は、前記画像データを受信し、
前記モデル統合手段は、前記画像データを用いて前記統合モデルを生成し、
前記モデル更新手段は、前記画像データを用いて前記モデルを更新する請求項1乃至3のいずれか一項に記載の認識システム。 - 前記サーバ装置は、前記モデル更新手段が前記モデルを更新した後、前記画像データを消去する請求項4に記載の認識システム。
- 前記端末側送信手段は、前記画像データの撮影環境情報を前記サーバ装置へ送信し、
前記モデル統合手段は、前記撮影環境情報も使用して前記統合モデルを生成する請求項4又は5に記載の認識システム。 - 前記端末装置は、当該端末装置が設置された場所で得られた画像データを用いてモデルを学習する学習手段を備え、
前記端末側送信手段は、前記学習手段による学習が終わるたびに、学習後のモデルに対応するモデル情報を前記サーバ装置へ送信する請求項1乃至6のいずれか一項に記載の認識システム。 - 複数の端末装置と通信可能なモデル処理装置であって、
前記複数の端末装置から、認識処理に使用するモデルを規定するモデル情報を受信する受信手段と、
前記複数の端末装置から受信したモデル情報を統合して統合モデルを生成するモデル統合手段と、
モデル更新の対象となる端末装置から受信したモデル情報が規定するモデルを、前記統合モデルを用いて学習することにより更新して更新後のモデルを生成するモデル更新手段と、
前記更新後のモデルを示すモデル情報を、前記モデル更新の対象となる端末装置に送信する送信手段と、
を備えるモデル処理装置。 - 複数の端末装置から、認識処理に使用するモデルを規定するモデル情報を受信し、
前記複数の端末装置から受信したモデル情報を統合して統合モデルを生成し、
モデル更新の対象となる端末装置から受信したモデル情報が規定するモデルを、前記統合モデルを用いて学習することにより更新して更新後のモデルを生成し、
前記更新後のモデルを示すモデル情報を、前記モデル更新の対象となる端末装置に送信するモデル処理方法。 - 請求項9に記載のモデル処理方法をコンピュータに実行させるプログラム。
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2019/032612 WO2021033288A1 (ja) | 2019-08-21 | 2019-08-21 | 認識システム、モデル処理装置、モデル処理方法、及び、記録媒体 |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JPWO2021033288A1 JPWO2021033288A1 (ja) | 2021-02-25 |
| JPWO2021033288A5 JPWO2021033288A5 (ja) | 2022-04-05 |
| JP7235125B2 true JP7235125B2 (ja) | 2023-03-08 |
Family
ID=74660711
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021541407A Active JP7235125B2 (ja) | 2019-08-21 | 2019-08-21 | 認識システム、モデル処理装置、モデル処理方法、及び、プログラム |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US20220292397A1 (ja) |
| JP (1) | JP7235125B2 (ja) |
| WO (1) | WO2021033288A1 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7509719B2 (ja) | 2021-06-11 | 2024-07-02 | 株式会社日立ソリューションズ | Ai品質監視システム |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12374092B2 (en) * | 2021-03-01 | 2025-07-29 | Robert Bosch Gmbh | Image analysis model comprising an integer coupling layer |
| JP7281595B1 (ja) | 2022-12-26 | 2023-05-25 | 株式会社野村総合研究所 | セルフ給油システム |
| WO2024247055A1 (ja) * | 2023-05-29 | 2024-12-05 | 日本電気株式会社 | 画像処理装置および画像処理方法 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010282556A (ja) | 2009-06-08 | 2010-12-16 | Sony Corp | 情報処理装置、情報処理方法、及び、プログラム |
| JP2018510399A (ja) | 2015-01-22 | 2018-04-12 | 株式会社Preferred Networks | 異種環境におけるエッジデバイスのためのモデルフィルタリングおよびモデルミキシングによる機械学習 |
| WO2019131527A1 (ja) | 2017-12-26 | 2019-07-04 | 株式会社エイシング | 汎用学習済モデルの生成方法 |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9269054B1 (en) * | 2011-11-09 | 2016-02-23 | BigML, Inc. | Methods for building regression trees in a distributed computing environment |
| US9390376B2 (en) * | 2013-10-15 | 2016-07-12 | Lockheed Martin Corporation | Distributed machine learning intelligence development systems |
| CN109716346A (zh) * | 2016-07-18 | 2019-05-03 | 河谷生物组学有限责任公司 | 分布式机器学习系统、装置和方法 |
-
2019
- 2019-08-21 JP JP2021541407A patent/JP7235125B2/ja active Active
- 2019-08-21 US US17/633,402 patent/US20220292397A1/en active Pending
- 2019-08-21 WO PCT/JP2019/032612 patent/WO2021033288A1/ja not_active Ceased
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010282556A (ja) | 2009-06-08 | 2010-12-16 | Sony Corp | 情報処理装置、情報処理方法、及び、プログラム |
| JP2018510399A (ja) | 2015-01-22 | 2018-04-12 | 株式会社Preferred Networks | 異種環境におけるエッジデバイスのためのモデルフィルタリングおよびモデルミキシングによる機械学習 |
| WO2019131527A1 (ja) | 2017-12-26 | 2019-07-04 | 株式会社エイシング | 汎用学習済モデルの生成方法 |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7509719B2 (ja) | 2021-06-11 | 2024-07-02 | 株式会社日立ソリューションズ | Ai品質監視システム |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2021033288A1 (ja) | 2021-02-25 |
| JPWO2021033288A1 (ja) | 2021-02-25 |
| US20220292397A1 (en) | 2022-09-15 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7235125B2 (ja) | 認識システム、モデル処理装置、モデル処理方法、及び、プログラム | |
| US12039445B2 (en) | Method and system for on-the-fly object labeling via cross modality validation in autonomous driving vehicles | |
| US12307347B2 (en) | Method and system for distributed learning and adaptation in autonomous driving vehicles | |
| US20220350340A1 (en) | Method and system for object centric stereo in autonomous driving vehicles | |
| US11132608B2 (en) | Learning-based service migration in mobile edge computing | |
| CN106997466B (zh) | 用于检测道路的方法和装置 | |
| US20210235543A1 (en) | Split predictions for iot devices | |
| KR20180110891A (ko) | 입력 영상에 포함된 객체를 인식하는 디바이스 및 방법 | |
| JPWO2011151999A1 (ja) | 動線検出システム、動線検出方法および動線検出プログラム | |
| US20210110140A1 (en) | Environment specific model delivery | |
| CN118968038A (zh) | 目标检测方法、装置、设备、存储介质及产品 | |
| CN111723730B (zh) | 对目标对象的数量进行预测的方法及相关设备 | |
| US20210064941A1 (en) | Method for adaptive context length control for on-line edge learning | |
| WO2021090473A1 (ja) | 物体検知装置、学習方法、及び、記録媒体 | |
| JP7164048B2 (ja) | 物体検知装置、学習方法、及び、プログラム | |
| WO2021005776A1 (ja) | 物体検知装置、学習方法、及び、記録媒体 | |
| US20220180744A1 (en) | System and method for task control based on bayesian meta-reinforcement learning | |
| WO2022024211A1 (ja) | 学習活用システム、活用装置、学習装置、プログラム及び学習活用方法 | |
| CN114942031A (zh) | 视觉定位方法、视觉定位与建图方法、装置、设备及介质 | |
| CN114997495A (zh) | 一种atm机交易量预测方法和相关装置 | |
| JP7380902B2 (ja) | 物体検知装置、学習済みモデル生成方法、及び、プログラム | |
| US20220115148A1 (en) | Self-assessment of machine learning | |
| US20230177794A1 (en) | Electronic device and method of inferring object in image | |
| KR102819246B1 (ko) | 전주기 심층 능동학습 기반 데이터 라벨링 시스템 및 방법 | |
| US20250239044A1 (en) | Apparatus, method and readable storage medium for image processing model training |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220118 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220118 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230124 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230206 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 7235125 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |