JP6471825B1 - 情報処理装置および情報処理方法 - Google Patents
情報処理装置および情報処理方法 Download PDFInfo
- Publication number
- JP6471825B1 JP6471825B1 JP2018169979A JP2018169979A JP6471825B1 JP 6471825 B1 JP6471825 B1 JP 6471825B1 JP 2018169979 A JP2018169979 A JP 2018169979A JP 2018169979 A JP2018169979 A JP 2018169979A JP 6471825 B1 JP6471825 B1 JP 6471825B1
- Authority
- JP
- Japan
- Prior art keywords
- learning
- batch size
- information processing
- value
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/955—Hardware or software architectures specially adapted for image or video understanding using specific electronic processors
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/96—Management of image or video recognition tasks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【解決手段】情報処理装置は、ニューラルネットワークを用いた学習を行う学習部を備える。学習部は、ニューラルネットワークが出力する学習に係る理想状態とのギャップ値に基づいて、学習中にバッチサイズの値を動的に変更する。また、ニューラルネットワークを用いた学習を行うことを含み、バッチサイズ変更部は、ニューラルネットワークが出力する学習に係る理想状態とのギャップ値に基づいて、学習中にバッチサイズの値を動的に変更する。
【選択図】図3
Description
1.実施形態
1.1.概要
1.2.情報処理装置10の機能構成例
1.3.検証結果
1.4.バッチサイズ増減の実現手法
2.ハードウェア構成例
3.まとめ
<<1.1.概要>>
まず、本開示の一実施形態の概要について説明する。上述したように、近年、ニューラルネットワークによる学習を高速化するための技術が多く提案されている。一般に、DNN(Deep Neural Network)の学習に要する時間は、パラメータの更新回数と比例関係にあることから、当該更新回数を減らすことが学習の高速化に対し有効な手段となり得る。
次に、本実施形態に係る情報処理装置10の機能構成例について説明する。図3は、本実施形態に係る情報処理装置10の機能構成例を示すブロック図である。図3を参照すると、本実施形態に係る情報処理装置10は、入出力制御部110、学習部120、微分計算部130、およびバッチサイズ変更部140を備える。
本実施形態に係る入出力制御部110は、DNNの学習に係るユーザインタフェースを制御する。例えば、本実施形態に係る入出力制御部110は、入力装置を介して入力された各種のデータを学習部120に引き渡す。また、例えば、入出力制御部110は、学習部120が出力する値を出力装置に引き渡す。
本実施形態に係る学習部120は、DNNを用いた学習を行う。上述したように、本実施形態に係る学習部120は、DNNが出力する学習に係る理想状態とのギャップ値に基づいて、学習中にバッチサイズの値を動的に変更すること、を特徴の一つとする。本実施形態に係る理想状態とのギャップ値は、例えば、損失、トレーニングエラー、バリデーションエラーなどを含む。
本実施形態に係る微分計算部130は、学習部120から入力される損失にn回微分処理を行うことでn回微分値を算出し、当該n回微分値を学習部120に出力する。
本実施形態に係るバッチサイズ変更部140は、学習部120が設定したバッチサイズの値に基づいて、バッチサイズの増減を制御する機能を有する。本実施形態に係るバッチサイズ変更部140が有する機能の詳細については、別途後述する。
次に、本実施形態に係る情報処理装置10により実現されるバッチサイズ変更手法の検証結果について述べる。
続いて、本実施形態に係るバッチサイズ増減の実現手法について詳細に説明する。本実施形態に係るバッチサイズ変更部140は、学習部120が設定したバッチサイズの値を取得し、当該値に基づいてGPU(Graphics Processing Unit)を制御することで、バッチサイズの増減を実現する。
次に、本開示の一実施形態に係る情報処理装置10のハードウェア構成例について説明する。図17は、本開示の一実施形態に係る情報処理装置10のハードウェア構成例を示すブロック図である。図17を参照すると、情報処理装置10は、例えば、プロセッサ871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
プロセッサ871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。プロセッサ871は、例えば、GPUやCPUを含む。なお、本開示の一実施形態に係る情報処理装置10は、少なくとも2つのGPUを備える。
ROM872は、プロセッサ871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、プロセッサ871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
プロセッサ871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力装置878には、マイクロフォンなどの音声入力装置が含まれる。
出力装置879は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。また、本開示に係る出力装置879は、触覚刺激を出力することが可能な種々の振動デバイスを含む。
ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
リムーバブル記録媒体901は、例えば、DVDメディア、Blu−ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
以上説明したように、本開示の一実施形態に係る情報処理装置10は、ニューラルネットワークを用いた学習を行う学習部120を備え、学習部120は、ニューラルネットワークが出力する学習に係る理想状態とのギャップ値に基づいて、学習中にバッチサイズの値を動的に変更すること、を特徴の一つとする。係る構成によれば、DNNによる学習を学習手法に依らず効果的に高速化することが可能となる。
(1)
ニューラルネットワークを用いた学習を行う学習部、
を備え、
前記学習部は、前記ニューラルネットワークが出力する学習に係る理想状態とのギャップ値に基づいて、学習中にバッチサイズの値を動的に変更する、
情報処理装置。
(2)
前記理想状態とのギャップ値は、少なくとも損失を含む、
前記(1)に記載の情報処理装置。
(3)
前記学習部は、前記損失に基づいて学習の収束が推定される場合、学習中にバッチサイズの値を増加させる、
前記(2)に記載の情報処理装置。
(4)
前記学習部は、前記損失のn回微分値に基づいて、学習中にバッチサイズの値を増加させる、
前記(3)に記載の情報処理装置。
(5)
前記学習部は、前記損失の値または前記損失の傾きの少なくともいずれかが閾値を下回ることに基づいて、学習中にバッチサイズの値を増加させる、
前記(4)に記載の情報処理装置。
(6)
前記学習部は、前記損失に基づいて学習の発散が推定される場合、学習中にバッチサイズの値を減少させる、
前記(2)〜(5)のいずれかに記載の情報処理装置。
(7)
前記学習部は、エポックに基づいて、バッチサイズの値を動的に変更する、
前記(1)〜(6)のいずれかに記載の情報処理装置。
(8)
前記学習部は、エポックの経過に伴いバッチサイズの値を増加させる、
前記(7)に記載の情報処理装置。
(9)
前記学習部は、前記理想状態とのギャップ値から学習の発散が推定される場合、過去のエポックにおけるネットワークモデルを再読み込みする、
前記(8)に記載の情報処理装置。
(10)
前記学習部は、前記過去のエポックにおけるネットワークモデルの再読み込みを行った場合、前記過去のエポックで設定した値よりも小さいバッチサイズの値を設定する、
前記(9)に記載の情報処理装置。
(11)
前記学習部は、エポックごとにバッチサイズの値を増加させる、
前記(7)に記載の情報処理装置。
(12)
前記学習部が設定した値に基づいて、バッチサイズの増減を制御するバッチサイズ変更部、
をさらに備える、
前記(1)〜(11)のいずれかに記載の情報処理装置。
(13)
前記バッチサイズ変更部は、GPU中のモデルを作り直すことによりバッチサイズの増減を制御する、
前記(12)に記載の情報処理装置。
(14)
前記バッチサイズ変更部は、学習に係る計算のループ数を増減させることによりバッチサイズの増減を制御する、
前記(12)または(13)に記載の情報処理装置。
(15)
前記バッチサイズ変更部は、学習に用いられるGPUの数を増減させることによりバッチサイズの増減を制御する、
前記(12)〜(14)のいずれかに記載の情報処理装置。
(16)
前記バッチサイズ変更部は、追加で利用可能なGPUが存在する場合、当該GPUを学習に割り当てることで、バッチサイズの増加を制御する、
前記(12)〜(15)のいずれかに記載の情報処理装置。
(17)
前記バッチサイズ変更部は、追加で利用可能なGPUが存在せず、かつ現在利用中のGPUのメモリに空き容量が存在する場合、現在利用中のGPU中のモデルを作り直すことで、バッチサイズを増加を制御する、
前記(12)〜(16)のいずれかに記載の情報処理装置。
(18)
前記バッチサイズ変更部は、現在利用中のGPUのメモリに空き容量が存在しない場合、学習に係る計算のループ数を増加させることで、バッチサイズの増加を制御する、
前記(12)〜(17)のいずれかに記載の情報処理装置。
(19)
前記理想状態とのギャップ値は、トレーニングエラーまたはバリデーションエラーのうち少なくともいずれかを含む、
前記(1)に記載の情報処理装置。
(20)
プロセッサが、ニューラルネットワークを用いた学習を行うこと、
を含み、
前記学習を行うことは、前記ニューラルネットワークが出力する学習に係る理想状態とのギャップ値に基づいて、学習中にバッチサイズの値を動的に変更すること、
をさらに含む、
情報処理方法。
110 入出力制御部
120 学習部
130 微分計算部
140 バッチサイズ変更部
Claims (20)
- ニューラルネットワークを用いた学習を行う学習部、
を備え、
前記学習部は、前記ニューラルネットワークが出力する学習に係る理想状態とのギャップ値に基づいて、学習中にバッチサイズの値を動的に変更する、
情報処理装置。 - 前記理想状態とのギャップ値は、少なくとも損失を含む、
請求項1に記載の情報処理装置。 - 前記学習部は、前記損失に基づいて学習の収束が推定される場合、学習中にバッチサイズの値を増加させる、
請求項2に記載の情報処理装置。 - 前記学習部は、前記損失のn回微分値に基づいて、学習中にバッチサイズの値を増加させる、
請求項3に記載の情報処理装置。 - 前記学習部は、前記損失の値または前記損失の傾きの少なくともいずれかが閾値を下回ることに基づいて、学習中にバッチサイズの値を増加させる、
請求項4に記載の情報処理装置。 - 前記学習部は、前記損失に基づいて学習の発散が推定される場合、学習中にバッチサイズの値を減少させる、
請求項2に記載の情報処理装置。 - 前記学習部は、エポックに基づいて、バッチサイズの値を動的に変更する、
請求項1に記載の情報処理装置。 - 前記学習部は、エポックの経過に伴いバッチサイズの値を増加させる、
請求項7に記載の情報処理装置。 - 前記学習部は、前記理想状態とのギャップ値から学習の発散が推定される場合、過去のエポックにおけるネットワークモデルを再読み込みする、
請求項8に記載の情報処理装置。 - 前記学習部は、前記過去のエポックにおけるネットワークモデルの再読み込みを行った場合、前記過去のエポックで設定した値よりも小さいバッチサイズの値を設定する、
請求項9に記載の情報処理装置。 - 前記学習部は、エポックごとにバッチサイズの値を増加させる、
請求項7に記載の情報処理装置。 - 前記学習部が設定した値に基づいて、バッチサイズの増減を制御するバッチサイズ変更部、
をさらに備える、
請求項1に記載の情報処理装置。 - 前記バッチサイズ変更部は、GPU中のモデルを作り直すことによりバッチサイズの増減を制御する、
請求項12に記載の情報処理装置。 - 前記バッチサイズ変更部は、学習に係る計算のループ数を増減させることによりバッチサイズの増減を制御する、
請求項12に記載の情報処理装置。 - 前記バッチサイズ変更部は、学習に用いられるGPUの数を増減させることによりバッチサイズの増減を制御する、
請求項12に記載の情報処理装置。 - 前記バッチサイズ変更部は、追加で利用可能なGPUが存在する場合、当該GPUを学習に割り当てることで、バッチサイズの増加を制御する、
請求項12に記載の情報処理装置。 - 前記バッチサイズ変更部は、追加で利用可能なGPUが存在せず、かつ現在利用中のGPUのメモリに空き容量が存在する場合、現在利用中のGPU中のモデルを作り直すことで、バッチサイズを増加を制御する、
請求項12に記載の情報処理装置。 - 前記バッチサイズ変更部は、現在利用中のGPUのメモリに空き容量が存在しない場合、学習に係る計算のループ数を増加させることで、バッチサイズの増加を制御する、
請求項12に記載の情報処理装置。 - 前記理想状態とのギャップ値は、トレーニングエラーまたはバリデーションエラーのうち少なくともいずれかを含む、
請求項1に記載の情報処理装置。 - プロセッサが、ニューラルネットワークを用いた学習を行うこと、
を含み、
前記学習を行うことは、前記ニューラルネットワークが出力する学習に係る理想状態とのギャップ値に基づいて、学習中にバッチサイズの値を動的に変更すること、
をさらに含む、
情報処理方法。
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018169979A JP6471825B1 (ja) | 2018-09-11 | 2018-09-11 | 情報処理装置および情報処理方法 |
| PCT/JP2018/042950 WO2020054083A1 (ja) | 2018-09-11 | 2018-11-21 | 情報処理装置および情報処理方法 |
| CN201880071369.8A CN111295677A (zh) | 2018-09-11 | 2018-11-21 | 信息处理设备和信息处理方法 |
| US16/761,263 US10922612B2 (en) | 2018-09-11 | 2018-11-21 | Information processing apparatus and information processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018169979A JP6471825B1 (ja) | 2018-09-11 | 2018-09-11 | 情報処理装置および情報処理方法 |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019009605A Division JP7159884B2 (ja) | 2019-01-23 | 2019-01-23 | 情報処理装置および情報処理方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP6471825B1 true JP6471825B1 (ja) | 2019-02-20 |
| JP2020042591A JP2020042591A (ja) | 2020-03-19 |
Family
ID=65442963
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018169979A Active JP6471825B1 (ja) | 2018-09-11 | 2018-09-11 | 情報処理装置および情報処理方法 |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US10922612B2 (ja) |
| JP (1) | JP6471825B1 (ja) |
| CN (1) | CN111295677A (ja) |
| WO (1) | WO2020054083A1 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102064882B1 (ko) | 2019-07-12 | 2020-01-10 | (주)웨이브웨어 | 그래픽 처리 장치의 자원 관리가 가능한 딥러닝 플랫폼 및 이를 이용한 그래픽 처리 장치의 자원 관리 방법 |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102494945B1 (ko) * | 2020-05-15 | 2023-02-01 | 한국항공대학교산학협력단 | 멀티 gpu를 이용한 딥러닝 모델 학습 시의 최적 스플릿 크기 결정 장치 및 방법과 이를 이용한 딥러닝 모델 학습 방법 |
| JP7715322B2 (ja) * | 2020-05-22 | 2025-07-30 | ニデック アドバンステクノロジー カナダ コーポレーション | 自動欠陥分類検査装置を訓練する方法及びシステム |
| KR102758486B1 (ko) * | 2020-12-08 | 2025-01-22 | 한국전자통신연구원 | 인공신경망 가속기를 위한 배치 크기 최적화 방법 및 장치 |
| US12175587B2 (en) * | 2021-03-29 | 2024-12-24 | Samsung Electronics Co., Ltd. | Apparatus and method with graphics processing |
Family Cites Families (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH03223933A (ja) * | 1989-12-18 | 1991-10-02 | Hitachi Ltd | 情報処理システム |
| JP2001056802A (ja) * | 1999-08-19 | 2001-02-27 | Oki Electric Ind Co Ltd | ニューラルネットワークの学習方法 |
| WO2018094360A2 (en) * | 2016-11-18 | 2018-05-24 | Nantomics, Llc | Methods and systems for predicting dna accessibility in the pan-cancer genome |
| WO2018231708A2 (en) * | 2017-06-12 | 2018-12-20 | D5Ai Llc | Robust anti-adversarial machine learning |
| US11003992B2 (en) * | 2017-10-16 | 2021-05-11 | Facebook, Inc. | Distributed training and prediction using elastic resources |
| US10720151B2 (en) * | 2018-07-27 | 2020-07-21 | Deepgram, Inc. | End-to-end neural networks for speech recognition and classification |
-
2018
- 2018-09-11 JP JP2018169979A patent/JP6471825B1/ja active Active
- 2018-11-21 CN CN201880071369.8A patent/CN111295677A/zh active Pending
- 2018-11-21 WO PCT/JP2018/042950 patent/WO2020054083A1/ja not_active Ceased
- 2018-11-21 US US16/761,263 patent/US10922612B2/en active Active
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102064882B1 (ko) | 2019-07-12 | 2020-01-10 | (주)웨이브웨어 | 그래픽 처리 장치의 자원 관리가 가능한 딥러닝 플랫폼 및 이를 이용한 그래픽 처리 장치의 자원 관리 방법 |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2020054083A1 (ja) | 2020-03-19 |
| CN111295677A (zh) | 2020-06-16 |
| US10922612B2 (en) | 2021-02-16 |
| US20200372343A1 (en) | 2020-11-26 |
| JP2020042591A (ja) | 2020-03-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6471825B1 (ja) | 情報処理装置および情報処理方法 | |
| CN111177453B (zh) | 控制音频播放的方法、装置、设备及计算机可读存储介质 | |
| CN108564966B (zh) | 语音测试的方法及其设备、具有存储功能的装置 | |
| CN111105375A (zh) | 图像生成方法及其模型训练方法、装置及电子设备 | |
| CN114121029B (zh) | 语音增强模型的训练方法和装置以及语音增强方法和装置 | |
| KR102607536B1 (ko) | 옵티마이저 학습 방법, 장치, 전자 기기 및 판독 가능 기록 매체 | |
| JP7287388B2 (ja) | 情報処理装置および情報処理方法 | |
| JP7159884B2 (ja) | 情報処理装置および情報処理方法 | |
| CN114155852A (zh) | 语音处理方法、装置、电子设备及存储介质 | |
| CN110503944B (zh) | 语音唤醒模型的训练和使用方法及装置 | |
| US20210303938A1 (en) | Method and apparatus for optimizing video playback start, device and storage medium | |
| CN113170260B (zh) | 音频处理方法、装置、存储介质及电子设备 | |
| WO2025081964A1 (zh) | 音频修复方法、装置、存储介质及电子设备 | |
| CN113810814B (zh) | 耳机模式切换的控制方法及装置、电子设备和存储介质 | |
| JP2022095689A (ja) | 音声データノイズ低減方法、装置、機器、記憶媒体及びプログラム | |
| US12101566B2 (en) | Information processing apparatus, information processing terminal, method, and model | |
| WO2021149238A1 (ja) | 情報処理装置、情報処理方法、および情報処理プログラム | |
| CN118175386A (zh) | 基于混合控制适配器网络的关键帧生成方法、设备及介质 | |
| CN116866661A (zh) | 一种视频预渲染方法、装置、设备及存储介质 | |
| US11150923B2 (en) | Electronic apparatus and method for providing manual thereof | |
| CN111883172B (zh) | 用于音频丢包修复的神经网络训练方法、装置和系统 | |
| CN110544480B (zh) | 语音识别资源切换方法和装置 | |
| CN115766971A (zh) | 演示视频生成方法、装置、电子设备和可读存储介质 | |
| CN112735451A (zh) | 一种基于循环神经网络的调度音频码率切换方法、电子设备、存储介质 | |
| JP2020160737A (ja) | 情報処理装置、情報処理方法及びプログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181122 |
|
| A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20181122 |
|
| A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20181127 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181225 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190107 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 6471825 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190208 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190214 |