JP7279507B2 - 情報処理装置、情報処理プログラム及び制御方法 - Google Patents
情報処理装置、情報処理プログラム及び制御方法 Download PDFInfo
- Publication number
- JP7279507B2 JP7279507B2 JP2019095469A JP2019095469A JP7279507B2 JP 7279507 B2 JP7279507 B2 JP 7279507B2 JP 2019095469 A JP2019095469 A JP 2019095469A JP 2019095469 A JP2019095469 A JP 2019095469A JP 7279507 B2 JP7279507 B2 JP 7279507B2
- Authority
- JP
- Japan
- Prior art keywords
- learning rate
- learning
- value
- epoch
- continuous curve
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0499—Feedforward networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Feedback Control In General (AREA)
- Image Analysis (AREA)
Description
連続曲線の算出に用いるパラメータの入力を受け付ける受付部と、
学習率が最大値の中間値の時点から最低値に到達するまでの時間が、学習処理開始時から学習率が最大値の中間値に到達するまでの時間よりも短くなるように、前記パラメータに基づいて算出される連続曲線で変化する学習率を算出する算出部と、
前記連続曲線で変化する学習率に基づいて、更新処理において重みパラメータを更新する際の更新量を制御する制御部と、を有し、
前記パラメータには、
前記学習率が最大値の中間値となるepochと、
epochの乗数と、
前記学習率が最大値の中間値の時点から最低値に到達するまでの減衰の加速率と、
最終のepochでの学習率と、が含まれる。
<情報処理装置の機能構成>
はじめに、DNN(Deep Neural Network)を用いて学習処理を行う情報処理装置の機能構成について説明する。図1は、情報処理装置の機能構成の一例を示す図である。情報処理装置100には、情報処理プログラムがインストールされており、当該プログラムが実行されることで、情報処理装置100は、パラメータ受付部110、学習率算出部120、学習率設定部130、学習部140として機能する。
次に、情報処理装置100のハードウェア構成について説明する。図2は、情報処理装置のハードウェア構成の一例を示す図である。図2に示すように、情報処理装置100は、CPU(Central Processing Unit)201、GPU(Graphics Processing Unit)202_1~202_4を有する。また、情報処理装置100は、ROM(Read Only Memory)203、RAM(Random Access Memory)204を有する。なお、CPU201、GPU202_1~202_4、ROM203、RAM204は、いわゆるコンピュータを形成する。
次に、学習用データ格納部150に格納される学習用データについて説明する。図3は、学習処理時の学習用データの構成例を示す図である。上述したように、情報処理装置100は、4つのGPU(GPU202_1~202_4)を有するため、1回の学習で、4つのミニバッチが入力される。なお、各ミニバッチには、例えば、数百のデータの組(入力データと正解データの組)が含まれているものとする。
次に、学習部140の機能構成について説明する。図4は、情報処理装置の学習部の機能構成の一例を示す図である。上述したように、情報処理装置100は、4つのGPU(GPU202_1~202_4)を有するため、学習部140は、4つの機能ブロック(機能ブロック410~440)に分かれて、それぞれ、並列に学習処理が行われる。なお、機能ブロック410~410の各機能ブロックは、同様の機能を有するため、ここでは、機能ブロック410の機能について説明する。
次に、学習部140の第1のニューロン層412から第3のニューロン層414それぞれにおいて、勾配情報に基づいて重みパラメータを更新する際に用いる学習率を算出する、パラメータ受付部及び学習率算出部の機能構成について説明する。
・turn_epoch:学習率の減衰率が0.5(学習率の最大値の中間値)となるepoch、
・power:epochの乗数、
・small_epoch:turn_epoch以降(学習率が最大値の中間値から最低値に到達するまで)の学習率の減衰の加速率、
・min_ratio:最終epochでの学習率(学習率の最低値)、
の入力を受け付ける。なお、図5の例では、turn_epoch=70、power=3、small_ratio=2、min_ratio=0.0001が入力されたことを示している。
・lr_decayは学習率の減衰、
・x2_lは最終のepochでのx2、
・lr_1は最終のepochでのlr、
・base_lrは基準となる学習率、
をそれぞれ表す。
・学習率が減衰する時点(turn_epoch)、
・学習率が減衰する際の全体の急峻度(power)、
・turn_epoch以降に学習率が減衰する際の急峻度(small_ratio)、
をユーザが指定できるようにした。
・学習率が最大値の中間値の時点から、学習率が最低値に到達するまでの時間が、
・学習処理開始時から学習率が最大値の中間値に到達するまでの時間よりも、
短くなるように(つまり、学習率が高い状態が長くなるように)、連続曲線lrを算出することが可能となる。
次に、情報処理装置100による設定処理及び学習処理の流れについて説明する。図6は、情報処理装置による設定処理及び学習処理の流れを示すフローチャートである。
次に、情報処理装置100の学習部140が学習処理を行うことで得た学習結果の性能について、比較例の学習部が学習処理を行うことで得た学習結果と対比しながら図7を用いて説明する。図7は、学習結果の性能向上を示す図である。
上記第1の実施形態では、学習率の変化を示す連続曲線を算出する際、学習率が減衰する時点、学習率が減衰する際の全体の急峻度、turn_epoch以降に学習率が減衰する際の急峻度をユーザが指定できるようにした。
図8は、情報処理装置のパラメータ受付部及び学習率算出部の機能構成及び学習率の変化を示す連続曲線の一例を示す第2の図である。
・turn_epoch:学習率の減衰率が0.5(学習率の最大値の中間値)となるepoch、
・power:epochの乗数、
・last_epoch:最終のepoch数、
・min_ratio:最終epochでの学習率(学習率の最低値)、
の入力を受け付ける。なお、図8の例では、turn_epoch=70、power=3、last_epoch=90、min_ratio=0.0001が入力されたことを示している。
・lr_decayは学習率の減衰、
・lr_1は最終のepochでのlr、
・base_lrは基準となる学習率、
をそれぞれ表す。
・学習率が減衰する時点(turn_epoch)、
・学習率が減衰する際の全体の急峻度(power)、
・最終のepoch(last_epoch)、
をユーザが指定することができる。
上記第1及び第2の実施形態では、学習処理中の学習率の変化を示す連続曲線を算出するにあたり、arccotを用いるものとして説明した。しかしながら、学習処理中の学習率の変化を示す連続曲線を算出する際に用いる関数は、arccotに限定されず、arccot以外の関数を用いてもよい。
(付記1)
ニューラルネットワークを用いて学習処理を行う情報処理装置であって、
学習率が最大値の中間値の時点から最低値に到達するまでの時間が、学習処理開始時から学習率が最大値の中間値に到達するまでの時間よりも短くなるように、連続曲線で変化する学習率を算出する算出部と、
前記連続曲線で変化する学習率に基づいて、更新処理において重みパラメータを更新する際の更新量を制御する制御部と
を有する情報処理装置。
(付記2)
前記連続曲線の算出に用いるパラメータの入力を受け付ける受付部を更に有し、
前記算出部は、前記パラメータに基づいて前記連続曲線を算出する、付記1に記載の情報処理装置。
(付記3)
前記パラメータには、
前記学習率が最大値の中間値となるepochと、
epochの乗数と、
前記学習率が最大値の中間値の時点から最低値に到達するまでの減衰の加速率と、
最終のepochでの学習率と、
が含まれる、付記2に記載の情報処理装置。
(付記4)
前記パラメータには、
前記学習率が最大値の中間値となるepochと、
epochの乗数と、
前記学習率が最低値となるepochと、
最終のepochでの学習率と、
が含まれる、付記2に記載の情報処理装置。
(付記5)
ニューラルネットワークを用いて学習処理を行うコンピュータに、
学習率が最大値の中間値の時点から最低値に到達するまでの時間が、学習処理開始時から学習率が最大値の中間値に到達するまでの時間よりも短くなるように、連続曲線で変化する学習率を算出し、
前記連続曲線で変化する学習率に基づいて、更新処理において重みパラメータを更新する際の更新量を制御する、
処理を実行させるための情報処理プログラム。
(付記6)
ニューラルネットワークを用いて学習処理を行う情報処理装置の制御方法であって、
学習率が最大値の中間値の時点から最低値に到達するまでの時間が、学習処理開始時から学習率が最大値の中間値に到達するまでの時間よりも短くなるように、連続曲線で変化する学習率を算出し、
前記連続曲線で変化する学習率に基づいて、更新処理において重みパラメータを更新する際の更新量を制御する、
処理をコンピュータが実行する制御方法。
110 :パラメータ受付部
120 :学習率算出部
130 :学習率設定部
140 :学習部
810 :パラメータ受付部
820 :学習率算出部
Claims (6)
- ニューラルネットワークを用いて学習処理を行う情報処理装置であって、
連続曲線の算出に用いるパラメータの入力を受け付ける受付部と、
学習率が最大値の中間値の時点から最低値に到達するまでの時間が、学習処理開始時から学習率が最大値の中間値に到達するまでの時間よりも短くなるように、前記パラメータに基づいて算出される連続曲線で変化する学習率を算出する算出部と、
前記連続曲線で変化する学習率に基づいて、更新処理において重みパラメータを更新する際の更新量を制御する制御部と、を有し、
前記パラメータには、
前記学習率が最大値の中間値となるepochと、
epochの乗数と、
前記学習率が最大値の中間値の時点から最低値に到達するまでの減衰の加速率と、
最終のepochでの学習率と、
が含まれる情報処理装置。 - ニューラルネットワークを用いて学習処理を行う情報処理装置であって、
連続曲線の算出に用いるパラメータの入力を受け付ける受付部と、
学習率が最大値の中間値の時点から最低値に到達するまでの時間が、学習処理開始時から学習率が最大値の中間値に到達するまでの時間よりも短くなるように、前記パラメータに基づいて算出される連続曲線で変化する学習率を算出する算出部と、
前記連続曲線で変化する学習率に基づいて、更新処理において重みパラメータを更新する際の更新量を制御する制御部と、を有し、
前記パラメータには、
前記学習率が最大値の中間値となるepochと、
epochの乗数と、
前記学習率が最低値となるepochと、
最終のepochでの学習率と、
が含まれる情報処理装置。 - ニューラルネットワークを用いて学習処理を行うコンピュータに、
連続曲線の算出に用いるパラメータの入力を受け付け、
学習率が最大値の中間値の時点から最低値に到達するまでの時間が、学習処理開始時から学習率が最大値の中間値に到達するまでの時間よりも短くなるように、前記パラメータに基づいて算出される連続曲線で変化する学習率を算出し、
前記連続曲線で変化する学習率に基づいて、更新処理において重みパラメータを更新する際の更新量を制御する、処理を実行させ、
前記パラメータには、
前記学習率が最大値の中間値となるepochと、
epochの乗数と、
前記学習率が最大値の中間値の時点から最低値に到達するまでの減衰の加速率と、
最終のepochでの学習率と、
が含まれる情報処理プログラム。 - ニューラルネットワークを用いて学習処理を行うコンピュータに、
連続曲線の算出に用いるパラメータの入力を受け付け、
学習率が最大値の中間値の時点から最低値に到達するまでの時間が、学習処理開始時から学習率が最大値の中間値に到達するまでの時間よりも短くなるように、前記パラメータに基づいて算出される連続曲線で変化する学習率を算出し、
前記連続曲線で変化する学習率に基づいて、更新処理において重みパラメータを更新する際の更新量を制御する、処理を実行させ、
前記パラメータには、
前記学習率が最大値の中間値となるepochと、
epochの乗数と、
前記学習率が最低値となるepochと、
最終のepochでの学習率と、
が含まれる情報処理プログラム。 - ニューラルネットワークを用いて学習処理を行う情報処理装置の制御方法であって、
連続曲線の算出に用いるパラメータの入力を受け付け、
学習率が最大値の中間値の時点から最低値に到達するまでの時間が、学習処理開始時から学習率が最大値の中間値に到達するまでの時間よりも短くなるように、前記パラメータに基づいて算出される連続曲線で変化する学習率を算出し、
前記連続曲線で変化する学習率に基づいて、更新処理において重みパラメータを更新する際の更新量を制御する、処理をコンピュータが実行し、
前記パラメータには、
前記学習率が最大値の中間値となるepochと、
epochの乗数と、
前記学習率が最大値の中間値の時点から最低値に到達するまでの減衰の加速率と、
最終のepochでの学習率と、
が含まれる制御方法。 - ニューラルネットワークを用いて学習処理を行う情報処理装置の制御方法であって、
連続曲線の算出に用いるパラメータの入力を受け付け、
学習率が最大値の中間値の時点から最低値に到達するまでの時間が、学習処理開始時から学習率が最大値の中間値に到達するまでの時間よりも短くなるように、前記パラメータに基づいて算出される連続曲線で変化する学習率を算出し、
前記連続曲線で変化する学習率に基づいて、更新処理において重みパラメータを更新する際の更新量を制御する、処理をコンピュータが実行し、
前記パラメータには、
前記学習率が最大値の中間値となるepochと、
epochの乗数と、
前記学習率が最低値となるepochと、
最終のepochでの学習率と、
が含まれる制御方法。
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019095469A JP7279507B2 (ja) | 2019-05-21 | 2019-05-21 | 情報処理装置、情報処理プログラム及び制御方法 |
| EP20169584.8A EP3742352A1 (en) | 2019-05-21 | 2020-04-15 | Information processing apparatus, control method, and information processing program |
| US16/852,611 US11455533B2 (en) | 2019-05-21 | 2020-04-20 | Information processing apparatus, control method, and non-transitory computer-readable storage medium for storing information processing program |
| CN202010363229.7A CN111985605A (zh) | 2019-05-21 | 2020-04-30 | 信息处理装置、控制方法和存储信息处理程序的存储介质 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019095469A JP7279507B2 (ja) | 2019-05-21 | 2019-05-21 | 情報処理装置、情報処理プログラム及び制御方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2020190896A JP2020190896A (ja) | 2020-11-26 |
| JP7279507B2 true JP7279507B2 (ja) | 2023-05-23 |
Family
ID=70289667
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019095469A Active JP7279507B2 (ja) | 2019-05-21 | 2019-05-21 | 情報処理装置、情報処理プログラム及び制御方法 |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US11455533B2 (ja) |
| EP (1) | EP3742352A1 (ja) |
| JP (1) | JP7279507B2 (ja) |
| CN (1) | CN111985605A (ja) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7363748B2 (ja) | 2020-11-17 | 2023-10-18 | トヨタ自動車株式会社 | ハイブリッド車両の駆動装置 |
Family Cites Families (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3276035B2 (ja) * | 1994-09-02 | 2002-04-22 | 日本電信電話株式会社 | 神経回路網モデルの逐次型加速化学習方法 |
| JP6620439B2 (ja) | 2015-07-01 | 2019-12-18 | 株式会社リコー | 学習方法、プログラム及び学習装置 |
| JP6643905B2 (ja) | 2016-01-15 | 2020-02-12 | クラリオン株式会社 | 機械学習方法および機械学習装置 |
| CN106295637B (zh) * | 2016-07-29 | 2019-05-03 | 电子科技大学 | 一种基于深度学习与强化学习的车辆识别方法 |
| CN106815971B (zh) * | 2016-12-21 | 2019-11-26 | 西安工程大学 | 一种基于rbf神经网络的滑坡灾害预报方法 |
| US20190095794A1 (en) * | 2017-09-26 | 2019-03-28 | Intel Corporation | Methods and apparatus for training a neural network |
| CN107729992B (zh) * | 2017-10-27 | 2020-12-29 | 深圳市未来媒体技术研究院 | 一种基于反向传播的深度学习方法 |
| CN110033078B (zh) * | 2018-01-12 | 2024-01-12 | 华为技术有限公司 | 一种基于树状拓扑的计算系统及方法 |
| CN108881660B (zh) * | 2018-05-02 | 2021-03-02 | 北京大学 | 一种采用优化初始权重的量子神经网络压缩计算全息图的方法 |
| CN108805264B (zh) * | 2018-05-15 | 2021-08-31 | 哈尔滨理工大学 | 一种基于快速学习率的rbf评估舰载机出动能力的方法 |
| CN110795228B (zh) * | 2018-08-03 | 2023-08-25 | 伊姆西Ip控股有限责任公司 | 用于训练深度学习模型的方法和制品、以及计算系统 |
| WO2020046719A1 (en) * | 2018-08-31 | 2020-03-05 | D5Ai Llc | Self-supervised back propagation for deep learning |
| CN109325495B (zh) * | 2018-09-21 | 2022-04-26 | 南京邮电大学 | 一种基于深度神经网络建模的作物图像分割系统及方法 |
| US11061902B2 (en) * | 2018-10-18 | 2021-07-13 | Oracle International Corporation | Automated configuration parameter tuning for database performance |
| US11836600B2 (en) * | 2020-08-20 | 2023-12-05 | D5Ai Llc | Targeted incremental growth with continual learning in deep neural networks |
-
2019
- 2019-05-21 JP JP2019095469A patent/JP7279507B2/ja active Active
-
2020
- 2020-04-15 EP EP20169584.8A patent/EP3742352A1/en not_active Withdrawn
- 2020-04-20 US US16/852,611 patent/US11455533B2/en active Active
- 2020-04-30 CN CN202010363229.7A patent/CN111985605A/zh active Pending
Non-Patent Citations (1)
| Title |
|---|
| 矢野 正基 外2名,"深層学習を用いた画像識別タスクの精度向上テクニック",電子情報通信学会論文誌D 早期公開論文 2018JDR0001 [online],電子情報通信学会,2018年11月01日,pp.1-2,8-11,[平成30年11月29日 検索], インターネット:<URL:http://search.ieice.org/bin/pdf_advpub.php?category=D&lang=J&fname=2018JDR0001&abst=> <DOI:10.14923/transinfj.2018JDR0001> |
Also Published As
| Publication number | Publication date |
|---|---|
| EP3742352A1 (en) | 2020-11-25 |
| US20200372347A1 (en) | 2020-11-26 |
| JP2020190896A (ja) | 2020-11-26 |
| CN111985605A (zh) | 2020-11-24 |
| US11455533B2 (en) | 2022-09-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6965690B2 (ja) | ニューラルネットワークの処理速度を向上させるための装置及び方法、並びにその応用 | |
| CN112001491B (zh) | 针对处理器确定神经网络架构的搜索方法和装置 | |
| US11907679B2 (en) | Arithmetic operation device using a machine learning model, arithmetic operation method using a machine learning model, and training method of the machine learning model | |
| EP3828776A1 (en) | Program, learning method, and learning apparatus | |
| CN118569344A (zh) | 受存储器限制的神经网络训练 | |
| CN111898752B (zh) | 执行lstm神经网络运算的装置和方法 | |
| CN113888390A (zh) | 特征图处理方法、装置、电子设备和计算机可读介质 | |
| CN113496248A (zh) | 训练计算机实施的模型的方法和设备 | |
| JP7279507B2 (ja) | 情報処理装置、情報処理プログラム及び制御方法 | |
| US11886832B2 (en) | Operation device and operation method | |
| KR102883346B1 (ko) | 호스트 프로세서 및 가속기의 동작 방법 및 이들을 포함한 전자 장치 | |
| KR102833321B1 (ko) | 뉴럴 네트워크에서 컨볼루션 연산을 수행하는 방법 및 장치 | |
| CN115952835A (zh) | 数据处理方法、可读介质和电子设备 | |
| JP7326867B2 (ja) | 情報処理装置、情報処理プログラム及び情報処理方法 | |
| JP7436830B2 (ja) | 学習プログラム、学習方法、および学習装置 | |
| JP2019200657A (ja) | 演算装置及び演算装置の制御方法 | |
| WO2022009449A1 (ja) | 情報処理装置,情報処理方法および情報処理プログラム | |
| US20210089885A1 (en) | Training device and training method | |
| JP7700650B2 (ja) | モデル削減プログラム、装置、及び方法 | |
| EP4125001B1 (en) | Machine learning program, information processing device, and machine learning method | |
| JP2020003860A (ja) | 学習システム、処理装置、処理方法、およびプログラム | |
| JP7570584B1 (ja) | 近似量子フーリエ変換装置、近似量子フーリエ変換方法及び近似量子フーリエ変換プログラム | |
| CN117973468B (zh) | 基于存算架构的神经网络推理方法及相关设备 | |
| US20240346312A1 (en) | Electronic device and controlling method of electronic device | |
| US20250238666A1 (en) | Electronic device and control method thereof |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220208 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221130 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221206 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221221 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230411 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230424 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7279507 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |