JP7181264B2 - 深層学習処理装置、方法、デバイス及び記憶媒体 - Google Patents
深層学習処理装置、方法、デバイス及び記憶媒体 Download PDFInfo
- Publication number
- JP7181264B2 JP7181264B2 JP2020159513A JP2020159513A JP7181264B2 JP 7181264 B2 JP7181264 B2 JP 7181264B2 JP 2020159513 A JP2020159513 A JP 2020159513A JP 2020159513 A JP2020159513 A JP 2020159513A JP 7181264 B2 JP7181264 B2 JP 7181264B2
- Authority
- JP
- Japan
- Prior art keywords
- matrix
- module
- deep learning
- accumulation
- matrices
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/15—Correlation function computation including computation of convolution operations
- G06F17/153—Multidimensional correlation or convolution
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/544—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
- G06F7/5443—Sum of products
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Neurology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Complex Calculations (AREA)
Description
Claims (17)
- 深層学習処理装置であって、
畳込みニューラルネットワーク(CNN)における畳込み層の畳込みカーネルパラメータ値行列と第1の誤差勾配値行列との行列積和演算を実行して、複数の中間行列を得るように構成される、少なくとも一つの行列積和演算モジュールと、
前記複数の中間行列の要素を再整形することなく、前記複数の中間行列を記憶するように構成される、記憶モジュールと、
前記記憶モジュールから前記複数の中間行列を読み出し、前記畳込み層の畳込みスキームに従って並行して前記複数の中間行列に基づく行列累加演算を実行して、前記畳込み層に関する第2の誤差勾配値行列を得るように構成される、複数の行列累加演算モジュールと、を備え、
前記複数の行列累加演算モジュールのうちの少なくとも一つは、
累加される行列における第1の要素と第2の要素とを入力として、前記第1の要素と前記第2の要素とを累加して累加要素を得るように構成される、累加部と、
前記累加要素を前記記憶モジュールに書き込むように構成される、データ書込部と、
前記累加要素をキャッシュするように構成される第1のキャッシュ領域であって、前記記憶モジュールによりも書き込み速度が速くなり、前記累加要素は、前記第1のキャッシュ領域において複数のクロックサイクルキャッシュされる、第1のキャッシュ領域と、
前記累加部による第3の要素と前記累加要素との累加の実行時、前記記憶モジュールから前記累加要素を読み出すことができないと決定したことに応じて、前記第1のキャッシュ領域にキャッシュされた前記累加要素を前記累加部に供給するバイパスモジュールと、
を備える、深層学習処理装置。 - 前記複数の中間行列は、前記畳込み層の入力の複数のチャネルに関連付けられており、前記第2の誤差勾配値行列は、前記複数のチャネルに対応する複数のチャネル行列を有し、
前記複数の行列累加演算モジュールのそれぞれは、
前記複数のチャネルに対応する複数の並行経路のうちの1つにおいて、前記複数の中間行列のうちの、前記複数のチャネルのうちの1つのチャネルに関連する中間行列を累加して、該チャネルに対応する前記チャネル行列を得る、或いは、
毎回の累加時、前記複数の中間行列のうちの1つの中間行列を、前記複数のチャネル行列のうちの1つのチャネル行列についての中間結果に累加する、ように構成される、
請求項1に記載の深層学習処理装置。 - 前記記憶モジュールは、前記第2の誤差勾配値行列を目標記憶位置に記憶するように配置され、前記第2の誤差勾配値行列は、前記行列累加演算の実行前にすべてゼロの初期値を持ち、
前記複数の行列累加演算モジュールは、並行して、前記複数の中間行列と前記目標記憶位置に記憶された前記初期値を持つ前記第2の誤差勾配値行列とを累加するように構成されている、
請求項1に記載の深層学習処理装置。 - 前記記憶モジュールは、オンチップのランダムアクセスメモリを備える、
請求項1記載の深層学習処理装置。 - 前記少なくとも一つの行列積和演算モジュールによる前記行列積和演算において生成された第1の中間演算結果をキャッシュするとともに、前記複数の行列累加演算モジュールによる前記行列累加演算において生成された第2の中間演算結果をキャッシュするように構成される、第2のキャッシュ領域を更に備える、請求項1に記載の深層学習処理装置。
- ベクトル演算モジュールをさらに備え、
前記ベクトル演算モジュールは、
ベクトルレベルの上で、前記第2のキャッシュ領域における前記第1の中間演算結果及び前記第2の中間演算結果を記憶するための記憶領域をゼロ化する処理と、
ベクトルレベルの上で、前記第2の誤差勾配値行列の少なくとも一部として、前記行列累加演算による最終演算結果を、選択的に記憶モジュールに書き込む処理と、
の少なくとも一つの処理を実行するように構成される、
請求項5に記載の深層学習処理装置。 - 汎用処理装置から、前記CNNの前記畳込み層による畳込み逆演算に利用される指令セットを取得し、前記指令セットを解析するように構成される指令処理モジュールと、
解析された前記指令セットに基づいて、前記少なくとも1つの行列積和演算モジュール及び前記行列累加演算モジュールに対する制御信号を生成するように構成される制御信号生成モジュールと、
をさらに備える、請求項1乃至6のいずれか1項に記載の深層学習処理装置。 - 前記少なくとも1つの行列積和演算モジュールは、前記行列積和演算を並行して実行する複数の行列積和演算モジュールである、
請求項1乃至6のいずれか1項に記載の深層学習処理装置。 - 深層学習用処理を実行する方法であって、
深層学習用処理装置の少なくとも1つの行列積和演算モジュールが、畳込みニューラルネットワーク(CNN)における畳込み層の畳込みカーネルパラメータ値行列と第1の誤差勾配値行列との行列積和演算を実行して、複数の中間行列を得るステップと、
前記複数の中間行列の要素を再整形することなく、前記複数の中間行列を記憶するステップと、
記憶モジュールから前記複数の中間行列を読み出すステップと、
深層学習用処理装置の複数の行列累加演算モジュールが、前記畳込み層の畳込みスキームに従って並行して前記複数の中間行列に基づく行列累加演算を実行して、前記畳込み層に関する第2の誤差勾配値行列を得るステップと、を含み、
深層学習用処理装置の複数の行列累加演算モジュールが、前記畳込み層の畳込みスキームに従って並行して前記複数の中間行列に基づく行列累加演算を実行して、前記畳込み層に関する第2の誤差勾配値行列を得るステップは、
深層学習用処理装置の複数の行列累加演算モジュールが、
累加される行列における第1の要素と第2の要素とを累加して累加要素を得ることと、
前記累加要素を前記記憶モジュールに書き込むことと、
前記累加要素を第1のキャッシュ領域にキャッシュすることであって、前記第1のキャッシュ領域は、前記記憶モジュールによりも書き込み速度が速くなり、前記累加要素は、前記第1のキャッシュ領域において複数のクロックサイクルキャッシュされる、ことと、
第3の要素と前記累加要素との累加の実行時、前記記憶モジュールから前記累加要素を読み出すことができないと決定したことに応じて、前記第1のキャッシュ領域にキャッシュされた前記累加要素を前記第3の要素の累加のために供給することと、
を実行することを含む、方法。 - 前記複数の中間行列は、前記畳込み層の入力の複数のチャネルに関連付けられており、前記第2の誤差勾配値行列は、前記複数のチャネルに対応する複数のチャネル行列を有し、
深層学習用処理装置の複数の行列累加演算モジュールが、前記畳込み層の畳込みスキームに従って並行して前記複数の中間行列に基づく行列累加演算を実行して、前記畳込み層に関する第2の誤差勾配値行列を得るステップは、
前記複数の行列累加演算モジュールのそれぞれは、前記複数のチャネルに対応する複数の並行経路のうちの1つにおいて、前記複数の中間行列のうちの、前記複数のチャネルのうちの1つのチャネルに関連する中間行列を累加して、該チャネルに対応する前記チャネル行列を得ること、または、
前記複数の行列累加演算モジュールのそれぞれは、毎回の累加時、前記複数の中間行列のうちの1つの中間行列を、前記複数のチャネル行列のうちの1つのチャネル行列についての中間結果に累加すること、
のうちの少なくとも1つを含む、
請求項9に記載の方法。 - 前記少なくとも一つの行列積和演算モジュールによる前記行列積和演算において生成された第1の中間演算結果をキャッシュするとともに、前記複数の行列累加演算モジュールによる前記行列累加演算において生成された第2の中間演算結果を第2のキャッシュ領域にキャッシュするステップを更に含む、請求項9に記載の方法。
- 前記深層学習用処理装置が、
ベクトルレベルの上で、前記第2のキャッシュ領域における前記第1の中間演算結果及び前記第2の中間演算結果を記憶するための記憶領域をゼロ化する処理と、
ベクトルレベルの上で、前記第2の誤差勾配値行列の少なくとも一部として、前記行列累加演算による最終演算結果を、選択的に記憶モジュールに書き込む処理と、の少なくとも一つの処理を実行する、ことを含む、請求項11に記載の方法。 - 汎用処理装置から、前記CNNの前記畳込み層による畳込み逆演算に利用される指令セットを取得し、前記指令セットを解析するステップと、
解析された前記指令セットに基づいて、前記少なくとも1つの行列積和演算モジュール及び前記行列累加演算モジュールに対する制御信号を生成するステップと、
をさらに含む、請求項9乃至12のいずれか一項に記載の方法。 - 前記少なくとも1つの行列積和演算モジュールは、複数の行列積和演算モジュールである、
前記少なくとも1つの行列積和演算モジュールが、前記行列積和演算を実行させるステップは、
前記複数の行列積和演算モジュールが、前記行列積和演算を並行して実行することを含む、
請求項9乃至12のいずれか一項に記載の方法。 - 電子デバイスであって、
少なくとも1つの請求項1乃至8のいずれか1項に記載の深層学習処理装置と、
少なくとも1つの前記深層学習処理装置とカップリングされ、前記畳込みニューラルネットワークCNNのトレーニングを実行するための指令を前記深層学習処理装置に提供する汎用処理装置と、
を備える、電子デバイス。 - コンピュータプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記コンピュータプログラムがプロセッサにより実行されると、請求項9~14のいずれか1項に記載の方法を実現させるコンピュータ読み取り可能な記録媒体。 - プロセッサにより実行されると、請求項9~14のいずれか1項に記載の方法を実現させるコンピュータプログラム。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202010080940.1 | 2020-02-05 | ||
| CN202010080940.1A CN113222101B (zh) | 2020-02-05 | 2020-02-05 | 深度学习处理装置、方法、设备和存储介质 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2021140733A JP2021140733A (ja) | 2021-09-16 |
| JP7181264B2 true JP7181264B2 (ja) | 2022-11-30 |
Family
ID=72517149
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020159513A Active JP7181264B2 (ja) | 2020-02-05 | 2020-09-24 | 深層学習処理装置、方法、デバイス及び記憶媒体 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US12141228B2 (ja) |
| EP (1) | EP3862928B1 (ja) |
| JP (1) | JP7181264B2 (ja) |
| KR (1) | KR102642849B1 (ja) |
| CN (1) | CN113222101B (ja) |
Families Citing this family (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10671349B2 (en) * | 2017-07-24 | 2020-06-02 | Tesla, Inc. | Accelerated mathematical engine |
| KR102065672B1 (ko) * | 2018-03-27 | 2020-01-13 | 에스케이텔레콤 주식회사 | 합성곱 연산을 위한 장치 및 방법 |
| CN113469350B (zh) * | 2021-07-07 | 2023-03-24 | 武汉魅瞳科技有限公司 | 一种适于npu的深度卷积神经网络加速方法和系统 |
| KR102395744B1 (ko) * | 2021-09-16 | 2022-05-09 | 오픈엣지테크놀로지 주식회사 | 데이터 스케일을 고려한 덧셈 연산 방법 및 이를 위한 하드웨어 가속기, 이를 이용한 컴퓨팅 장치 |
| CN114546914B (zh) * | 2022-02-23 | 2024-04-26 | 北京奕斯伟计算技术股份有限公司 | 用于对多个通道信息执行数据处理的处理装置及系统 |
| CN114565090A (zh) * | 2022-02-28 | 2022-05-31 | 上海阵量智能科技有限公司 | 数据处理电路、方法、存储介质、芯片及电子设备 |
| WO2024010437A1 (ko) | 2022-07-08 | 2024-01-11 | 주식회사 딥엑스 | 신경 프로세싱 유닛 및 이의 동작 방법 |
| JP7677266B2 (ja) * | 2022-07-20 | 2025-05-15 | Jfeスチール株式会社 | 冷間圧延機の圧延条件設定方法、冷間圧延方法、鋼板の製造方法、冷間圧延機の圧延条件設定装置および冷間圧延機 |
| CN115981594B (zh) * | 2023-03-20 | 2023-06-06 | 国仪量子(合肥)技术有限公司 | 数据累加处理方法、装置、fpga芯片和介质 |
| CN116629321B (zh) * | 2023-07-24 | 2023-10-03 | 美智纵横科技有限责任公司 | 数据处理方法、语音处理方法、装置、介质及芯片 |
| CN116861149B (zh) * | 2023-09-05 | 2024-01-09 | 之江实验室 | 卷积运算的优化方法、装置及处理器 |
| KR102862199B1 (ko) * | 2023-12-13 | 2025-09-19 | 동국대학교 산학협력단 | 분기 연결 구조를 갖는 soc 추정 장치 및 추정 방법 |
| CN119249052B (zh) * | 2024-09-24 | 2025-09-09 | 鹏城实验室 | 并行计算硬件中矩阵运算的数据处理方法及相关设备 |
| CN119719595B (zh) * | 2025-03-04 | 2025-05-13 | 浪潮电子信息产业股份有限公司 | 数据处理方法、电子设备、介质及计算机程序产品 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018005369A (ja) | 2016-06-29 | 2018-01-11 | 富士通株式会社 | 演算処理装置及び演算処理装置の制御方法 |
| JP2018005420A (ja) | 2016-06-29 | 2018-01-11 | 富士通株式会社 | 情報処理装置、学習ネットワーク学習値算出プログラムおよび学習ネットワーク学習値算出方法 |
| WO2018131409A1 (ja) | 2017-01-13 | 2018-07-19 | Kddi株式会社 | 情報処理方法、情報処理装置及びコンピュータ可読記憶媒体 |
| JP2020013412A (ja) | 2018-07-19 | 2020-01-23 | 富士通株式会社 | 情報処理装置、行列演算方法および行列演算プログラム |
Family Cites Families (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6042274B2 (ja) | 2013-06-28 | 2016-12-14 | 株式会社デンソーアイティーラボラトリ | ニューラルネットワーク最適化方法、ニューラルネットワーク最適化装置及びプログラム |
| CN107341547B (zh) * | 2016-04-29 | 2021-04-20 | 中科寒武纪科技股份有限公司 | 一种用于执行卷积神经网络训练的装置和方法 |
| CN109376861B (zh) | 2016-04-29 | 2020-04-24 | 中科寒武纪科技股份有限公司 | 一种用于执行全连接层神经网络训练的装置和方法 |
| US11055063B2 (en) * | 2016-05-02 | 2021-07-06 | Marvell Asia Pte, Ltd. | Systems and methods for deep learning processor |
| CN107239824A (zh) * | 2016-12-05 | 2017-10-10 | 北京深鉴智能科技有限公司 | 用于实现稀疏卷积神经网络加速器的装置和方法 |
| CN109190756B (zh) * | 2018-09-10 | 2022-02-18 | 中国科学院计算技术研究所 | 基于Winograd卷积的运算装置及包含该装置的神经网络处理器 |
| US11657285B2 (en) * | 2020-07-30 | 2023-05-23 | Xfusion Digital Technologies Co., Ltd. | Methods, systems, and media for random semi-structured row-wise pruning in neural networks |
-
2020
- 2020-02-05 CN CN202010080940.1A patent/CN113222101B/zh active Active
- 2020-09-10 US US17/017,600 patent/US12141228B2/en active Active
- 2020-09-15 EP EP20196107.5A patent/EP3862928B1/en active Active
- 2020-09-18 KR KR1020200120922A patent/KR102642849B1/ko active Active
- 2020-09-24 JP JP2020159513A patent/JP7181264B2/ja active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018005369A (ja) | 2016-06-29 | 2018-01-11 | 富士通株式会社 | 演算処理装置及び演算処理装置の制御方法 |
| JP2018005420A (ja) | 2016-06-29 | 2018-01-11 | 富士通株式会社 | 情報処理装置、学習ネットワーク学習値算出プログラムおよび学習ネットワーク学習値算出方法 |
| WO2018131409A1 (ja) | 2017-01-13 | 2018-07-19 | Kddi株式会社 | 情報処理方法、情報処理装置及びコンピュータ可読記憶媒体 |
| JP2020013412A (ja) | 2018-07-19 | 2020-01-23 | 富士通株式会社 | 情報処理装置、行列演算方法および行列演算プログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| EP3862928A1 (en) | 2021-08-11 |
| EP3862928B1 (en) | 2024-08-07 |
| KR102642849B1 (ko) | 2024-03-04 |
| KR20210099991A (ko) | 2021-08-13 |
| CN113222101A (zh) | 2021-08-06 |
| US20210241095A1 (en) | 2021-08-05 |
| US12141228B2 (en) | 2024-11-12 |
| JP2021140733A (ja) | 2021-09-16 |
| CN113222101B (zh) | 2025-04-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7181264B2 (ja) | 深層学習処理装置、方法、デバイス及び記憶媒体 | |
| US11568258B2 (en) | Operation method | |
| CN112840356B (zh) | 运算加速器、处理方法及相关设备 | |
| CN113469350B (zh) | 一种适于npu的深度卷积神经网络加速方法和系统 | |
| US20210150685A1 (en) | Information processing method and terminal device | |
| US20180260709A1 (en) | Calculating device and method for a sparsely connected artificial neural network | |
| EP3944157A1 (en) | Device and method for performing training of convolutional neural network | |
| JP2022533206A (ja) | 手姿勢推定 | |
| JP2020513120A (ja) | ベクトル縮小プロセッサ | |
| CN113392959B (zh) | 一种在计算系统中重构架构的方法及计算系统 | |
| CN112306555B (zh) | 并行提取多个卷积窗中的图像数据的方法、装置、设备以及计算机可读存储介质 | |
| CN114286985B (zh) | 用于预测内核调谐参数的方法和设备 | |
| KR20220028899A (ko) | 가속기, 가속기의 동작 방법 및 이를 포함한 전자 장치 | |
| CN113344183B (zh) | 一种在计算系统中实现卷积运算的方法及计算系统 | |
| CN111831354A (zh) | 数据精度配置方法、装置、芯片、芯片阵列、设备及介质 | |
| CN112732638B (zh) | 基于ctpn网络的异构加速系统及方法 | |
| KR20230123309A (ko) | 프루닝 방법 및 장치 | |
| CN115170381A (zh) | 一种基于深度学习的视觉slam加速系统及方法 | |
| CN114385183A (zh) | 一种数据处理方法、装置、设备及计算机存储介质 | |
| Meng et al. | How to avoid zero-spacing in fractionally-strided convolution? a hardware-algorithm co-design methodology | |
| US20250252076A1 (en) | Systolic array, processing circuit including systolic array, and electronic device | |
| KR102859457B1 (ko) | 다이나믹 컨볼루션 연산 수행 방법 및 장치 | |
| EP4091104B1 (en) | Data interpretation system, vehicle, method for interpreting input data, computer program and computer-readable medium | |
| US20220101110A1 (en) | Persistent weights in training | |
| CN117217269A (zh) | 一种神经网络加速器、加速方法以及装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210604 |
|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20211018 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220531 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220607 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220905 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221115 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221117 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7181264 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |