JP7266065B2 - ディープニューラルネットワーク用のシステム、コンピュータ実装方法及びコンピュータプログラム - Google Patents
ディープニューラルネットワーク用のシステム、コンピュータ実装方法及びコンピュータプログラム Download PDFInfo
- Publication number
- JP7266065B2 JP7266065B2 JP2021097593A JP2021097593A JP7266065B2 JP 7266065 B2 JP7266065 B2 JP 7266065B2 JP 2021097593 A JP2021097593 A JP 2021097593A JP 2021097593 A JP2021097593 A JP 2021097593A JP 7266065 B2 JP7266065 B2 JP 7266065B2
- Authority
- JP
- Japan
- Prior art keywords
- neuron
- neurons
- zero
- input
- computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0495—Quantised networks; Sparse networks; Compressed networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Image Processing (AREA)
- Complex Calculations (AREA)
- Image Analysis (AREA)
- Memory System (AREA)
Description
Claims (33)
- ニューラルネットワークの層を計算するためのシステムであって、前記システムは:
ニューラルネットワークの計算を実行するための1つ以上のユニットであって、各ユニットは1つ以上のサブユニットを有し、
各サブユニットはサイクル毎にただ1つの入力ニューロンを受信するための単一のニューロンレーンを有し、各サブユニットは1つ以上のシナプスのサブレーンを有し、各シナプスのサブレーンはサイクル毎に前記1つの入力ニューロンに適用される1つのフィルタを処理するように構成され、各サブユニットは各フィルタに対応する1つの出力を生成する1つ以上のユニット;および
各出力を受信して出力ニューロンの部分和を生成するように構成された1つ以上の加算器ツリー、
を備えるシステム。 - 前記入力ニューロンはゼロのないニューロンアレイフォーマット(ZFNAf)に記憶されたニューロンアレイに符号化される、請求項1に記載のシステム。
- 前記ZFNAfは動的に生成される、請求項2に記載のシステム。
- 前記入力ニューロンはRAWまたは符号化フォーマットを用いて符号化される、請求項1に記載のシステム。
- 前記入力ニューロンはベクトル非有効活性化識別子フォーマットを用いて符号化される、請求項1に記載のシステム。
- 前記入力ニューロンはベクトル非有効活性化識別子フォーマットの実効値のみを用いて符号化される、請求項1に記載のシステム。
- 少なくとも1つのゼロに近い入力ニューロンの大きさが閾値を下回る場合に、前記少なくとも1つのゼロに近い入力ニューロンをゼロに設定することを特徴とする、請求項1~6のいずれか一項に記載のシステム。
- 前記閾値は勾配降下法を用いて層に対して決定される、請求項7に記載のシステム。
- 前記入力ニューロンは閾値を下回る精度で記憶される、請求項1~8のいずれか一項に記載のシステム。
- 各ニューロンレーンはブリックインタリーブ割当て(brick interleaved assignment)によって入力ニューロンを受信する、請求項1~9のいずれか一項に記載のシステム。
- 前記システムは、閾値を下回る値を選択的にスキップすることによって、前記ニューラルネットワークのバックプロパゲーション訓練をスピードアップさせるためのアクセラレータをさらに備える、請求項1~10のいずれか一項に記載のシステム。
- ニューラルネットワークの層を計算するためのコンピュータ実装方法であって、前記コンピュータ実装方法は:
プロセッサにおいて複数の入力ニューロンを受信する工程a;
サイクル毎に、前記複数の入力ニューロンのうちただ1つに1つ以上のフィルタを適用して、各フィルタに対応する1つの出力を生成する工程b;および
各出力を基に、加算器ツリーを用いて出力ニューロンの部分和を生成する工程c、
を包含するコンピュータ実装方法。 - 前記複数の入力ニューロンのうちの1つはゼロのないニューロンアレイフォーマット(ZFNAf)に記憶されたニューロンアレイにより符号化される、請求項12に記載のコンピュータ実装方法。
- 前記ZFNAfは動的に生成される、請求項13に記載のコンピュータ実装方法。
- 前記複数の入力ニューロンのうちの1つはRAWまたは符号化フォーマットを用いて符号化される、請求項12に記載のコンピュータ実装方法。
- 前記複数の入力ニューロンのうちの1つはベクトル非有効活性化識別子フォーマットを用いて符号化される、請求項12に記載のコンピュータ実装方法。
- 前記複数の入力ニューロンのうちの1つはベクトル非有効活性化識別子フォーマットの実効値のみを用いて符号化される、請求項12に記載のコンピュータ実装方法。
- 少なくとも1つのゼロに近い入力ニューロンの大きさが閾値を下回る場合に、前記少なくとも1つのゼロに近い入力ニューロンをゼロに設定する、請求項12~17のいずれか一項に記載のコンピュータ実装方法。
- 前記閾値は勾配降下法を用いて層に対して決定される、請求項18に記載のコンピュータ実装方法。
- 前記複数の入力ニューロンは閾値を下回る精度で記憶される、請求項13~19のいずれか一項に記載のコンピュータ実装方法。
- 前記複数の入力ニューロンはブリックインタリーブ割当て(brick interleaved assignment)によって受信される、請求項13~20のいずれか一項に記載のコンピュータ実装方法。
- 閾値を下回る値を選択的にスキップすることによって、前記ニューラルネットワークのバックプロパゲーション訓練をスピードアップさせる工程をさらに包含する、請求項12~21のいずれか一項に記載のコンピュータ実装方法。
- プログラム命令を含むコンピュータプログラムであって、前記プログラム命令は、プロセッサに:
複数の入力ニューロンを受信すること;
サイクル毎に、前記複数の入力ニューロンのうちただ1つに対し1つ以上のフィルタを適用し、各フィルタに対応する1つの出力を生成すること;かつ
各出力を基に、加算器ツリーを用いて出力ニューロンの部分和を生成すること、
を実行させることを特徴とするコンピュータプログラム。 - 前記複数の入力ニューロンのうちの1つはゼロのないニューロンアレイフォーマット(ZFNAf)に記憶されたニューロンアレイにより符号化される、請求項23に記載のコンピュータプログラム。
- 前記ZFNAfは動的に生成される、請求項24に記載のコンピュータプログラム。
- 前記複数の入力ニューロンのうちの1つはRAWまたは符号化フォーマットを用いて符号化される、請求項23に記載のコンピュータプログラム。
- 前記複数の入力ニューロンのうちの1つはベクトル非有効活性化識別子フォーマットを用いて符号化される、請求項23に記載のコンピュータプログラム。
- 前記複数の入力ニューロンのうちの1つはベクトル非有効活性化識別子フォーマットの実効値のみを用いて符号化される、請求項23に記載のコンピュータプログラム。
- 前記命令は前記プロセッサに対し、少なくとも1つのゼロに近い入力ニューロンの大きさが閾値を下回る場合に、前記少なくとも1つのゼロに近い入力ニューロンをゼロに設定させることを特徴とする、請求項23~28のいずれか一項に記載のコンピュータプログラム。
- 前記閾値は勾配降下法を用いて層に対して決定される、請求項29に記載のコンピュータプログラム。
- 前記複数の入力ニューロンのうちの1つは閾値を下回る精度で記憶される、請求項23~30のいずれか一項に記載のコンピュータプログラム。
- ブリックインタリーブ割当て(brick interleaved assignment)によって前記複数の入力ニューロンが受信される、請求項23~31のいずれか一項に記載のコンピュータプログラム。
- 前記命令は前記プロセッサに対し、閾値を下回る値を選択的にスキップすることによって、前記入力ニューロン及び前記出力ニューロンを含むニューラルネットワークのバックプロパゲーション訓練をスピードアップさせる、請求項23~32のいずれか一項に記載のコンピュータプログラム。
Applications Claiming Priority (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201662349716P | 2016-06-14 | 2016-06-14 | |
| US62/349,716 | 2016-06-14 | ||
| US201762490712P | 2017-04-27 | 2017-04-27 | |
| US62/490,712 | 2017-04-27 | ||
| JP2018565018A JP6898359B2 (ja) | 2016-06-14 | 2017-06-14 | ディープニューラルネットワーク用のアクセラレータ |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018565018A Division JP6898359B2 (ja) | 2016-06-14 | 2017-06-14 | ディープニューラルネットワーク用のアクセラレータ |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2021144750A JP2021144750A (ja) | 2021-09-24 |
| JP7266065B2 true JP7266065B2 (ja) | 2023-04-27 |
Family
ID=60662974
Family Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018565018A Active JP6898359B2 (ja) | 2016-06-14 | 2017-06-14 | ディープニューラルネットワーク用のアクセラレータ |
| JP2021097593A Active JP7266065B2 (ja) | 2016-06-14 | 2021-06-10 | ディープニューラルネットワーク用のシステム、コンピュータ実装方法及びコンピュータプログラム |
Family Applications Before (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018565018A Active JP6898359B2 (ja) | 2016-06-14 | 2017-06-14 | ディープニューラルネットワーク用のアクセラレータ |
Country Status (7)
| Country | Link |
|---|---|
| US (2) | US11423289B2 (ja) |
| EP (1) | EP3469522A4 (ja) |
| JP (2) | JP6898359B2 (ja) |
| KR (2) | KR102459855B1 (ja) |
| CN (1) | CN109328361B (ja) |
| CA (1) | CA2990712C (ja) |
| WO (1) | WO2017214728A1 (ja) |
Families Citing this family (69)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2017214728A1 (en) * | 2016-06-14 | 2017-12-21 | The Governing Council Of The University Of Toronto | Accelerator for deep neural networks |
| US10891538B2 (en) * | 2016-08-11 | 2021-01-12 | Nvidia Corporation | Sparse convolutional neural network accelerator |
| KR102415506B1 (ko) * | 2016-10-26 | 2022-07-01 | 삼성전자주식회사 | 뉴럴 네트워크 간소화 방법 및 장치 |
| CA3108151C (en) | 2017-02-23 | 2024-02-20 | Cerebras Systems Inc. | Accelerated deep learning |
| EP3620992B1 (en) * | 2017-04-06 | 2024-05-29 | Shanghai Cambricon Information Technology Co., Ltd | Neural network processor and neural network computation method |
| US11475282B2 (en) | 2017-04-17 | 2022-10-18 | Cerebras Systems Inc. | Microthreading for accelerated deep learning |
| US11488004B2 (en) | 2017-04-17 | 2022-11-01 | Cerebras Systems Inc. | Neuron smearing for accelerated deep learning |
| JP6854473B2 (ja) | 2017-04-17 | 2021-04-07 | セレブラス システムズ インク. | 加速化ディープラーニングのデータフロー・トリガー・タスク |
| GB2568776B (en) * | 2017-08-11 | 2020-10-28 | Google Llc | Neural network accelerator with parameters resident on chip |
| US11636327B2 (en) * | 2017-12-29 | 2023-04-25 | Intel Corporation | Machine learning sparse computation mechanism for arbitrary neural networks, arithmetic compute microarchitecture, and sparsity for training mechanism |
| CN108256628B (zh) * | 2018-01-15 | 2020-05-22 | 合肥工业大学 | 基于多播片上网络的卷积神经网络硬件加速器及其工作方法 |
| MY208633A (en) * | 2018-02-16 | 2025-05-21 | Samsung Electronics Co Ltd | Neural network accelerator |
| US20190303757A1 (en) * | 2018-03-29 | 2019-10-03 | Mediatek Inc. | Weight skipping deep learning accelerator |
| US11250326B1 (en) | 2018-04-20 | 2022-02-15 | Perceive Corporation | Splitting neural network filters for implementation by neural network inference circuit |
| US11481612B1 (en) | 2018-04-20 | 2022-10-25 | Perceive Corporation | Storage of input values across multiple cores of neural network inference circuit |
| US11210586B1 (en) | 2018-04-20 | 2021-12-28 | Perceive Corporation | Weight value decoder of neural network inference circuit |
| US11783167B1 (en) | 2018-04-20 | 2023-10-10 | Perceive Corporation | Data transfer for non-dot product computations on neural network inference circuit |
| US11568227B1 (en) | 2018-04-20 | 2023-01-31 | Perceive Corporation | Neural network inference circuit read controller with multiple operational modes |
| US10740434B1 (en) | 2018-04-20 | 2020-08-11 | Perceive Corporation | Reduced dot product computation circuit |
| CN108647774B (zh) * | 2018-04-23 | 2020-11-20 | 瑞芯微电子股份有限公司 | 一种优化稀疏性矩阵运算的神经网络方法和电路 |
| CN112106078B (zh) * | 2018-05-08 | 2024-11-19 | 三星电子株式会社 | 神经网络处理元件 |
| CN109086819B (zh) * | 2018-07-26 | 2023-12-05 | 北京京东尚科信息技术有限公司 | caffemodel模型压缩方法、系统、设备及介质 |
| US12205012B2 (en) * | 2018-08-24 | 2025-01-21 | Samsung Electronics Co., Ltd. | Method of accelerating training process of neural network and neural network device thereof |
| US11328207B2 (en) | 2018-08-28 | 2022-05-10 | Cerebras Systems Inc. | Scaled compute fabric for accelerated deep learning |
| US11321087B2 (en) | 2018-08-29 | 2022-05-03 | Cerebras Systems Inc. | ISA enhancements for accelerated deep learning |
| US11328208B2 (en) | 2018-08-29 | 2022-05-10 | Cerebras Systems Inc. | Processor element redundancy for accelerated deep learning |
| US11586417B2 (en) * | 2018-09-28 | 2023-02-21 | Qualcomm Incorporated | Exploiting activation sparsity in deep neural networks |
| GB2577732B (en) * | 2018-10-04 | 2022-02-23 | Advanced Risc Mach Ltd | Processing data in a convolutional neural network |
| US12165050B2 (en) * | 2018-10-11 | 2024-12-10 | International Business Machines Corporation | Networks for distributing parameters and data to neural network compute cores |
| KR102809535B1 (ko) * | 2018-11-13 | 2025-05-22 | 삼성전자주식회사 | 뉴럴 네트워크를 이용한 데이터 처리 방법 및 이를 지원하는 전자 장치 |
| US11995533B1 (en) | 2018-12-05 | 2024-05-28 | Perceive Corporation | Executing replicated neural network layers on inference circuit |
| WO2020121202A1 (en) * | 2018-12-11 | 2020-06-18 | Mipsology SAS | Realigning streams of neuron outputs in artificial neural network computations |
| KR102556506B1 (ko) * | 2019-01-15 | 2023-07-19 | 한국전자통신연구원 | 뉴로모픽 연산 장치 및 그것의 동작 방법 |
| US11347297B1 (en) | 2019-01-23 | 2022-05-31 | Perceive Corporation | Neural network inference circuit employing dynamic memory sleep |
| US10878321B2 (en) * | 2019-02-28 | 2020-12-29 | DeepCube LTD. | Partial activation of multiple pathways in neural networks |
| US12141678B2 (en) | 2019-02-28 | 2024-11-12 | Nano Dimension Technologies, Ltd. | Partial activation of multiple pathways in neural networks |
| US11379420B2 (en) * | 2019-03-08 | 2022-07-05 | Nvidia Corporation | Decompression techniques for processing compressed data suitable for artificial neural networks |
| KR102746968B1 (ko) * | 2019-03-20 | 2024-12-27 | 에스케이하이닉스 주식회사 | 신경망 가속 장치 및 그것의 동작 방법 |
| US12205006B2 (en) * | 2019-03-26 | 2025-01-21 | Mipsology SAS | Accelerating neuron computations in artificial neural networks by skipping bits |
| US11625585B1 (en) | 2019-05-21 | 2023-04-11 | Perceive Corporation | Compiler for optimizing filter sparsity for neural network implementation configuration |
| WO2021074865A1 (en) | 2019-10-16 | 2021-04-22 | Cerebras Systems Inc. | Basic wavelet filtering for accelerated deep learning |
| US12177133B2 (en) | 2019-10-16 | 2024-12-24 | Cerebras Systems Inc. | Dynamic routing for accelerated deep learning |
| KR20210051920A (ko) | 2019-10-31 | 2021-05-10 | 삼성전자주식회사 | 신경망의 커널들을 정렬하는 전자 장치 및 이의 동작 방법 |
| US12288152B2 (en) | 2020-03-12 | 2025-04-29 | Semiconductor Components Industries, Llc | Neural network weight encoding |
| TWI737228B (zh) | 2020-03-20 | 2021-08-21 | 國立清華大學 | 基於記憶體內運算電路架構之量化方法及其系統 |
| US11551089B2 (en) * | 2020-03-31 | 2023-01-10 | Ati Technologies Ulc | Feature reordering based on sparsity for improved memory compression transfers during machine learning jobs |
| US12361266B2 (en) | 2020-05-14 | 2025-07-15 | Samsung Electronics Co., Ltd. | Hierarchical weight preprocessing for neural network accelerator |
| KR102506794B1 (ko) | 2020-07-17 | 2023-03-06 | 고려대학교 산학협력단 | 심층 신경망 학습 가속 장치 및 그 동작 방법 |
| CN115989505A (zh) | 2020-07-21 | 2023-04-18 | 多伦多大学管理委员会 | 使用稀疏性来加速深度学习网络的系统和方法 |
| KR20220049294A (ko) | 2020-10-14 | 2022-04-21 | 삼성전자주식회사 | 스케줄러, 스케줄러의 동작 방법 및 이를 포함한 전자 장치 |
| US12309552B2 (en) | 2020-10-16 | 2025-05-20 | Starkey Laboratories, Inc. | Hearing device with dynamic neural networks for sound enhancement |
| US11861327B2 (en) * | 2020-11-11 | 2024-01-02 | Samsung Electronics Co., Ltd. | Processor for fine-grain sparse integer and floating-point operations |
| US12455995B2 (en) * | 2020-12-10 | 2025-10-28 | Memryx Incorporated | Chiplet based artificial intelligence accelerators and configuration methods |
| US20220197634A1 (en) * | 2020-12-21 | 2022-06-23 | Intel Corporation | Efficient divide and accumulate instruction when an operand is equal to or near a power of two |
| US12118057B2 (en) | 2021-01-14 | 2024-10-15 | Microsoft Technology Licensing, Llc | Computing partial matrices at hardware accelerator |
| CN114781626B (zh) * | 2021-01-21 | 2025-09-16 | 创惟科技股份有限公司 | 运算电路、数据处理方法和计算机可读取存储媒体 |
| KR102644702B1 (ko) * | 2021-02-08 | 2024-03-06 | 한양대학교 산학협력단 | 컨볼루션 신경망 가속 방법 및 장치 |
| CN113128681B (zh) * | 2021-04-08 | 2023-05-12 | 天津大学 | 一种多边缘设备辅助的通用cnn推理加速系统 |
| US12217160B1 (en) | 2021-04-23 | 2025-02-04 | Amazon Technologies, Inc. | Allocating blocks of unified memory for integrated circuit executing neural network |
| JP2022178980A (ja) | 2021-05-21 | 2022-12-02 | 富士通株式会社 | 機械学習プログラム、機械学習方法および情報処理装置 |
| US20230053294A1 (en) * | 2021-08-13 | 2023-02-16 | Taiwan Semiconductor Manufacturing Co., Ltd. | Bitwise product-sum accumulations with skip logic |
| US11694733B2 (en) | 2021-08-19 | 2023-07-04 | Apple Inc. | Acceleration of in-memory-compute arrays |
| US12189454B2 (en) | 2021-10-04 | 2025-01-07 | International Business Machines Corporation | Deployment and management of energy efficient deep neural network models on edge inference computing devices |
| KR102700292B1 (ko) * | 2021-11-26 | 2024-08-29 | 건국대학교 산학협력단 | 신경망 가속기의 통신 특성을 동적으로 재구성하는 프로세서 장치, 및 그의 구동 방법 |
| CN114911492B (zh) * | 2022-05-17 | 2024-03-08 | 北京百度网讯科技有限公司 | 推理服务部署方法、装置、设备以及存储介质 |
| GB2621383B (en) * | 2022-08-11 | 2025-07-23 | Advanced Risc Mach Ltd | Mechanism for neural network processing unit skipping |
| CN115440226A (zh) * | 2022-09-20 | 2022-12-06 | 南京大学 | 基于脉冲神经网络的应用于语音关键字识别的低功耗系统 |
| KR102590099B1 (ko) * | 2023-05-26 | 2023-10-17 | 리벨리온 주식회사 | 기계학습 모델 연산 제어 방법 및 시스템 |
| KR102843225B1 (ko) * | 2023-08-31 | 2025-08-06 | 고려대학교 산학협력단 | 빈도 코딩 기반의 스파이킹 뉴럴 네트워크의 추론 가속 장치 및 그 동작 방법 |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20110029471A1 (en) | 2009-07-30 | 2011-02-03 | Nec Laboratories America, Inc. | Dynamically configurable, multi-ported co-processor for convolutional neural networks |
Family Cites Families (21)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5740270A (en) | 1988-04-08 | 1998-04-14 | Neuromedical Systems, Inc. | Automated cytological specimen classification system and method |
| JPH0748207B2 (ja) * | 1989-04-14 | 1995-05-24 | シャープ株式会社 | 行列演算装置 |
| FR2664072A1 (fr) * | 1990-06-29 | 1992-01-03 | Thomson Csf | Systeme de calcul neuronal. |
| JPH08315141A (ja) | 1995-05-15 | 1996-11-29 | Mitsubishi Electric Corp | 画像認識装置 |
| US6658554B1 (en) * | 1999-03-09 | 2003-12-02 | Wisconsin Alumni Res Found | Electronic processor providing direct data transfer between linked data consuming instructions |
| JP4620943B2 (ja) * | 2003-10-16 | 2011-01-26 | キヤノン株式会社 | 積和演算回路及びその方法 |
| US8275727B2 (en) * | 2009-11-13 | 2012-09-25 | International Business Machines Corporation | Hardware analog-digital neural networks |
| US8311965B2 (en) * | 2009-11-18 | 2012-11-13 | International Business Machines Corporation | Area efficient neuromorphic circuits using field effect transistors (FET) and variable resistance material |
| US8315305B2 (en) * | 2010-03-26 | 2012-11-20 | Brain Corporation | Systems and methods for invariant pulse latency coding |
| US8510239B2 (en) * | 2010-10-29 | 2013-08-13 | International Business Machines Corporation | Compact cognitive synaptic computing circuits with crossbar arrays spatially in a staggered pattern |
| US8812414B2 (en) * | 2011-05-31 | 2014-08-19 | International Business Machines Corporation | Low-power event-driven neural computing architecture in neural networks |
| US9373073B2 (en) * | 2012-12-21 | 2016-06-21 | International Business Machines Corporation | Time-division multiplexed neurosynaptic module with implicit memory addressing for implementing a universal substrate of adaptation |
| US9262712B2 (en) * | 2013-03-08 | 2016-02-16 | International Business Machines Corporation | Structural descriptions for neurosynaptic networks |
| US10248675B2 (en) * | 2013-10-16 | 2019-04-02 | University Of Tennessee Research Foundation | Method and apparatus for providing real-time monitoring of an artifical neural network |
| US10255547B2 (en) * | 2014-12-04 | 2019-04-09 | Nvidia Corporation | Indirectly accessing sample data to perform multi-convolution operations in a parallel processing system |
| CN104915322B (zh) * | 2015-06-09 | 2018-05-01 | 中国人民解放军国防科学技术大学 | 一种卷积神经网络硬件加速方法 |
| CN105488565A (zh) * | 2015-11-17 | 2016-04-13 | 中国科学院计算技术研究所 | 加速深度神经网络算法的加速芯片的运算装置及方法 |
| US20170193361A1 (en) * | 2015-12-31 | 2017-07-06 | Microsoft Technology Licensing, Llc | Neural network training performance optimization framework |
| US11170294B2 (en) * | 2016-01-07 | 2021-11-09 | Intel Corporation | Hardware accelerated machine learning |
| WO2017214728A1 (en) * | 2016-06-14 | 2017-12-21 | The Governing Council Of The University Of Toronto | Accelerator for deep neural networks |
| US10175980B2 (en) * | 2016-10-27 | 2019-01-08 | Google Llc | Neural network compute tile |
-
2017
- 2017-06-14 WO PCT/CA2017/050731 patent/WO2017214728A1/en not_active Ceased
- 2017-06-14 JP JP2018565018A patent/JP6898359B2/ja active Active
- 2017-06-14 EP EP17812360.0A patent/EP3469522A4/en active Pending
- 2017-06-14 US US16/314,422 patent/US11423289B2/en active Active
- 2017-06-14 KR KR1020207015811A patent/KR102459855B1/ko active Active
- 2017-06-14 CN CN201780036696.5A patent/CN109328361B/zh active Active
- 2017-06-14 KR KR1020187036799A patent/KR102120395B1/ko active Active
- 2017-06-14 CA CA2990712A patent/CA2990712C/en active Active
-
2021
- 2021-06-10 JP JP2021097593A patent/JP7266065B2/ja active Active
-
2022
- 2022-06-22 US US17/846,837 patent/US20220327367A1/en active Pending
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20110029471A1 (en) | 2009-07-30 | 2011-02-03 | Nec Laboratories America, Inc. | Dynamically configurable, multi-ported co-processor for convolutional neural networks |
Also Published As
| Publication number | Publication date |
|---|---|
| EP3469522A4 (en) | 2020-03-18 |
| KR20200067916A (ko) | 2020-06-12 |
| EP3469522A1 (en) | 2019-04-17 |
| KR20190019081A (ko) | 2019-02-26 |
| US20190205740A1 (en) | 2019-07-04 |
| KR102120395B1 (ko) | 2020-06-08 |
| CN109328361A (zh) | 2019-02-12 |
| JP2019522850A (ja) | 2019-08-15 |
| US11423289B2 (en) | 2022-08-23 |
| JP2021144750A (ja) | 2021-09-24 |
| CN109328361B (zh) | 2020-03-27 |
| US20220327367A1 (en) | 2022-10-13 |
| CA2990712A1 (en) | 2017-12-21 |
| KR102459855B1 (ko) | 2022-10-27 |
| JP6898359B2 (ja) | 2021-07-07 |
| WO2017214728A1 (en) | 2017-12-21 |
| CA2990712C (en) | 2018-09-04 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7266065B2 (ja) | ディープニューラルネットワーク用のシステム、コンピュータ実装方法及びコンピュータプログラム | |
| Deng et al. | GoSPA: An energy-efficient high-performance globally optimized sparse convolutional neural network accelerator | |
| Zhang et al. | BoostGCN: A framework for optimizing GCN inference on FPGA | |
| Zhang et al. | Hardware acceleration of large scale GCN inference | |
| CN107239829B (zh) | 一种优化人工神经网络的方法 | |
| Albericio et al. | Cnvlutin: Ineffectual-neuron-free deep neural network computing | |
| Venkataramanaiah et al. | Automatic compiler based FPGA accelerator for CNN training | |
| Kara et al. | FPGA-accelerated dense linear machine learning: A precision-convergence trade-off | |
| US11763156B2 (en) | Neural network compression based on bank-balanced sparsity | |
| CN107657263A (zh) | 一种用于实现ann的深度处理单元 | |
| WO2022016261A1 (en) | System and method for accelerating training of deep learning networks | |
| Hong et al. | Multi-dimensional parallel training of winograd layer on memory-centric architecture | |
| CN114265673A (zh) | 利用共享控制的计算阵列的空间分片 | |
| Gurevin et al. | Prunegnn: Algorithm-architecture pruning framework for graph neural network acceleration | |
| Nair et al. | Fpga acceleration of gcn in light of the symmetry of graph adjacency matrix | |
| Lai et al. | Enhancing utilization of SIMD-like accelerator for sparse convolutional neural networks | |
| Hanif et al. | Resistive crossbar-aware neural network design and optimization | |
| Niu et al. | SPEC2: Spectral sparse CNN accelerator on FPGAs | |
| Liu et al. | SoBS-X: Squeeze-out bit sparsity for ReRAM-crossbar-based neural network accelerator | |
| Zhou et al. | A customized NoC architecture to enable highly localized computing-on-the-move DNN dataflow | |
| Jiang et al. | Groupq: Group-wise quantization with multi-objective optimization for cnn accelerators | |
| CN111860797A (zh) | 运算装置 | |
| Que | Reconfigurable acceleration of recurrent neural networks | |
| Abillama et al. | Sona: An accelerator for transform-domain neural networks with sparse-orthogonal weights | |
| He et al. | Research on Efficient CNN Acceleration Through Mixed Precision Quantization: A Comprehensive Methodology. |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210709 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210709 |
|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20210816 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220620 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220628 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220922 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221220 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230315 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230322 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230417 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7266065 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |