JP7708381B2 - ニューラルネットワークを具現化する装置及びその動作方法 - Google Patents
ニューラルネットワークを具現化する装置及びその動作方法Info
- Publication number
- JP7708381B2 JP7708381B2 JP2021094973A JP2021094973A JP7708381B2 JP 7708381 B2 JP7708381 B2 JP 7708381B2 JP 2021094973 A JP2021094973 A JP 2021094973A JP 2021094973 A JP2021094973 A JP 2021094973A JP 7708381 B2 JP7708381 B2 JP 7708381B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- processor
- feature map
- input
- neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
- G06N3/065—Analogue means
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/15—Correlation function computation including computation of convolution operations
- G06F17/153—Multidimensional correlation or convolution
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/30003—Arrangements for executing specific machine instructions
- G06F9/30007—Arrangements for executing specific machine instructions to perform operations on data operands
- G06F9/30036—Instructions to perform operations on packed data, e.g. vector, tile or matrix operations
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0495—Quantised networks; Sparse networks; Compressed networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Description
該ニューラルモルフィック装置は、入力フィーチャマップ410のピクセルを提供され、該ニューラルモルフィック装置のクロスバーアレイ回路400は、RCAによっても具現化される。
一方、初期加重値の絶対値の平均値Sm 860は、前記式6のように、バッチ正規化演算に含めることができるので(MmXαm)、モデルパラメータがさらに生ぜす、モデルサイズ節減に損失がなく、また演算量節減にも損失が生じない。すなわち、式2と比較したとき、式6においては、別途のパラメータ、及び別途の手続きが追加されずに演算が行われ得ることを確認することができる。
メモリ1020は、入力フィーチャマップ、その他実数パラメータ、モデル構造定義変数などを保存することができる。図9のニューラルネットワーク装置900とは異なり、バイナリ加重値は、メモリ1020ではなく、オンチップメモリ1040に保存されるが、詳細な内容は、後述する。
プロセッサ1410は、クロスバーアレイ回路ユニットに適用される加重値を、クロスバーアレイ回路ユニットに含まれるシナプス回路に保存することができる。該シナプス回路に保存された加重値は、コンダクタンスでもある。また、プロセッサ1410は、入力値と、シナプス回路に保存されたカーネル値との乗算演算を行うことにより、クロスバーアレイ回路ユニットの出力値を算出することができる。
11 生物学的ニューロンの数学的モデル
210 入力ノード
220 ニューラル回路
400,1042 クロスバーアレイ回路
410 入力フィーチャマップ
420 DAC
430 ADC
440 活性化ユニット
500 ニューラルネットワーク
601 入力レイヤ
602 出力レイヤ
810 入力アクティベーション
820 時間ドメインバイナリベクトル
830 バイナリ加重値
840 中間アクティベーション
850 個数T
860 平均値Sm
870 出力アクティベーションOM
900,1300 ニューラルネットワーク装置
910 外部入力装置
920,1020,1320 メモリ
930,1030 時間ドメインバイナリベクトル生成部
940 コンボリューション演算部
950,1050 ニューラル演算部
1000,1400 ニューロモルフィック装置
1010 入力受信部
1040,1420 オンチップメモリ
1041 入力部
1043 出力部
1310,1410 プロセッサ
1430 外部メモリ
Claims (18)
- ニューラルネットワークを具現化するニューラルモルフィック装置であって、
少なくとも1つのプログラムが保存されたメモリと、
クロスバーアレイ回路を含むオンチップメモリと、
前記少なくとも1つのプログラムを実行することにより、ニューラルネットワークを駆動する少なくとも1つのプロセッサと、を含み、
前記少なくとも1つのプロセッサは、
初期重み値の最大値および最小値に基づいて、前記初期重み値から変換されたバイナリ加重値を、前記クロスバーアレイ回路に含まれるシナプス回路に保存し、
前記メモリから入力フィーチャマップを獲得し、
前記入力フィーチャマップのアクティベーションそれぞれが、N個の量子化レベルのうちいずれの量子化レベルに属するかに基づき、前記アクティベーションそれぞれを、正のエレメントおよび負のエレメントの少なくとも一方を含むエレメントのシーケンスとして表現する時間ドメインバイナリベクトルに変換し(Nは自然数)、
前記時間ドメインバイナリベクトルを、前記クロスバーアレイ回路の入力値として提供し、
前記バイナリ加重値と前記時間ドメインバイナリベクトルとのコンボリューション演算を行うことにより、出力フィーチャマップを出力する、
ニューラルモルフィック装置。 - 前記少なくとも1つのプロセッサは、
前記コンボリューション演算結果に対してバッチ正規化を行うことにより、出力フィーチャマップを出力する、
請求項1に記載のニューラルモルフィック装置。 - 前記少なくとも1つのプロセッサは、
前記バッチ正規化の初期スケール値に対し、初期加重値の絶対値の平均値を乗じ、前記時間ドメインバイナリベクトルそれぞれに含まれたエレメントの個数で除することにより、修正スケール値を算出し、
前記修正スケール値に基づき、前記バッチ正規化を行う、
請求項2に記載のニューラルモルフィック装置。 - 前記少なくとも1つのプロセッサは、
前記ニューラルネットワークに入力可能な最大値と最小値との範囲をN個の量子化レベルに区分する(Nは自然数)、
請求項1に記載のニューラルモルフィック装置。 - 前記少なくとも1つのプロセッサは、
前記ニューラルネットワークに入力可能な最大値と最小値との範囲を、非線形的な量子化レベルに区分する、
請求項4に記載のニューラルモルフィック装置。 - 前記少なくとも1つのプロセッサは、
前記ニューラルネットワークに適用されるバイアス値それぞれに、前記初期スケール値を乗じる乗算演算を行い、
前記乗算演算結果を前記出力フィーチャマップに反映させる、
請求項3に記載のニューラルモルフィック装置。 - 前記少なくとも1つのプロセッサは、
前記コンボリューション演算結果に対して前記バッチ正規化を行い、
前記バッチ正規化の遂行結果について活性化関数を適用することにより、出力フィーチャマップを出力する、
請求項3に記載のニューラルモルフィック装置。 - ニューラルネットワークを具現化するニューラルネットワーク装置であって、
少なくとも1つのプログラムが保存されたメモリと、
前記少なくとも1つのプログラムを実行することにより、ニューラルネットワークを駆動する少なくとも1つのプロセッサと、を含み、
前記少なくとも1つのプロセッサは、
初期重み値の最大値および最小値に基づいて、前記初期重み値から変換されたバイナリ加重値及び入力フィーチャマップを前記メモリから獲得し、
前記入力フィーチャマップのアクティベーションそれぞれが、N個の量子化レベルのうちいずれの量子化レベルに属するかに基づき、前記アクティベーションそれぞれを、正のエレメントおよび負のエレメントの少なくとも一方を含むエレメントのシーケンスとして表現する時間ドメインバイナリベクトルに変換し(Nは自然数)、
前記バイナリ加重値と前記時間ドメインバイナリベクトルとのコンボリューション演算を行うことにより、出力フィーチャマップを出力する、
ニューラルネットワーク装置。 - 前記少なくとも1つのプロセッサは、
前記コンボリューション演算結果に対してバッチ正規化を行うことにより、出力フィーチャマップを出力する、
請求項8に記載のニューラルネットワーク装置。 - 前記少なくとも1つのプロセッサは、
前記バッチ正規化の初期スケール値に対して、初期加重値の絶対値の平均値を乗じ、前記時間ドメインバイナリベクトルそれぞれに含まれたエレメントの個数で除することにより、修正スケール値を算出し、
前記修正スケール値に基づき、前記バッチ正規化を行う、
請求項9に記載のニューラルネットワーク装置。 - 前記少なくとも1つのプロセッサは、
前記ニューラルネットワークに入力可能な最大値と最小値との範囲をN個の量子化レベルに区分する(Nは自然数)、
請求項8に記載のニューラルネットワーク装置。 - 前記少なくとも1つのプロセッサは、
前記ニューラルネットワークに入力可能な最大値と最小値との範囲を、非線形的な量子化レベルに区分する、
請求項11に記載のニューラルネットワーク装置。 - 前記少なくとも1つのプロセッサは、
前記ニューラルネットワークに適用されるバイアス値それぞれに、前記初期スケール値を乗じる乗算演算を行い、
前記乗算演算結果を前記出力フィーチャマップに反映させる、
請求項10に記載のニューラルネットワーク装置。 - 前記少なくとも1つのプロセッサは、
前記コンボリューション演算結果に対して前記バッチ正規化を行い、前記バッチ正規化の遂行結果について活性化関数を適用することにより、出力フィーチャマップを出力する、
請求項10に記載のニューラルネットワーク装置。 - ニューラルモルフィック装置において、ニューラルネットワークを具現化する方法であって、
前記ニューラルモルフィック装置に備えられたプロセッサの制御下で、初期重み値の最大値および最小値に基づいて、前記初期重み値から変換されたバイナリ加重値をクロスバーアレイ回路に含まれるシナプス回路に保存する段階と、
前記プロセッサで、メモリから入力フィーチャマップを獲得する段階と、
前記プロセッサの制御下で、前記入力フィーチャマップのアクティベーションそれぞれが、N個の量子化レベルのうちいずれの量子化レベルに属するかに基づき、前記アクティベーションそれぞれを、正のエレメントおよび負のエレメントの少なくとも一方を含むエレメントのシーケンスとして表現する時間ドメインバイナリベクトルに変換する段階と(Nは自然数)、
前記プロセッサの制御下で、前記時間ドメインバイナリベクトルを、前記クロスバーアレイ回路の入力値として提供する段階と、
前記プロセッサの制御下で、前記バイナリ加重値と前記時間ドメインバイナリベクトルとのコンボリューション演算を行うことにより、出力フィーチャマップを出力する段階と、
を含む、方法。 - ニューラルネットワーク装置において、ニューラルネットワークを具現化する方法であって、
前記ニューラルネットワーク装置に備えられたプロセッサの制御下で、初期重み値の最大値および最小値に基づいて、前記初期重み値から変換されたバイナリ加重値及び入力フィーチャマップをメモリから獲得する段階と、
前記プロセッサの制御下で、前記入力フィーチャマップのアクティベーションそれぞれが、N個の量子化レベルのうちいずれの量子化レベルに属するかに基づき、前記アクティベーションそれぞれを、正のエレメントおよび負のエレメントの少なくとも一方を含むエレメントのシーケンスとして表現する時間ドメインバイナリベクトルに変換する段階と(Nは自然数)、
前記プロセッサの制御下で、前記バイナリ加重値と前記時間ドメインバイナリベクトルとのコンボリューション演算を行うことにより、出力フィーチャマップを出力する段階と、
を含む、方法。 - プログラムを記録したコンピュータで読み取り可能な記録媒体であって、
前記コンピュータのプロセッサにより前記プログラムが実行されると、請求項15に記載の方法を前記コンピュータに実施させる、
コンピュータで読み取り可能な記録媒体。 - プログラムを記録したコンピュータで読み取り可能な記録媒体であって、
前記コンピュータのプロセッサにより前記プログラムが実行されると、請求項16に記載の方法を前記コンピュータにじっしさせる、
コンピュータで読み取り可能な記録媒体。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR10-2020-0069100 | 2020-06-08 | ||
| KR1020200069100A KR20210152244A (ko) | 2020-06-08 | 2020-06-08 | 뉴럴 네트워크를 구현하는 장치 및 그 동작 방법 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2021193565A JP2021193565A (ja) | 2021-12-23 |
| JP7708381B2 true JP7708381B2 (ja) | 2025-07-15 |
Family
ID=74285407
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021094973A Active JP7708381B2 (ja) | 2020-06-08 | 2021-06-07 | ニューラルネットワークを具現化する装置及びその動作方法 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US20210383203A1 (ja) |
| EP (1) | EP3923201A1 (ja) |
| JP (1) | JP7708381B2 (ja) |
| KR (1) | KR20210152244A (ja) |
| CN (1) | CN113837371A (ja) |
Families Citing this family (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102021118734A1 (de) * | 2020-07-22 | 2022-01-27 | Honda Motor Co., Ltd. | Bild-Identifikationsvorrichtung, Verfahren zum Durchführen einer semantischen Segregation und Programm |
| TWI783854B (zh) * | 2021-03-17 | 2022-11-11 | 神盾股份有限公司 | 乘積和運算裝置 |
| KR102722598B1 (ko) * | 2021-10-14 | 2024-10-25 | 한국항공대학교산학협력단 | 이진화 컨볼루션 신경망의 공간적 인접성을 이용한 연산 속도 향상 장치 및 방법 |
| CN114925018B (zh) * | 2022-07-22 | 2022-10-21 | 中科声龙科技发展(北京)有限公司 | 片上交叉开关系统及芯片 |
| KR102627460B1 (ko) * | 2022-10-28 | 2024-01-23 | 주식회사 페블스퀘어 | 뉴럴 네트워크를 구현하는 뉴로모픽 장치 및 그 동작 방법 |
| WO2025105918A1 (ko) * | 2023-11-16 | 2025-05-22 | 주식회사 템퍼스 | 컨볼루션 신경망을 구현하기 위한 신경망 아날로그 연산 시스템 |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018092377A (ja) | 2016-12-02 | 2018-06-14 | 国立大学法人東京工業大学 | ニューラルネットワーク回路装置、ニューラルネットワーク、ニューラルネットワーク処理方法およびニューラルネットワークの実行プログラム |
| US20190102359A1 (en) | 2018-09-28 | 2019-04-04 | Intel Corporation | Binary, ternary and bit serial compute-in-memory circuits |
| JP2019160319A (ja) | 2018-03-09 | 2019-09-19 | キヤノン株式会社 | 多階層ニューラルネットワークモデルを最適化して適用する方法及び装置、及び記憶媒体 |
| US20190286953A1 (en) | 2016-04-14 | 2019-09-19 | XNOR.ai, Inc. | System and Methods for Efficiently Implementing a Convolutional Neural Network Incorporating Binarized Filter and Convolution Operation for Performing Image Classification |
| US20190347550A1 (en) | 2018-05-14 | 2019-11-14 | Samsung Electronics Co., Ltd. | Method and apparatus with neural network parameter quantization |
| JP2020514886A (ja) | 2017-03-01 | 2020-05-21 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 抵抗型処理ユニットアレイ、抵抗型処理ユニットアレイを形成する方法およびヒステリシス動作のための方法 |
| WO2020100393A1 (ja) | 2018-11-15 | 2020-05-22 | LeapMind株式会社 | ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、およびニューラルネットワーク処理プログラム |
Family Cites Families (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8515885B2 (en) * | 2010-10-29 | 2013-08-20 | International Business Machines Corporation | Neuromorphic and synaptronic spiking neural network with synaptic weights learned using simulation |
| US9984323B2 (en) * | 2015-03-26 | 2018-05-29 | International Business Machines Corporation | Compositional prototypes for scalable neurosynaptic networks |
| US10678508B2 (en) * | 2018-03-23 | 2020-06-09 | Amazon Technologies, Inc. | Accelerated quantized multiply-and-add operations |
| US12111878B2 (en) * | 2018-10-12 | 2024-10-08 | International Business Machines Corporation | Efficient processing of convolutional neural network layers using analog-memory-based hardware |
| JP6694177B2 (ja) * | 2018-10-30 | 2020-05-13 | 嶋田 隆一 | 直流遮断装置 |
| CN110390351B (zh) * | 2019-06-24 | 2020-07-24 | 浙江大学 | 一种基于深度学习的致痫灶三维自动定位系统 |
| CN110842915B (zh) * | 2019-10-18 | 2021-11-23 | 南京大学 | 一种基于忆阻交叉阵列的机器人控制系统及方法 |
| US11714999B2 (en) * | 2019-11-15 | 2023-08-01 | International Business Machines Corporation | Neuromorphic device with crossbar array structure storing both weights and neuronal states of neural networks |
| KR102577326B1 (ko) * | 2020-03-30 | 2023-09-13 | 한국전자통신연구원 | 온-디바이스 양자화기를 포함하는 신경망 연산 장치, 신경망 연산 장치의 동작 방법, 그리고 신경망 연산 장치를 포함하는 컴퓨팅 장치 |
| WO2021210527A1 (ja) * | 2020-04-13 | 2021-10-21 | LeapMind株式会社 | ニューラルネットワーク回路の制御方法 |
| US11038520B1 (en) * | 2020-04-15 | 2021-06-15 | International Business Machines Corporation | Analog-to-digital conversion with reconfigurable function mapping for neural networks activation function acceleration |
| CN115699020A (zh) * | 2020-06-05 | 2023-02-03 | 华为技术有限公司 | 用于神经网络的量化 |
-
2020
- 2020-06-08 KR KR1020200069100A patent/KR20210152244A/ko active Pending
- 2020-10-30 US US17/085,300 patent/US20210383203A1/en active Pending
- 2020-12-04 CN CN202011409845.8A patent/CN113837371A/zh active Pending
-
2021
- 2021-01-27 EP EP21153747.7A patent/EP3923201A1/en active Pending
- 2021-06-07 JP JP2021094973A patent/JP7708381B2/ja active Active
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20190286953A1 (en) | 2016-04-14 | 2019-09-19 | XNOR.ai, Inc. | System and Methods for Efficiently Implementing a Convolutional Neural Network Incorporating Binarized Filter and Convolution Operation for Performing Image Classification |
| JP2018092377A (ja) | 2016-12-02 | 2018-06-14 | 国立大学法人東京工業大学 | ニューラルネットワーク回路装置、ニューラルネットワーク、ニューラルネットワーク処理方法およびニューラルネットワークの実行プログラム |
| JP2020514886A (ja) | 2017-03-01 | 2020-05-21 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 抵抗型処理ユニットアレイ、抵抗型処理ユニットアレイを形成する方法およびヒステリシス動作のための方法 |
| JP2019160319A (ja) | 2018-03-09 | 2019-09-19 | キヤノン株式会社 | 多階層ニューラルネットワークモデルを最適化して適用する方法及び装置、及び記憶媒体 |
| US20190347550A1 (en) | 2018-05-14 | 2019-11-14 | Samsung Electronics Co., Ltd. | Method and apparatus with neural network parameter quantization |
| US20190102359A1 (en) | 2018-09-28 | 2019-04-04 | Intel Corporation | Binary, ternary and bit serial compute-in-memory circuits |
| WO2020100393A1 (ja) | 2018-11-15 | 2020-05-22 | LeapMind株式会社 | ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、およびニューラルネットワーク処理プログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2021193565A (ja) | 2021-12-23 |
| KR20210152244A (ko) | 2021-12-15 |
| US20210383203A1 (en) | 2021-12-09 |
| EP3923201A1 (en) | 2021-12-15 |
| CN113837371A (zh) | 2021-12-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7708381B2 (ja) | ニューラルネットワークを具現化する装置及びその動作方法 | |
| US11954588B2 (en) | Analog neuromorphic circuits for dot-product operation implementing resistive memories | |
| US9646243B1 (en) | Convolutional neural networks using resistive processing unit array | |
| EP3970073B1 (en) | Training of artificial neural networks | |
| US11620505B2 (en) | Neuromorphic package devices and neuromorphic computing systems | |
| US11087204B2 (en) | Resistive processing unit with multiple weight readers | |
| US20200012924A1 (en) | Pipelining to improve neural network inference accuracy | |
| CN108009640B (zh) | 基于忆阻器的神经网络的训练装置及其训练方法 | |
| US11386319B2 (en) | Training of artificial neural networks | |
| JP2021500646A (ja) | 人工ニューラル・ネットワークを訓練する方法および人工ニューラル・ネットワークを実施する装置(人工ニューラル・ネットワークの訓練) | |
| JP6293963B1 (ja) | ニューロモルフィック素子を含むアレイの制御装置、離散化ステップサイズの演算方法およびプログラム | |
| KR102744306B1 (ko) | 뉴럴 네트워크를 분할하는 방법 및 뉴로모픽 장치 | |
| CN111656368A (zh) | 硬件加速的离散式神经网络 | |
| CN109460817A (zh) | 一种基于非易失存储器的卷积神经网络片上学习系统 | |
| KR20210143614A (ko) | 뉴럴 네트워크를 구현하는 뉴로모픽 장치 및 그 동작 방법 | |
| KR20230005309A (ko) | 아날로그 인공지능 네트워크 추론을 위한 행별 컨볼루션 신경망 매핑을 위한 효율적 타일 매핑 | |
| JP2022008236A (ja) | ニューロモルフィック装置及びニューラルネットワークを具現する方法 | |
| KR102714239B1 (ko) | 아날로그 크로스바 어레이들을 업데이트하기 위한 희소 수정가능 비트 길이 결정 펄스 생성 | |
| Lu et al. | NVMLearn: a simulation platform for non-volatile-memory-based deep learning hardware | |
| US11443171B2 (en) | Pulse generation for updating crossbar arrays | |
| KR102824754B1 (ko) | 전압 강하를 고려한 뉴럴 네트워크 장치 및 이의 구현 방법 | |
| KR102866109B1 (ko) | 뉴럴 네트워크 장치 및 이의 동작 방법 | |
| Kaneko et al. | On the Control of Computing-in-memory Devices with Resource-efficient Digital Circuits towards their On-chip Learning |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240607 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20250210 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250218 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250519 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250603 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250624 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7708381 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |