KR102499396B1 - 뉴럴 네트워크 장치 및 뉴럴 네트워크 장치의 동작 방법 - Google Patents
뉴럴 네트워크 장치 및 뉴럴 네트워크 장치의 동작 방법 Download PDFInfo
- Publication number
- KR102499396B1 KR102499396B1 KR1020170027778A KR20170027778A KR102499396B1 KR 102499396 B1 KR102499396 B1 KR 102499396B1 KR 1020170027778 A KR1020170027778 A KR 1020170027778A KR 20170027778 A KR20170027778 A KR 20170027778A KR 102499396 B1 KR102499396 B1 KR 102499396B1
- Authority
- KR
- South Korea
- Prior art keywords
- index
- input feature
- weight
- feature
- list
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/52—Multiplying; Dividing
- G06F7/523—Multiplying only
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/52—Multiplying; Dividing
- G06F7/535—Dividing only
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/544—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
- G06F7/5443—Sum of products
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0495—Quantised networks; Sparse networks; Compressed networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2207/00—Indexing scheme relating to methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F2207/38—Indexing scheme relating to groups G06F7/38 - G06F7/575
- G06F2207/48—Indexing scheme relating to groups G06F7/48 - G06F7/575
- G06F2207/4802—Special implementations
- G06F2207/4818—Threshold devices
- G06F2207/4824—Neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
Abstract
Description
도 2는 뉴럴 네트워크 구조의 일 예를 나타낸다.
도 3은 본 개시의 실시예에 따른 입력 피처 리스트를 나타낸다.
도 4는 본 개시의 실시예에 따른 인덱스 기반의 뉴럴 네트워크 연산 방법을 나타내는 흐름도이다.
도 5는 본 개시의 실시예에 따른 인덱스 기반의 컨볼루션 연산 방법을 나타내는 흐름도이다.
도 6은 컨볼루션 연산을 나타내는 도면이다.
도 7은 도 6의 컨볼루션 연산 과정에서 유효한 연산 결과를 나타내는 스냅샷들을 나타내는 도면이다.
도 8a 내지 도 8c는 본 개시의 실시예에 따른 인덱스 기반의 컨볼루션 연산을 설명하는 도면이다.
도 9a 및 도 9b는 본 개시의 실시예에 따른 인덱스 기반의 컨볼루션 연산을 설명하는 도면이다.
도 10은 본 개시의 실시예에 따른 인덱스 기반의 제로 패딩 방법을 나타내는 흐름도이다.
도 11a는 뉴럴 네트워크에서 입력 피처 맵에 제로 패딩이 적용되는 예를 나타낸다.
도 11b는 본 개시의 실시예에 따른 인덱스 기반의 제로 패딩 방법을 설명하는 도면이다.
도 12는 본 개시의 실시예에 따른 인덱스 기반의 컨볼루션 연산에서의 스트라이드 적용 방법을 나타내는 흐름도이다.
도 13a 및 도 13b는 컨볼루션 수행 시 스트라이드 적용되어 생성된 출력 피처 매트릭스를 나타낸다.
도 14는 본 개시의 실시예에 따른 인덱스 기반의 풀링 방법을 나타내는 흐름도이다.
도 15는 본 개시의 실시예에 따른 인덱스 기반의 풀링 동작을 설명하는 도면이다.
도 16은 본 개시의 실시예에 따른 뉴럴 네트워크 장치를 나타내는 블록도이다.
도 17은 본 개시의 실시예에 따른 뉴럴 네트워크 프로세서를 나타내는 블록도이다.
도 18는 본 개시의 실시예에 따른 뉴럴 네트워크 프로세서가 제1 동작 모드로 동작하는 것을 설명하는 도면이다.
도 19는 본 개시의 실시예에 따른 뉴럴 네트워크 프로세서가 제2 동작 모드로 동작하는 것을 설명하는 도면이다.
도 20은 컨볼루션 연산 수행 시 데이터 흐름을 나타내는 도면이다.
도 21 및 22는 본 개시의 실시예에 따른 인덱스 기반의 뉴럴 네트워크에서 컨볼루션 연산 수행 시의 데이터 처리 과정의 일 예를 나타내는 도면이다.
도 23은 본 개시의 실시예에 따른 뉴럴 네트워크 프로세서의 일 구현예를 나타낸다.
도 24는 본 개시의 실시예에 따른 인덱스 기반의 뉴럴 네트워크에서 컨볼루션 연산 수행 시의 데이터 처리 과정의 일 예를 나타내는 도면이다.
도 25는 본 개시의 실시예에 따른 뉴럴 네트워크 프로세서의 일 구현예를 나타낸다.
200: 뉴럴 네트워크 장치
210, 210a, 210b: 뉴럴 네트워크 프로세서
Claims (20)
- 뉴럴 네트워크(neural network) 장치의 동작 방법에 있어서,
입력 피처(feature) 맵으로부터, 입력 피처에 대응하는 입력 피처 인덱스 및 입력 피처값을 포함하는 입력 피처 리스트를 생성하는 단계;
상기 입력 피처 인덱스와 웨이트 리스트에 포함된 웨이트 인덱스의 연산을 기초로 출력 피처 인덱스를 생성하는 단계; 및
상기 입력 피처값과 상기 웨이트 인덱스에 대응하는 웨이트값의 연산을 기초로 상기 출력 피처 인덱스에 대응하는 출력 피처값을 생성하는 단계를 포함고,
상기 입력 피처 리스트를 생성하는 단계는,
상기 입력 피처 맵의 복수의 입력 피처들 중 비제로(non-zero) 값을 갖는 적어도 하나의 입력 피처에 기초하여 상기 입력 피처 리스트를 생성하는 것을 특징으로 하는 뉴럴 네트워크 장치의 동작 방법. - 삭제
- 제1 항에 있어서, 상기 웨이트 리스트는,
웨이트 맵의 복수의 웨이트들 중 비제로(non-zero) 값을 갖는 적어도 하나의 웨이트에 대응하는 적어도 하나의 웨이트 인덱스 및 적어도 하나의 웨이트값을 포함하는 것을 특징으로 하는 뉴럴 네트워크 장치의 동작 방법. - 제1 항에 있어서, 상기 출력 피처값을 생성하는 단계는,
상기 입력 피처값과 상기 웨이트값을 곱하는 단계를 포함하는 뉴럴 네트워크 장치의 동작 방법. - 제1 항에 있어서, 상기 출력 피처값을 생성하는 단계는,
상기 입력 피처값과 상기 웨이트값을 곱하여 상기 출력 피처 인덱스에 대응하는 곱셈값을 생성하는 단계; 및
상기 출력 피처 인덱스에 대응하는 복수의 곱셈값을 합산하여 상기 출력 피처값으로서 생성하는 단계를 포함하는 뉴럴 네트워크 장치의 동작 방법. - 제1 항에 있어서, 상기 출력 피처 인덱스를 생성하는 단계는,
상기 입력 피처 인덱스와 상기 웨이트 인덱스를 합산하는 단계를 포함하는 것을 특징으로 하는 뉴럴 네트워크 장치의 동작 방법. - 제6 항에 있어서, 상기 출력 피처 인덱스를 생성하는 단계는,
합산값을 미리 설정된 정수로 나누는 단계(dividing); 및
나눈 결과가 나머지를 포함하지 않는 경우의 나눈 값(dividing value)을 상기 출력 피처 인덱스로서 선택하는 단계를 더 포함하는 뉴럴 네트워크 장치의 동작 방법. - 제1 항에 있어서, 상기 입력 피처 리스트를 생성하는 단계는,
상기 입력 피처 맵으로부터 상기 입력 피처의 위치에 대응하는 초기 입력 피처 인덱스 및 상기 입력 피처에 대응하는 상기 입력 피처값을 포함하는 초기 입력 피처 리스트를 생성하는 단계; 및
상기 초기 입력 피처 인덱스에 피처 바이어스 인덱스를 합산함으로써 제로 패딩된 상기 입력 피처 인덱스를 생성하는 단계를 포함하는 뉴럴 네트워크 장치의 동작 방법. - 제1 항에 있어서,
웨이트 맵으로부터 상기 웨이트 리스트를 생성하는 단계를 더 포함하고,
상기 웨이트 리스트를 생성하는 단계는,
상기 웨이트 맵으로부터 웨이트의 위치에 대응하는 초기 웨이트 인덱스 및 상기 웨이트의 웨이트값을 포함하는 초기 웨이트 리스트를 생성하는 단계; 및
수행될 연산에 적합하도록 상기 초기 웨이트 인덱스를 조정하는 단계를 포함하는 뉴럴 네트워크 장치의 동작 방법. - 제9 항에 있어서, 상기 초기 웨이트 인덱스를 조정하는 단계는,
상기 초기 웨이트 인덱스를 상기 웨이트 맵의 매트릭스 상의 중심을 나타내는 바이어스 인덱스를 기초로 미러링하는 단계; 및
미러링된 웨이트 인덱스로부터 상기 바이어스 인덱스를 감산하는 단계를 포함하는 뉴럴 네트워크 장치의 동작 방법. - 뉴럴 네트워크 장치에 있어서,
입력 피처 맵에 포함되는 복수의 입력 피처들 중 비제로(non-zero) 값을 갖는 적어도 하나의 입력 피처에 대하여 상기 입력 피처 맵 상의 상기 적어도 하나의 입력 피처의 위치를 나타내는 입력 피처 인덱스 및 상기 적어도 하나의 입력 피처의 입력 피처값을 포함하는 입력 피처 리스트를 생성하는 리스트 작성기;
상기 입력 피처 인덱스를 기초로 인덱스 연산을 수행하고, 인덱스 연산 결과를 기초로 출력 피처 인덱스를 생성하는 인덱스 리맵퍼; 및
상기 입력 피처값을 기초로 데이터 연산을 수행하고, 데이터 연산 결과를 기초로 상기 출력 피처 인덱스에 대응하는 출력 피처값을 생성하는 데이터 연산 회로를 포함하는 뉴럴 네트워크 장치. - 제11 항에 있어서,
웨이트 리스트를 저장하는 제1 메모리를 더 포함하고,
상기 인덱스 리맵퍼는 상기 제1 메모리로부터 상기 웨이트 리스트의 웨이트에 대응하는 웨이트 인덱스를 독출하고, 상기 입력 피처 인덱스와 상기 웨이트 인덱스를 합산함으로써, 상기 출력 피처 인덱스를 생성하는 것을 특징으로 하는 뉴럴 네트워크 장치. - 제12 항에 있어서, 상기 데이터 연산 회로는,
상기 제1 메모리로부터 독출되는 상기 웨이트에 대응하는 웨이트값 및 상기 입력 피처값을 기초로 상기 출력 피처값을 생성하는 것을 특징으로 하는 뉴럴 네트워크 장치. - 제13 항에 있어서, 상기 데이터 연산 회로는,
상기 제1 메모리로부터 상기 웨이트값을 독출하고, 상기 입력 피처값과 상기 웨이트값을 곱하고, 곱셈값을 출력하는 제1 데이터 연산 회로; 및
상기 제1 데이터 연산 회로로부터 상기 곱셈값을 수신하고, 상기 출력 피처 인덱스에 대응하는 복수의 곱셈값을 합산하는 제2 데이터 연산 회로를 포함하는 뉴럴 네트워크 장치. - 제12 항에 있어서,
상기 제1 메모리는, 제1 동작 모드에서 상기 웨이트 리스트를 저장하고, 제2 동작 모드에서 복수의 입력 피처값에 각각 대응하는 복수의 파라미터들을 포함하는 룩-업 테이블을 저장하고,
상기 제2 동작 모드에서, 상기 인덱스 리맵퍼는 상기 복수의 파라미터들 중 제1 입력 피처값에 대응하는 파라미터의 독출을 요청하는 독출 요청 신호를 상기 제1 메모리에 전송하고,
상기 제2 동작 모드에서, 상기 데이터 연산 회로는 상기 제1 메모리로부터 상기 제1 입력 피처값에 대응하는 제1 파라미터 및 제2 파라미터를 수신하고, 상기 제1 입력 피처값, 상기 제1 파라미터 및 상기 제2 파라미터를 기초로 상기 출력 피처값을 생성하는 것을 특징으로 하는 뉴럴 네트워크 장치. - 삭제
- 삭제
- 제11 항에 있어서, 상기 리스트 작성기는,
압축된 피처 리스트를 수신하고, 상기 압축된 피처 리스트를 압축 해제하여 상기 입력 피처 리스트를 생성하는 것을 특징으로 하는 뉴럴 네트워크 장치. - 제11 항에 있어서,
상기 인덱스 리맵퍼 및 상기 데이터 연산 회로로부터 출력되는 상기 출력 피처 인덱스 및 상기 출력 피처값을 출력 피처 리스트로서 저장하는 제2 메모리; 및
동작 모드에 따라, 상기 리스트 작성기로부터 출력되는 상기 입력 피처 리스트 및 상기 제2 메모리로부터 출력되는 출력 피처 리스트 중 하나를 상기 인덱스 리맵퍼에 제공하는 선택기를 더 포함하는 뉴럴 네트워크 장치. - 제19 항에 있어서, 상기 선택기는,
제1 동작 모드에서, 상기 리스트 작성기로부터 출력되는 상기 입력 피처 리스트를 상기 인덱스 리맵퍼에 제공하고,
제2 동작 모드에서, 상기 제2 메모리로부터 출력되는 상기 출력 피처 리스트를 상기 인덱스 리맵퍼에 제공하는 것을 특징으로 하는 뉴럴 네트워크 장치.
Priority Applications (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020170027778A KR102499396B1 (ko) | 2017-03-03 | 2017-03-03 | 뉴럴 네트워크 장치 및 뉴럴 네트워크 장치의 동작 방법 |
| US15/864,379 US11295195B2 (en) | 2017-03-03 | 2018-01-08 | Neural network devices and methods of operating the same |
| CN201810167217.XA CN108537325B (zh) | 2017-03-03 | 2018-02-28 | 操作神经网络装置的方法 |
| TW107107109A TWI765979B (zh) | 2017-03-03 | 2018-03-02 | 操作神經網路裝置的方法 |
| US17/712,247 US20220261615A1 (en) | 2017-03-03 | 2022-04-04 | Neural network devices and methods of operating the same |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020170027778A KR102499396B1 (ko) | 2017-03-03 | 2017-03-03 | 뉴럴 네트워크 장치 및 뉴럴 네트워크 장치의 동작 방법 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20180101055A KR20180101055A (ko) | 2018-09-12 |
| KR102499396B1 true KR102499396B1 (ko) | 2023-02-13 |
Family
ID=63355193
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020170027778A Active KR102499396B1 (ko) | 2017-03-03 | 2017-03-03 | 뉴럴 네트워크 장치 및 뉴럴 네트워크 장치의 동작 방법 |
Country Status (4)
| Country | Link |
|---|---|
| US (2) | US11295195B2 (ko) |
| KR (1) | KR102499396B1 (ko) |
| CN (1) | CN108537325B (ko) |
| TW (1) | TWI765979B (ko) |
Families Citing this family (49)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10878310B2 (en) * | 2016-11-29 | 2020-12-29 | Mellanox Technologies, Ltd. | Accelerated convolution in convolutional neural networks |
| US10409614B2 (en) | 2017-04-24 | 2019-09-10 | Intel Corporation | Instructions having support for floating point and integer data types in the same register |
| US10474458B2 (en) | 2017-04-28 | 2019-11-12 | Intel Corporation | Instructions and logic to perform floating-point and integer operations for machine learning |
| WO2018211129A1 (en) * | 2017-05-19 | 2018-11-22 | Movidius Ltd. | Methods, systems and apparatus to improve convolution efficiency |
| US10489542B2 (en) * | 2018-04-24 | 2019-11-26 | Nvidia Corp. | Machine learning based post route path delay estimator from synthesis netlist |
| TWI680409B (zh) * | 2017-07-08 | 2019-12-21 | 英屬開曼群島商意騰科技股份有限公司 | 適用於人工神經網路之矩陣及向量相乘的方法 |
| JP2019036899A (ja) * | 2017-08-21 | 2019-03-07 | 株式会社東芝 | 情報処理装置、情報処理方法およびプログラム |
| US10366322B2 (en) | 2017-10-06 | 2019-07-30 | DeepCube LTD. | System and method for compact and efficient sparse neural networks |
| DE102018203709A1 (de) * | 2018-03-12 | 2019-09-12 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum speichereffizienten Betreiben eines neuronalen Netzes |
| US10572568B2 (en) | 2018-03-28 | 2020-02-25 | Intel Corporation | Accelerator for sparse-dense matrix multiplication |
| US12099912B2 (en) | 2018-06-22 | 2024-09-24 | Samsung Electronics Co., Ltd. | Neural processor |
| US11782839B2 (en) * | 2018-08-21 | 2023-10-10 | Neuchips Corporation | Feature map caching method of convolutional neural network and system thereof |
| EP3847590A4 (en) * | 2018-09-07 | 2022-04-20 | Intel Corporation | Convolution over sparse and quantization neural networks |
| US11467973B1 (en) * | 2018-09-28 | 2022-10-11 | Amazon Technologies, Inc. | Fine-grained access memory controller |
| MX2020013580A (es) * | 2018-09-30 | 2021-02-26 | Boe Technology Group Co Ltd | Aparato y metodo para procesamiento de imagenes y sistema para entrenamiento de red neuronal. |
| US11610111B2 (en) * | 2018-10-03 | 2023-03-21 | Northeastern University | Real-time cognitive wireless networking through deep learning in transmission and reception communication paths |
| CN110770763A (zh) * | 2018-10-08 | 2020-02-07 | 深圳市大疆创新科技有限公司 | 数据存储的装置、方法、处理器和可移动设备 |
| US20200143226A1 (en) * | 2018-11-05 | 2020-05-07 | Samsung Electronics Co., Ltd. | Lossy compression of neural network activation maps |
| CN109726633B (zh) * | 2018-11-23 | 2021-06-18 | 成都品果科技有限公司 | 一种基于查找表激活函数的人脸关键点检测方法 |
| KR102137151B1 (ko) * | 2018-12-27 | 2020-07-24 | 엘지전자 주식회사 | 노이즈 캔슬링 장치 및 그 방법 |
| KR20200091623A (ko) * | 2019-01-23 | 2020-07-31 | 삼성전자주식회사 | 위노그라드 변환에 기반한 뉴럴 네트워크의 컨볼루션 연산을 수행하는 방법 및 장치 |
| US11488016B2 (en) | 2019-01-23 | 2022-11-01 | Google Llc | Look-up table based neural networks |
| KR102783991B1 (ko) * | 2019-01-30 | 2025-03-21 | 삼성전자주식회사 | 뉴럴 네트워크 장치 및 뉴럴 네트워크 장치에서 멀티-비트 연산을 처리하는 방법 |
| US11934342B2 (en) | 2019-03-15 | 2024-03-19 | Intel Corporation | Assistance for hardware prefetch in cache access |
| EP4270201A3 (en) | 2019-03-15 | 2024-01-31 | INTEL Corporation | Memory controller management techniques |
| EP3938888A1 (en) * | 2019-03-15 | 2022-01-19 | INTEL Corporation | Systolic disaggregation within a matrix accelerator architecture |
| WO2020190796A1 (en) | 2019-03-15 | 2020-09-24 | Intel Corporation | Systems and methods for cache optimization |
| KR102856186B1 (ko) * | 2019-04-17 | 2025-09-05 | 삼성전자주식회사 | 뉴럴 프로세서 |
| CN110163370B (zh) | 2019-05-24 | 2021-09-17 | 上海肇观电子科技有限公司 | 深度神经网络的压缩方法、芯片、电子设备及介质 |
| TWI745697B (zh) * | 2019-05-24 | 2021-11-11 | 創鑫智慧股份有限公司 | 用於神經網路參數的運算系統及其壓縮方法 |
| US20210064987A1 (en) * | 2019-09-03 | 2021-03-04 | Nvidia Corporation | Processor and system to convert tensor operations in machine learning |
| US11663452B2 (en) * | 2019-09-25 | 2023-05-30 | Intel Corporation | Processor array for processing sparse binary neural networks |
| US11861761B2 (en) | 2019-11-15 | 2024-01-02 | Intel Corporation | Graphics processing unit processing and caching improvements |
| US11663746B2 (en) | 2019-11-15 | 2023-05-30 | Intel Corporation | Systolic arithmetic on sparse data |
| KR102788804B1 (ko) * | 2019-12-27 | 2025-03-31 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
| KR102883420B1 (ko) * | 2020-04-07 | 2025-11-11 | 삼성전자주식회사 | 뉴럴 네트워크 연산 수행을 위한 뉴럴 네트워크 장치, 뉴럴 네트워크 장치의 동작 방법 및 뉴럴 네트워크 장치를 포함하는 애플리케이션 프로세서 |
| US11113601B1 (en) * | 2020-06-30 | 2021-09-07 | Moffett Technologies Co., Limited | Method and system for balanced-weight sparse convolution processing |
| US12080086B2 (en) * | 2020-08-21 | 2024-09-03 | Qualcomm Incorporated | Sparse-aware convolution and techniques for acceleration thereof |
| KR20220034520A (ko) * | 2020-09-11 | 2022-03-18 | 삼성전자주식회사 | 프로세싱 장치, 컴퓨팅 장치, 및 프로세싱 장치의 동작 방법 |
| US20220084499A1 (en) * | 2020-09-15 | 2022-03-17 | Yandex Europe Ag | Method and server for a text-to-speech processing |
| GB2599098B (en) * | 2020-09-22 | 2024-04-10 | Imagination Tech Ltd | Hardware implementation of windowed operations in three or more dimensions |
| US12141818B2 (en) * | 2020-10-06 | 2024-11-12 | Mastercard International Incorporated | Systems and methods for linking indices associated with environmental impact determinations for transactions |
| CN112364032B (zh) * | 2021-01-12 | 2021-08-24 | 浙江正元智慧科技股份有限公司 | 基于互联网技术的数据中台数据查询方法 |
| EP4040340A1 (en) * | 2021-02-05 | 2022-08-10 | Microsoft Technology Licensing, LLC | Hardware solver architecture |
| CN115481713A (zh) * | 2021-06-15 | 2022-12-16 | 瑞昱半导体股份有限公司 | 改进卷积神经网络进行计算的方法 |
| CN115601692A (zh) * | 2021-07-08 | 2023-01-13 | 华为技术有限公司(Cn) | 数据处理方法、神经网络模型的训练方法及装置 |
| US20240419403A1 (en) * | 2021-12-07 | 2024-12-19 | Nippon Telegraph And Telephone Corporation | Deep learning inference system |
| CN114723024B (zh) * | 2022-03-08 | 2025-05-02 | 杭州知存算力科技有限公司 | 用于存算一体芯片的基于线性规划的神经网络映射方法 |
| TWI852888B (zh) * | 2023-11-14 | 2024-08-11 | 旺宏電子股份有限公司 | 用於記憶體內運算之累加器、記憶體裝置及其操作方法 |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008310700A (ja) * | 2007-06-15 | 2008-12-25 | Canon Inc | 演算処理装置及び方法 |
Family Cites Families (29)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3246764B2 (ja) | 1992-05-11 | 2002-01-15 | 株式会社東芝 | ニューロチップ |
| JPH08305846A (ja) | 1995-03-07 | 1996-11-22 | Matsushita Electric Ind Co Ltd | ニューロフィルターと像域分割方法とフィルター装置 |
| US5812698A (en) * | 1995-05-12 | 1998-09-22 | Synaptics, Inc. | Handwriting recognition system and method |
| US6516309B1 (en) | 1998-07-17 | 2003-02-04 | Advanced Research & Technology Institute | Method and apparatus for evolving a neural network |
| US6674855B1 (en) * | 1999-10-06 | 2004-01-06 | Comverse Ltd. | High performance multifrequency signal detection |
| CA2433999A1 (en) | 2000-11-30 | 2002-06-06 | Yang Ming Pok | Neural cortex |
| US7634137B2 (en) | 2005-10-14 | 2009-12-15 | Microsoft Corporation | Unfolded convolution for fast feature extraction |
| US7756845B2 (en) * | 2006-12-28 | 2010-07-13 | Yahoo! Inc. | System and method for learning a weighted index to categorize objects |
| US8463591B1 (en) * | 2009-07-31 | 2013-06-11 | Google Inc. | Efficient polynomial mapping of data for use with linear support vector machines |
| US10366325B2 (en) | 2011-12-07 | 2019-07-30 | Paul Burchard | Sparse neural control |
| US9147154B2 (en) * | 2013-03-13 | 2015-09-29 | Google Inc. | Classifying resources using a deep network |
| US9053558B2 (en) | 2013-07-26 | 2015-06-09 | Rui Shen | Method and system for fusing multiple images |
| US9730643B2 (en) | 2013-10-17 | 2017-08-15 | Siemens Healthcare Gmbh | Method and system for anatomical object detection using marginal space deep neural networks |
| CN104809426B (zh) | 2014-01-27 | 2019-04-05 | 日本电气株式会社 | 卷积神经网络的训练方法、目标识别方法及装置 |
| US10102474B2 (en) | 2014-03-28 | 2018-10-16 | International Business Machines Corporation | Event-based neural network with hierarchical addressing for routing event packets between core circuits of the neural network |
| US20150286925A1 (en) | 2014-04-08 | 2015-10-08 | Qualcomm Incorporated | Modulating plasticity by global scalar values in a spiking neural network |
| CN105488515B (zh) | 2014-09-17 | 2019-06-25 | 富士通株式会社 | 一种对图像进行分类的图像处理方法和图像处理装置 |
| US9836641B2 (en) | 2014-12-17 | 2017-12-05 | Google Inc. | Generating numeric embeddings of images |
| US10515304B2 (en) | 2015-04-28 | 2019-12-24 | Qualcomm Incorporated | Filter specificity as training criterion for neural networks |
| US10013652B2 (en) | 2015-04-29 | 2018-07-03 | Nuance Communications, Inc. | Fast deep neural network feature transformation via optimized memory bandwidth utilization |
| US20160358069A1 (en) * | 2015-06-03 | 2016-12-08 | Samsung Electronics Co., Ltd. | Neural network suppression |
| US11423311B2 (en) * | 2015-06-04 | 2022-08-23 | Samsung Electronics Co., Ltd. | Automatic tuning of artificial neural networks |
| US10970617B2 (en) * | 2015-08-21 | 2021-04-06 | Institute Of Automation Chinese Academy Of Sciences | Deep convolutional neural network acceleration and compression method based on parameter quantification |
| US10366337B2 (en) * | 2016-02-24 | 2019-07-30 | Bank Of America Corporation | Computerized system for evaluating the likelihood of technology change incidents |
| WO2018000309A1 (en) * | 2016-06-30 | 2018-01-04 | Intel Corporation | Importance-aware model pruning and re-training for efficient convolutional neural networks |
| KR102835519B1 (ko) * | 2016-09-28 | 2025-07-17 | 에스케이하이닉스 주식회사 | 합성곱 신경망의 연산 장치 및 방법 |
| US10510146B2 (en) * | 2016-10-06 | 2019-12-17 | Qualcomm Incorporated | Neural network for image processing |
| WO2018073975A1 (en) * | 2016-10-21 | 2018-04-26 | Nec Corporation | Improved sparse convolution neural network |
| KR102879261B1 (ko) * | 2016-12-22 | 2025-10-31 | 삼성전자주식회사 | 컨볼루션 신경망 처리 방법 및 장치 |
-
2017
- 2017-03-03 KR KR1020170027778A patent/KR102499396B1/ko active Active
-
2018
- 2018-01-08 US US15/864,379 patent/US11295195B2/en active Active
- 2018-02-28 CN CN201810167217.XA patent/CN108537325B/zh active Active
- 2018-03-02 TW TW107107109A patent/TWI765979B/zh active
-
2022
- 2022-04-04 US US17/712,247 patent/US20220261615A1/en active Pending
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008310700A (ja) * | 2007-06-15 | 2008-12-25 | Canon Inc | 演算処理装置及び方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20180253635A1 (en) | 2018-09-06 |
| US11295195B2 (en) | 2022-04-05 |
| CN108537325B (zh) | 2024-06-07 |
| KR20180101055A (ko) | 2018-09-12 |
| US20220261615A1 (en) | 2022-08-18 |
| TWI765979B (zh) | 2022-06-01 |
| CN108537325A (zh) | 2018-09-14 |
| TW201833823A (zh) | 2018-09-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102499396B1 (ko) | 뉴럴 네트워크 장치 및 뉴럴 네트워크 장치의 동작 방법 | |
| JP7304148B2 (ja) | ニューラルネットワークにおいてコンボリューション演算を処理する方法及びその装置 | |
| US11829862B2 (en) | Method and device with neural network implementation | |
| US11562046B2 (en) | Neural network processor using dyadic weight matrix and operation method thereof | |
| US20200234124A1 (en) | Winograd transform convolution operations for neural networks | |
| KR102808579B1 (ko) | 뉴럴 네트워크에서 연산을 수행하는 방법 및 장치 | |
| KR20180101978A (ko) | 뉴럴 네트워크 프로세서, 뉴럴 네트워크 프로세서의 동작 방법, 및 뉴럴 네트워크 장치 | |
| US12198053B2 (en) | Integrated circuit that extracts data, neural network processor including the integrated circuit, and neural network device | |
| US11410410B2 (en) | Method and apparatus with neural network processing | |
| TW202014934A (zh) | 電子系統以及非暫時性電腦可讀記錄媒體 | |
| KR20200062014A (ko) | 다이어딕 매트릭스 형태의 웨이트를 이용해 뉴럴 네트워크를 가속하는 장치 및 그것의 동작 방법 | |
| TW202441464A (zh) | 生成語意地加標籤的三維模型 | |
| US12423055B2 (en) | Processing apparatus and method of processing add operation therein | |
| KR102800328B1 (ko) | 프로세싱 장치 및 프로세싱 장치에서 덧셈 연산을 처리하는 방법 | |
| KR102749978B1 (ko) | 피처맵 데이터에 대한 압축을 수행하는 뉴럴 네트워크 프로세서 및 이를 포함하는 컴퓨팅 시스템 | |
| KR102783991B1 (ko) | 뉴럴 네트워크 장치 및 뉴럴 네트워크 장치에서 멀티-비트 연산을 처리하는 방법 | |
| CN115952835A (zh) | 数据处理方法、可读介质和电子设备 | |
| KR20240025827A (ko) | Imc(in memory computing) 프로세서 및 imc 프로세서의 동작 방법 | |
| US20220188612A1 (en) | Npu device performing convolution operation based on the number of channels and operating method thereof | |
| CN112070853B (zh) | 图像生成方法及装置 | |
| KR20240037233A (ko) | 뉴럴 네트워크 가속기에서의 데이터-재사용을 위한 활성화 버퍼 아키텍처 | |
| TW202429331A (zh) | 自適應混合解析度處理 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20170303 |
|
| PG1501 | Laying open of application | ||
| A201 | Request for examination | ||
| PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20191008 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20170303 Comment text: Patent Application |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20220626 Patent event code: PE09021S01D |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20221108 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20230208 Patent event code: PR07011E01D |
|
| PR1002 | Payment of registration fee |
Payment date: 20230209 End annual number: 3 Start annual number: 1 |
|
| PG1601 | Publication of registration |