KR102728799B1 - 인공 신경망의 양자화 방법 및 장치 - Google Patents
인공 신경망의 양자화 방법 및 장치 Download PDFInfo
- Publication number
- KR102728799B1 KR102728799B1 KR1020170123658A KR20170123658A KR102728799B1 KR 102728799 B1 KR102728799 B1 KR 102728799B1 KR 1020170123658 A KR1020170123658 A KR 1020170123658A KR 20170123658 A KR20170123658 A KR 20170123658A KR 102728799 B1 KR102728799 B1 KR 102728799B1
- Authority
- KR
- South Korea
- Prior art keywords
- neural network
- quantization
- segments
- artificial neural
- density function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/061—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0495—Quantised networks; Sparse networks; Compressed networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Neurology (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Image Processing (AREA)
- Feedback Control In General (AREA)
Abstract
Description
도 2는 본 개시의 예시적 실시예에 따른 인공 신경망의 예시를 나타내는 도면이다.
도 3은 본 개시의 예시적 실시예에 따른 인공 신경망의 양자화 방법을 나타내는 순서도이다.
도 4는 본 개시의 예시적 실시예에 따라 입력 분포를 근사화하는 동작을 나타내는 도면이다.
도 5는 본 개시의 예시적 실시예에 따라 도 3의 단계 S400의 예시를 나타내는 순서도이다.
도 6은 본 개시의 예시적 실시예에 따른 인공 신경망의 양자화 방법을 나타내는 순서도이다.
도 7은 본 개시의 예시적 실시예에 따라 도 3의 단계 S600의 예시를 나타내는 순서도이다.
도 8은 본 개시의 예시적 실시예에 따라 양자화 오차를 계산하는 동작의 예시를 나타내는 도면이다.
도 9는 본 개시의 예시적 실시예에 따라 양자화 오차를 계산하는 동작의 예시를 나타내는 도면이다.
도 10 및 도 11은 본 개시의 예시적 실시예들에 따라 도 3의 단계 S600 및 단계 S800의 예시들을 나타내는 순서도들이다.
도 12는 본 개시의 예시적 실시예에 따른 컴퓨팅 시스템을 나타내는 블록도이다.
도 13은 본 개시의 예시적 실시예에 따른 휴대용 컴퓨팅 장치를 나타내는 블록도이다.
Claims (20)
- 인공 신경망의 레이어가 생성하는 출력들의 분포를 포함하는 입력 분포를 복수의 세그먼트들로 분할하는 단계;
상기 복수의 세그먼트들을 각각 근사화한 복수의 함수들을 결합함으로써 근사 밀도 함수를 생성하는 단계;
상기 근사 밀도 함수의 양자화에 사용되는 적어도 하나의 스텝 사이즈에 대응하는 적어도 하나의 양자화 오차를 계산하는 단계; 및
상기 적어도 하나의 양자화 오차에 기초하여, 상기 근사 밀도 함수를 양자화하기 위한 최종 스텝 사이즈를 결정하는 단계를 포함하고,
상기 근사 밀도 함수를 생성하는 단계는,
상기 복수의 세그먼트들을 복수의 함수들로 상호 독립적으로 근사화하는 단계; 및
상기 복수의 함수들을 결합함으로써 상기 근사 밀도 함수를 생성하는 단계를 포함하는 것을 특징으로 하는 인공 신경망의 양자화 방법. - 청구항 1에 있어서,
상기 분할하는 단계는, 상기 입력 분포의 최대값 및 최소값을 포함하는 구간을 복수의 세그먼트들로 분할하는 것을 특징으로 하는 인공 신경망의 양자화 방법. - 청구항 1에 있어서,
세그먼트들의 개수를 입력 파라미터로서 획득하는 단계를 더 포함하고,
상기 분할하는 단계는, 상기 입력 분포를 획득된 상기 개수의 세그먼트들로 분할하는 것을 특징으로 하는 인공 신경망의 양자화 방법. - 청구항 1에 있어서,
상기 분할하는 단계는, 상기 입력 분포를 동일한 폭을 가지는 상기 복수의 세그먼트들로서 분할하는 것을 특징으로 하는 인공 신경망의 양자화 방법. - 청구항 1에 있어서,
상기 분할하는 단계는, 상기 복수의 세그먼트들 각각이 확률 밀도에 비례하는 폭을 가지도록 상기 입력 분포를 분할하는 것을 특징으로 하는 인공 신경망의 양자화 방법. - 청구항 1에 있어서,
상기 복수의 함수들 각각은, 다항식(polynomial)인 것을 특징으로 하는 인공 신경망의 양자화 방법. - 청구항 6에 있어서,
다항식의 차수를 입력 파라미터로서 획득하는 단계를 더 포함하고,
상기 근사화하는 단계는, 상기 복수의 세그먼트들을 획득된 상기 차수의 다항식들로 각각 근사화하는 것을 특징으로 하는 인공 신경망의 양자화 방법. - 청구항 6에 있어서,
상기 근사 밀도 함수를 생성하는 단계는, 결합된 복수의 다항식들을 정규화함으로써 상기 근사 밀도 함수를 확률 밀도 함수로서 생성하는 단계를 더 포함하는 것을 특징으로 하는 인공 신경망의 양자화 방법. - 청구항 1에 있어서,
상기 적어도 하나의 양자화 오차를 계산하는 단계는, 상기 적어도 하나의 스텝 사이즈에 따른 과부하 왜곡(overload distortion) 및 입상 왜곡(granular distortion)의 합을 계산하는 단계를 포함하는 것을 특징으로 하는 인공 신경망의 양자화 방법. - 청구항 1에 있어서,
상기 최종 스텝 사이즈에 기초하여 고정 소수점 인공 신경망을 획득하는 단계를 더 포함하는 인공 신경망의 양자화 방법. - 청구항 10에 있어서,
상기 적어도 하나의 양자화 오차를 계산하는 단계는,
복수의 소수점 이하 자릿수(fractional length; FL)들을 포함하는 FL 집합에 엑세스하는 단계; 및
상기 FL 집합으로부터 상기 복수의 소수점 이하 자릿수들 각각에 대응하는 양자화 오차들을 순차적으로 계산하는 단계를 포함하는 것을 특징으로 하는 인공 신경망의 양자화 방법. - 청구항 10에 있어서,
상기 적어도 하나의 양자화 오차를 계산하는 단계는,
상기 입력 분포의 최대값이 포화(saturation)되지 아니하도록 하는 최소 소수점 이하 자릿수를 계산하는 단계; 및
상기 최소 소수점 이하 자릿수부터 점진적으로 증가하는 소수점 이하 자릿수들에 대하여 순차적으로 양자화 오차들을 계산하는 단계를 포함하는 것을 특징으로 하는 인공 신경망의 양자화 방법. - 청구항 12에 있어서,
상기 순차적으로 상기 양자화 오차들을 계산하는 단계는, 이전에 계산된 양자화 오차보다 높은 양자화 오차가 발생하는 경우, 중단되는 것을 특징으로 하는 인공 신경망의 양자화 방법. - 청구항 1에 있어서,
상기 인공 신경망의 레이어 단위 또는 채널 단위로 상기 입력 분포를 획득하는 단계를 더 포함하는 양자화 방법. - 메모리; 및
상기 메모리에 저장된 컴퓨터로 실행가능한 프로시저들을 실행하는 프로세서를 포함하고,
상기 컴퓨터로 실행가능한 프로시저들은,
인공 신경망의 레이어가 생성하는 출력들의 분포를 포함하는 입력 분포로부터 분할된 복수의 세그먼트들을 각각 근사화한 복수의 함수들을 결합함으로써 근사 밀도 함수를 생성하도록 구성된 근사화기; 및
상기 근사 밀도 함수의 양자화에 사용되는 적어도 하나의 스텝 사이즈에 대응하는 적어도 하나의 양자화 오차를 계산하고, 상기 근사 밀도 함수를 양자화하기 위한 상기 적어도 하나의 양자화 오차에 따라 최종 스텝 사이즈를 결정하도록 구성된 양자화기를 포함하고,
상기 근사화기는, 상기 복수의 세그먼트들을 복수의 함수들로 상호 독립적으로 근사화하고, 상기 복수의 함수들을 결합함으로써 상기 근사 밀도 함수를 생성하도록 더 구성된 것을 특징으로 하는 장치. - 청구항 15에 있어서,
상기 근사화기는, 세그먼트들의 개수를 입력 파라미터로서 수신하고, 상기 입력 분포를 수신된 상기 개수의 세그먼트들로 분할하도록 더 구성된 것을 특징으로 하는 장치. - 청구항 15에 있어서,
상기 근사화기는, 다항식의 차수를 입력 파라미터로서 수신하고, 상기 복수의 세그먼트들을 수신된 상기 차수의 다항식들로 각각 근사화하도록 더 구성된 것을 특징으로 하는 장치. - 청구항 15에 있어서,
상기 양자화기는, 상기 적어도 하나의 스텝 사이즈에 다른 과부하 왜곡(overload distortion) 및 입상 왜곡(granular distortion)의 합을 상기 적어도 하나의 양자화 오차로서 계산하도록 더 구성된 것을 특징으로 하는 장치. - 청구항 15에 있어서,
상기 양자화기는, 상기 입력 분포의 최대값이 포화되지 아니하도록 하는 최소 소수점 이하 자릿수를 계산하고, 상기 최소 소수점 이하 자릿수부터 점진적으로 증가하는 소수점 이하 자릿수들에 대하여 저점(trough)이 나올 때까지 순차적으로 양자화 오차를 계산하도록 더 구성되는 것을 특징으로 하는 장치. - 부동 소수점 신경망을 양자화하는 방법으로서,
부동 소수점 신경망의 레이어가 생성하는 출력들의 분포를 포함하는 입력 분포를 동일한 폭을 가지는 복수의 세그먼트들로 분할하는 단계;
상기 복수의 세그먼트들을 각각 근사화한 다항식들을 결합함으로써 근사 밀도 함수를 생성하는 단계;
상기 근사 밀도 함수의 양자화에 사용되는 적어도 하나의 소수점 이하 자릿수(fractional length; FL)들에 대응하는 적어도 하나의 양자화 오차를 계산하는 단계; 및
상기 적어도 하나의 양자화 오차에 기초하여, 상기 근사 밀도 함수를 양자화하기 위한 최종 소수점 이하 자릿수를 결정하는 단계를 포함하고,
상기 근사 밀도 함수를 생성하는 단계는,
상기 복수의 세그먼트들을 복수의 함수들로 상호 독립적으로 근사화하는 단계; 및
상기 복수의 함수들을 결합함으로써 상기 근사 밀도 함수를 생성하는 단계를 포함하는 것을 특징으로 하는 부동 소수점 신경망의 양자화 방법.
Priority Applications (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020170123658A KR102728799B1 (ko) | 2017-09-25 | 2017-09-25 | 인공 신경망의 양자화 방법 및 장치 |
| CN201810589961.9A CN109558945A (zh) | 2017-09-25 | 2018-06-08 | 对人工神经网络及浮点神经网络进行量化的方法及装置 |
| US16/008,275 US11275986B2 (en) | 2017-09-25 | 2018-06-14 | Method and apparatus for quantizing artificial neural network |
| DE102018121905.9A DE102018121905A1 (de) | 2017-09-25 | 2018-09-07 | Verfahren und Vorrichtung zum Quantisieren von künstlichen neuronalen Netzen |
| TW107132005A TWI791610B (zh) | 2017-09-25 | 2018-09-12 | 對人工神經網路及浮點神經網路進行量化的方法及裝置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020170123658A KR102728799B1 (ko) | 2017-09-25 | 2017-09-25 | 인공 신경망의 양자화 방법 및 장치 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20190034985A KR20190034985A (ko) | 2019-04-03 |
| KR102728799B1 true KR102728799B1 (ko) | 2024-11-11 |
Family
ID=65638919
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020170123658A Active KR102728799B1 (ko) | 2017-09-25 | 2017-09-25 | 인공 신경망의 양자화 방법 및 장치 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US11275986B2 (ko) |
| KR (1) | KR102728799B1 (ko) |
| CN (1) | CN109558945A (ko) |
| DE (1) | DE102018121905A1 (ko) |
| TW (1) | TWI791610B (ko) |
Families Citing this family (27)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11195096B2 (en) * | 2017-10-24 | 2021-12-07 | International Business Machines Corporation | Facilitating neural network efficiency |
| GB2568084B (en) * | 2017-11-03 | 2022-01-12 | Imagination Tech Ltd | Error allocation format selection for hardware implementation of deep neural network |
| JP7056225B2 (ja) * | 2018-02-26 | 2022-04-19 | 富士通株式会社 | 演算処理装置、情報処理装置、情報処理方法、およびプログラム |
| US10325185B1 (en) * | 2019-01-23 | 2019-06-18 | StradVision, Inc. | Method and device for online batch normalization, on-device learning, and continual learning applicable to mobile devices or IOT devices additionally referring to one or more previous batches to be used for military purpose, drone or robot, and testing method and testing device using the same |
| US10592799B1 (en) * | 2019-01-23 | 2020-03-17 | StradVision, Inc. | Determining FL value by using weighted quantization loss values to thereby quantize CNN parameters and feature values to be used for optimizing hardware applicable to mobile devices or compact networks with high precision |
| US10325352B1 (en) * | 2019-01-23 | 2019-06-18 | StradVision, Inc. | Method and device for transforming CNN layers to optimize CNN parameter quantization to be used for mobile devices or compact networks with high precision via hardware optimization |
| US11068784B2 (en) * | 2019-01-26 | 2021-07-20 | Mipsology SAS | Generic quantization of artificial neural networks |
| KR102782971B1 (ko) * | 2019-05-08 | 2025-03-18 | 삼성전자주식회사 | 인공 신경망 모델을 트레이닝하는 컴퓨팅 장치, 인공 신경망 모델을 트레이닝하는 방법 및 이를 저장하는 메모리 시스템 |
| WO2020248423A1 (zh) * | 2019-06-12 | 2020-12-17 | 上海寒武纪信息科技有限公司 | 一种神经网络的量化参数确定方法及相关产品 |
| EP4020329A4 (en) | 2019-08-23 | 2023-07-05 | Anhui Cambricon Information Technology Co., Ltd. | DATA PROCESSING METHOD AND EQUIPMENT, COMPUTER EQUIPMENT AND STORAGE MEDIA |
| CN112446460B (zh) * | 2019-08-28 | 2025-12-16 | 上海寒武纪信息科技有限公司 | 用于处理数据的方法、装置以及相关产品 |
| WO2021037082A1 (zh) * | 2019-08-28 | 2021-03-04 | 上海寒武纪信息科技有限公司 | 用于处理数据的方法、装置以及相关产品 |
| US20220138566A1 (en) * | 2019-08-29 | 2022-05-05 | Rakuten Group, Inc. | Learning system, learning method and program |
| CN110717585B (zh) * | 2019-09-30 | 2020-08-25 | 上海寒武纪信息科技有限公司 | 神经网络模型的训练方法、数据处理方法和相关产品 |
| US11775611B2 (en) * | 2019-11-01 | 2023-10-03 | Samsung Electronics Co., Ltd. | Piecewise quantization for neural networks |
| CN113112009B (zh) * | 2020-01-13 | 2023-04-18 | 中科寒武纪科技股份有限公司 | 用于神经网络数据量化的方法、装置和计算机可读存储介质 |
| KR102384255B1 (ko) | 2020-01-20 | 2022-04-06 | 경희대학교 산학협력단 | 인공 신경망의 가중치를 처리하는 방법 및 장치 |
| CN113298843B (zh) * | 2020-02-24 | 2024-05-14 | 中科寒武纪科技股份有限公司 | 数据量化处理方法、装置、电子设备和存储介质 |
| CN111401518B (zh) * | 2020-03-04 | 2024-06-04 | 北京硅升科技有限公司 | 一种神经网络量化方法、装置及计算机可读存储介质 |
| CN111510157B (zh) | 2020-04-15 | 2022-03-04 | 腾讯科技(深圳)有限公司 | 基于神经网络的量子纠错解码方法、装置及芯片 |
| KR102455310B1 (ko) | 2020-05-08 | 2022-10-18 | 한국전자통신연구원 | 콘볼루션 신경망 양자화 추론 장치 및 방법 |
| KR102520572B1 (ko) * | 2020-06-22 | 2023-04-11 | 한양대학교 산학협력단 | 이미지 근사화 및 가중치 양자화를 이용한 객체 검출 가속화 방법 및 이를 이용하는 뉴럴 가속기 |
| DE102021100404A1 (de) | 2021-01-12 | 2022-07-14 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Bestimmen einer optimierten komprimierten Netzkonfiguration, Assistenzeinrichtung und Kraftfahrzeug |
| JP7325015B2 (ja) * | 2021-03-24 | 2023-08-14 | パナソニックIpマネジメント株式会社 | 量子化方法、量子化装置、及び、プログラム |
| US20230008014A1 (en) * | 2021-07-07 | 2023-01-12 | Renesas Electronics Corporation | Data processing device, data-processing method and recording media |
| TWI819627B (zh) * | 2022-05-26 | 2023-10-21 | 緯創資通股份有限公司 | 用於深度學習網路的優化方法、運算裝置及電腦可讀取媒體 |
| CN115311506B (zh) * | 2022-10-11 | 2023-03-28 | 之江实验室 | 基于阻变存储器的量化因子优化的图像分类方法及装置 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20030021440A1 (en) | 1993-11-18 | 2003-01-30 | Rhoads Geoffrey B. | Digital watermarking employing noise model |
| US20140310216A1 (en) * | 2013-04-15 | 2014-10-16 | Qualcomm Incorporated | Method for generating compact representations of spike timing-dependent plasticity curves |
| US20170270408A1 (en) | 2016-03-16 | 2017-09-21 | Hong Kong Applied Science and Technology Research Institute Company, Limited | Method and System for Bit-Depth Reduction in Artificial Neural Networks |
Family Cites Families (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6961719B1 (en) | 2002-01-07 | 2005-11-01 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Hybrid neural network and support vector machine method for optimization |
| US7774143B2 (en) | 2002-04-25 | 2010-08-10 | The United States Of America As Represented By The Secretary, Department Of Health And Human Services | Methods for analyzing high dimensional data for classifying, diagnosing, prognosticating, and/or predicting diseases and other biological states |
| CA2642041C (en) | 2005-12-23 | 2014-07-15 | Le Tan Thanh Tai | Spatio-temporal pattern recognition using a spiking neural network and processing thereof on a portable and/or distributed computer |
| US9620426B2 (en) | 2010-02-18 | 2017-04-11 | Kla-Tencor Corporation | Method and system for providing process tool correctables using an optimized sampling scheme with smart interpolation |
| EP2742467B1 (en) | 2011-08-11 | 2016-07-20 | Greenray Industries, Inc. | Neural network frequency control |
| EP2981136B1 (en) | 2013-03-28 | 2018-10-24 | Fujitsu Limited | Terminal device, position estimation method, position estimation system, and program |
| US10964409B2 (en) | 2013-10-04 | 2021-03-30 | Sequenom, Inc. | Methods and processes for non-invasive assessment of genetic variations |
| KR101924487B1 (ko) * | 2013-12-17 | 2018-12-03 | 에이에스엠엘 네델란즈 비.브이. | 수율 추산 및 제어 |
| US10019990B2 (en) | 2014-09-09 | 2018-07-10 | Microsoft Technology Licensing, Llc | Variable-component deep neural network for robust speech recognition |
| US10373050B2 (en) | 2015-05-08 | 2019-08-06 | Qualcomm Incorporated | Fixed point neural network based on floating point neural network quantization |
| US10262259B2 (en) | 2015-05-08 | 2019-04-16 | Qualcomm Incorporated | Bit width selection for fixed point neural networks |
| US10643124B2 (en) * | 2016-08-12 | 2020-05-05 | Beijing Deephi Intelligent Technology Co., Ltd. | Method and device for quantizing complex artificial neural network |
| CN107256422A (zh) * | 2017-06-06 | 2017-10-17 | 上海兆芯集成电路有限公司 | 数据量化方法及装置 |
| US9916531B1 (en) * | 2017-06-22 | 2018-03-13 | Intel Corporation | Accumulator constrained quantization of convolutional neural networks |
-
2017
- 2017-09-25 KR KR1020170123658A patent/KR102728799B1/ko active Active
-
2018
- 2018-06-08 CN CN201810589961.9A patent/CN109558945A/zh active Pending
- 2018-06-14 US US16/008,275 patent/US11275986B2/en active Active
- 2018-09-07 DE DE102018121905.9A patent/DE102018121905A1/de active Pending
- 2018-09-12 TW TW107132005A patent/TWI791610B/zh active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20030021440A1 (en) | 1993-11-18 | 2003-01-30 | Rhoads Geoffrey B. | Digital watermarking employing noise model |
| US20140310216A1 (en) * | 2013-04-15 | 2014-10-16 | Qualcomm Incorporated | Method for generating compact representations of spike timing-dependent plasticity curves |
| US20170270408A1 (en) | 2016-03-16 | 2017-09-21 | Hong Kong Applied Science and Technology Research Institute Company, Limited | Method and System for Bit-Depth Reduction in Artificial Neural Networks |
Non-Patent Citations (5)
| Title |
|---|
| K. Hwang 등, 'Fixed-Point Feedforward Deep Neural Network Design Using Weights +1, 0, and -1', 2014 IEEE Workshop on Signal Processing Systems (SiPS), Belfast, UK, 2014, pp. 1-6. |
| S. Han 등, "DEEP COMPRESSION: COMPRESSING DEEP NEURAL NETWORKS WITH PRUNING, TRAINED QUANTIZATION AND HUFFMAN CODING", arXiv:1510.00149v5 [cs.CV], 2016.02.15. 1부.* |
| S. Zhou 등, "Balanced Quantization: An Effective and Efficient Approach to Quantized Neural Networks", JOURNAL OF COMPUTER SCIENCE AND TECHNOLOGY 32(4): pp. 667-682, 2017.07. 1부.* |
| Z. Cai 등, "Deep Learning With Low Precision by Half-Wave Gaussian Quantization", Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 5918-5926, 2017. 1부.* |
| Z. Qiu 등, 'Deep quantization: Encoding convolutional activations with deep generative model', Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2017. |
Also Published As
| Publication number | Publication date |
|---|---|
| TWI791610B (zh) | 2023-02-11 |
| US11275986B2 (en) | 2022-03-15 |
| CN109558945A (zh) | 2019-04-02 |
| US20190095777A1 (en) | 2019-03-28 |
| KR20190034985A (ko) | 2019-04-03 |
| DE102018121905A1 (de) | 2019-03-28 |
| TW201915839A (zh) | 2019-04-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102728799B1 (ko) | 인공 신경망의 양자화 방법 및 장치 | |
| KR102782965B1 (ko) | 인공 신경망의 양자화 방법 및 장치 | |
| KR102788531B1 (ko) | 고정 소수점 뉴럴 네트워크를 생성하는 방법 및 장치 | |
| KR102589303B1 (ko) | 고정 소수점 타입의 뉴럴 네트워크를 생성하는 방법 및 장치 | |
| CN111652368B (zh) | 一种数据处理方法及相关产品 | |
| KR102855357B1 (ko) | 뉴럴 네트워크 장치 및 뉴럴 네트워크의 파라미터 양자화 방법 | |
| CN110880038B (zh) | 基于fpga的加速卷积计算的系统、卷积神经网络 | |
| EP3474194B1 (en) | Method and apparatus with neural network parameter quantization | |
| CN110969251B (zh) | 基于无标签数据的神经网络模型量化方法及装置 | |
| US20200302283A1 (en) | Mixed precision training of an artificial neural network | |
| US11972347B2 (en) | System and method for emulating quantization noise for a neural network | |
| KR102368590B1 (ko) | 전자 장치 및 그 제어 방법 | |
| CN112561050B (zh) | 一种神经网络模型训练方法及装置 | |
| CN114254746A (zh) | 执行神经网络的方法和设备 | |
| KR102765759B1 (ko) | 딥 뉴럴 네트워크를 양자화하는 방법 및 장치 | |
| KR20210035702A (ko) | 인공 신경망의 양자화 방법 및 인공 신경망을 이용한 연산 방법 | |
| US20220405561A1 (en) | Electronic device and controlling method of electronic device | |
| CN115688878A (zh) | 量化门限调优方法、装置、设备及存储介质 | |
| Mujtaba et al. | AuGQ: Augmented quantization granularity to overcome accuracy degradation for sub-byte quantized deep neural networks | |
| US20250068895A1 (en) | Quantization method and apparatus for artificial neural network | |
| US20230385600A1 (en) | Optimizing method and computing apparatus for deep learning network and computer-readable storage medium | |
| US20240361988A1 (en) | Optimizing method and computing system for deep learning network |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20170925 |
|
| PG1501 | Laying open of application | ||
| A201 | Request for examination | ||
| PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20200908 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20170925 Comment text: Patent Application |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20230429 Patent event code: PE09021S01D |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20231130 Patent event code: PE09021S01D |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20240806 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20241106 Patent event code: PR07011E01D |
|
| PR1002 | Payment of registration fee |
Payment date: 20241107 End annual number: 3 Start annual number: 1 |
|
| PG1601 | Publication of registration |