KR102746707B1 - Circuit for implementing simplified sigmoid function and neuromorphic processor including the circuit - Google Patents
Circuit for implementing simplified sigmoid function and neuromorphic processor including the circuit Download PDFInfo
- Publication number
- KR102746707B1 KR102746707B1 KR1020210069870A KR20210069870A KR102746707B1 KR 102746707 B1 KR102746707 B1 KR 102746707B1 KR 1020210069870 A KR1020210069870 A KR 1020210069870A KR 20210069870 A KR20210069870 A KR 20210069870A KR 102746707 B1 KR102746707 B1 KR 102746707B1
- Authority
- KR
- South Korea
- Prior art keywords
- circuit
- sigmoid function
- input data
- simplified
- domain
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
- G06N3/065—Analogue means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
Abstract
본 개시는 간소화된 시그모이드 함수 회로 및 이를 포함하는 뉴로모픽 프로세서에 대한 것으로, 본 개시에 따른 간소화된 시그모이드 함수 회로는 입력 데이터의 실수 영역에서의 부호가 양인 경우, 상기 입력 데이터에 대하여 간소화된 시그모이드 함수에 기반한 연산을 수행하는 제 1 회로, 상기 입력 데이터의 실수 영역에서의 부호가 음인 경우, 상기 입력 데이터에 대하여 상기 간소화된 시그모이드 함수에 기반한 연산을 수행하는 제 2 회로 및 상기 입력 데이터의 부호에 기반하여 상기 제 1 회로의 출력 및 상기 제 2 회로의 출력 중 어느 하나를 선택하여 출력하는 제 1 멀티플렉서를 포함하되, 상기 간소화된 시그모이드 함수는 실수 영역의 시그모이드 함수를 로그 영역의 시그모이드 함수로 변환하고, 상기 로그 영역의 시그모이드 함수를 변분 변환하여 도출된다.The present disclosure relates to a simplified sigmoid function circuit and a neuromorphic processor including the same. The simplified sigmoid function circuit according to the present disclosure includes: a first circuit which performs an operation based on a simplified sigmoid function on input data when a sign of the input data in a real domain is positive; a second circuit which performs an operation based on the simplified sigmoid function on the input data when the sign of the input data in a real domain is negative; and a first multiplexer which selects and outputs one of an output of the first circuit and an output of the second circuit based on the sign of the input data, wherein the simplified sigmoid function is derived by converting a sigmoid function in a real domain into a sigmoid function in a log domain and by variationally transforming the sigmoid function in the log domain.
Description
본 개시는 인공지능(Artificial Intelligence, AI) 기술에 관한 것으로, 좀 더 상세하게는 인공신경망(Artificial Neural Network, ANN)에 사용되는 간소화된 시그모이드 함수 회로 및 이를 포함하는 뉴로모픽 프로세서에 관한 것이다.The present disclosure relates to artificial intelligence (AI) technology, and more specifically, to a simplified sigmoid function circuit used in an artificial neural network (ANN) and a neuromorphic processor including the same.
최근 4차 산업 혁명의 핵심 기술인 인공지능(Artificial Intelligence, AI) 기술에 대한 관심이 높아지고 있다. 인공지능이란, 인간의 지능을 기계, 시스템 등에 인공적으로 구현한 것으로, 인공신경망(Artificial Neural Network, ANN)으로 불리는 학습 알고리즘에 기반하여 구현될 수 있다. 인공신경망은 생물학의 신경망과 유사한 방식으로 데이터를 처리하는 통계학적인 망이다. 인공신경망은 문자 인식, 이미지 인식, 음성 인식, 얼굴 인식 등과 같은 다양한 분야에서 사용될 수 있다.Recently, interest in artificial intelligence (AI), a core technology of the 4th industrial revolution, has been increasing. AI is the artificial implementation of human intelligence in machines, systems, etc., and can be implemented based on a learning algorithm called an artificial neural network (ANN). An artificial neural network is a statistical network that processes data in a similar way to a biological neural network. An artificial neural network can be used in various fields such as character recognition, image recognition, voice recognition, and face recognition.
기술의 발전에 따라, 인공신경망의 복잡도는 보다 증가하고, 인공신경망을 통하여 다뤄지는 데이터의 양과 종류가 방대해지면서, 인공신경망에 요구되는 연산량이 급격히 증가하였다. 연산량 증가에 따라 인공신경망의 데이터 처리 속도가 현저히 떨어지는 문제점을 해결하기 위하여, 연산량을 감소시키기 위한 텐서 분해법(Tensor Decomposition), 망 가지치기(Network Pruning), 양자화 등 다양한 방법이 제안되었으나, 연산량을 획기적으로 감소시키기에 어려움이 있다.As technology advances, the complexity of artificial neural networks increases, and the amount and type of data handled by artificial neural networks increases dramatically, leading to a rapid increase in the amount of computation required by artificial neural networks. In order to solve the problem that the data processing speed of artificial neural networks decreases significantly due to the increase in computational amount, various methods such as tensor decomposition, network pruning, and quantization have been proposed to reduce the amount of computation, but it is difficult to drastically reduce the amount of computation.
본 개시는 인공신경망(Artificial Neural Network, ANN)에 사용되는 간소화된 시그모이드 함수 회로 및 이를 포함하는 뉴로모픽 프로세서를 제공하는 것을 목적으로 한다.The present disclosure aims to provide a simplified sigmoid function circuit used in an artificial neural network (ANN) and a neuromorphic processor including the same.
본 개시의 실시 예에 따른 간소화된 시그모이드 함수 회로는 입력 데이터의 실수 영역에서의 부호가 양인 경우, 상기 입력 데이터에 대하여 간소화된 시그모이드 함수에 기반한 연산을 수행하는 제 1 회로, 상기 입력 데이터의 실수 영역에서의 부호가 음인 경우, 상기 입력 데이터에 대하여 상기 간소화된 시그모이드 함수에 기반한 연산을 수행하는 제 2 회로 및 상기 입력 데이터의 부호에 기반하여 상기 제 1 회로의 출력 및 상기 제 2 회로의 출력 중 어느 하나를 선택하여 출력하는 제 1 멀티플렉서를 포함하되, 상기 간소화된 시그모이드 함수는 실수 영역의 시그모이드 함수를 로그 영역의 시그모이드 함수로 변환하고, 상기 로그 영역의 시그모이드 함수를 변분 변환하여 도출된다.A simplified sigmoid function circuit according to an embodiment of the present disclosure includes a first circuit which performs an operation based on a simplified sigmoid function on input data when a sign of the input data in a real domain is positive, a second circuit which performs an operation based on the simplified sigmoid function on the input data when the sign of the input data in a real domain is negative, and a first multiplexer which selects and outputs one of an output of the first circuit and an output of the second circuit based on the sign of the input data, wherein the simplified sigmoid function is derived by converting a sigmoid function in a real domain into a sigmoid function in a log domain and by variationally transforming the sigmoid function in the log domain.
예로서, 상기 제 1 회로는 상기 변분 변환을 위한 제 1 계수를 선택하는 제 2 멀티플렉서 및 상기 변분 변환을 위한 제 2 계수를 선택하는 제 3 멀티플렉서를 포함하고, 상기 제 2 회로는 상기 변분 변환을 위한 제 3 계수를 선택하는 제 4 멀티플렉서 및 상기 변분 변환을 위한 제 4 계수를 선택하는 제 5 멀티플렉서를 포함한다.For example, the first circuit includes a second multiplexer for selecting a first coefficient for the variational transform and a third multiplexer for selecting a second coefficient for the variational transform, and the second circuit includes a fourth multiplexer for selecting a third coefficient for the variational transform and a fifth multiplexer for selecting a fourth coefficient for the variational transform.
예로서, 상기 제 1 회로는 상기 입력 데이터의 크기와 상기 제 1 계수의 곱 연산을 수행하는 제 1 곱셈기 및 상기 입력 데이터의 크기와 상기 제 1 계수의 곱 엽산의 결과와 상기 제 2 계수의 합 연산을 수행하는 제 1 합산기를 더 포함하고, 상기 제 2 회로는 상기 입력 데이터의 크기와 상기 제 3 계수의 곱 연산을 수행하는 제 2 곱셈기 및 상기 입력 데이터의 크기와 상기 제 3 계수의 곱 연산의 결과와 상기 제 4 계수의 합 연산을 수행하는 제 2 합산기를 더 포함한다.For example, the first circuit further includes a first multiplier which performs a product operation of the size of the input data and the first coefficient, and a first adder which performs a sum operation of the result of the product of the size of the input data and the first coefficient and the second coefficient, and the second circuit further includes a second multiplier which performs a product operation of the size of the input data and the third coefficient, and a second adder which performs a sum operation of the result of the product operation of the size of the input data and the third coefficient and the fourth coefficient.
예로서, 상기 변분 변환은 상기 입력 데이터의 구간별 변분 변환을 통하여 근사화한 결과를 도출한다.As an example, the above variational transformation derives an approximated result through interval-wise variational transformation of the input data.
본 개시의 실시 예에 따른 뉴로모픽 프로세서는 인공 신경망의 연산을 수행하기 위한 복수의 인공뉴런 구현 소자들을 포함하는 인공뉴런 구현 소자 어레이를 포함하되, 상기 복수의 인공뉴런 구현 소자들 각각은 입력 데이터와 가중치의 곱에 대한 합 연산을 수행하는 합산 회로 및 상기 합산 회로의 연산 결과로부터 활성 함수를 통한 활성 경과를 도출하는 활성 함수 회로를 포함하고, 상기 활성 함수는 실수 영역의 시그모이드 함수를 로그 영역의 시그모이드 함수로 변환하고, 상기 로그 영역의 시그모이드 함수를 변분 변환하여 도출된다.A neuromorphic processor according to an embodiment of the present disclosure includes an artificial neuron implementation element array including a plurality of artificial neuron implementation elements for performing an operation of an artificial neural network, wherein each of the plurality of artificial neuron implementation elements includes a summation circuit for performing a summation operation on a product of input data and a weight, and an activation function circuit for deriving an activation process through an activation function from a result of the operation of the summation circuit, wherein the activation function is derived by converting a sigmoid function of a real number domain into a sigmoid function of a log domain, and by variationally transforming the sigmoid function of the log domain.
예로서, 상기 활성 함수 회로는 적어도 하나의 간소화된 시그모이드 함수 회로를 포함하고, 상기 적어도 하나의 간소화된 시그모이드 함수 회로는 입력 데이터의 실수 영역에서의 부호가 양인 경우, 상기 입력 데이터에 대하여 간소화된 시그모이드 함수에 기반한 연산을 수행하는 제 1 회로, 상기 입력 데이터의 실수 영역에서의 부호가 음인 경우, 상기 입력 데이터에 대하여 상기 간소화된 시그모이드 함수에 기반한 연산을 수행하는 제 2 회로 및 상기 입력 데이터의 부호에 기반하여 상기 제 1 회로의 출력 및 상기 제 2 회로의 출력 중 어느 하나를 선택하여 출력하는 제 1 멀티플렉서를 포함한다.For example, the activation function circuit includes at least one simplified sigmoid function circuit, wherein the at least one simplified sigmoid function circuit includes a first circuit which performs an operation based on the simplified sigmoid function on input data when the sign of the input data in the real domain is positive, a second circuit which performs an operation based on the simplified sigmoid function on the input data when the sign of the input data in the real domain is negative, and a first multiplexer which selects and outputs one of an output of the first circuit and an output of the second circuit based on the sign of the input data.
예로서, 상기 제 1 회로는 상기 입력 데이터의 크기와 상기 제 1 계수의 곱 연산을 수행하는 제 1 곱셈기 및 상기 입력 데이터의 크기와 상기 제 1 계수의 곱 엽산의 결과와 상기 제 2 계수의 합 연산을 수행하는 제 1 합산기를 더 포함하고, 상기 제 2 회로는 상기 입력 데이터의 크기와 상기 제 3 계수의 곱 연산을 수행하는 제 2 곱셈기 및 상기 입력 데이터의 크기와 상기 제 3 계수의 곱 연산의 결과와 상기 제 4 계수의 합 연산을 수행하는 제 2 합산기를 더 포함한다.For example, the first circuit further includes a first multiplier which performs a product operation of the size of the input data and the first coefficient, and a first adder which performs a sum operation of the result of the product of the size of the input data and the first coefficient and the second coefficient, and the second circuit further includes a second multiplier which performs a product operation of the size of the input data and the third coefficient, and a second adder which performs a sum operation of the result of the product operation of the size of the input data and the third coefficient and the fourth coefficient.
예로서, 상기 제 1 회로는 상기 변분 변환을 위한 제 1 계수를 선택하는 제 2 멀티플렉서 및 상기 변분 변환을 위한 제 2 계수를 선택하는 제 3 멀티플렉서를 포함하고, 상기 제 2 회로는 상기 변분 변환을 위한 제 3 계수를 선택하는 제 4 멀티플렉서 및 상기 변분 변환을 위한 제 4 계수를 선택하는 제 5 멀티플렉서를 포함한다.For example, the first circuit includes a second multiplexer for selecting a first coefficient for the variational transform and a third multiplexer for selecting a second coefficient for the variational transform, and the second circuit includes a fourth multiplexer for selecting a third coefficient for the variational transform and a fifth multiplexer for selecting a fourth coefficient for the variational transform.
예로서, 상기 변분 변환은 상기 입력 데이터의 구간별 변분 변환을 통하여 근사화한 결과를 도출한다.As an example, the above variational transformation derives an approximated result through interval-wise variational transformation of the input data.
예로서, 본 개시에 따른 뉴로모픽 프로세서는 외부로부터 상기 입력 데이터를 수신하고, 상기 외부로 상기 입력 데이터에 대한 상기 인공 신경망의 연산 결과를 출력하는 입출력 유닛, 상기 입출력 유닛으로부터 상기 입력 데이터를 수신하고, 상기 입력 데이터를 전달하는 제어 로직 유닛, 상기 제어 로직 유닛으로부터 상기 인공뉴런 구현 소자 어레이에 상기 입력 데이터를 전달하는 워드 라인 바이어스 유닛, 상기 인공뉴런 구현 소자 어레이로부터 상기 입력 데이터에 대한 연산 결과를 검출하는 비트 라인 바이어스 및 검출 유닛을 더 포함한다.For example, a neuromorphic processor according to the present disclosure further includes an input/output unit which receives input data from the outside and outputs a computation result of the artificial neural network for the input data to the outside, a control logic unit which receives the input data from the input/output unit and transmits the input data, a word line bias unit which transmits the input data from the control logic unit to the artificial neuron implementation element array, and a bit line bias and detection unit which detects a computation result for the input data from the artificial neuron implementation element array.
예로서, 본 개시에 따른 뉴로모픽 프로세서는 상기 인공뉴런 구현 소자 어레이에 포함되는 복수의 인공뉴런 구현 소자들의 연결 관계에 대한 정보를 저장하는 비휘발성 메모리, 상기 인공뉴런 구현 소자 어레이로부터 검출된 상기 연산 결과를 저장하는 휘발성 메모리를 더 포함한다.For example, a neuromorphic processor according to the present disclosure further includes a nonvolatile memory that stores information about a connection relationship between a plurality of artificial neuron implementation elements included in the artificial neuron implementation element array, and a volatile memory that stores the operation result detected from the artificial neuron implementation element array.
본 개시에 따른 간소화된 시그모이드 함수 회로 및 이를 포함하는 뉴로모픽 프로세서에 의하면, 실수 영역에서 연산이 이루어지는 시그모이드 함수를 로그 영역에서 처리함으로써 인공신경망의 연산량을 획기적으로 감소시킬 수 있다.According to the simplified sigmoid function circuit and the neuromorphic processor including the same according to the present disclosure, the amount of computation of an artificial neural network can be drastically reduced by processing the sigmoid function, which is calculated in the real number domain, in the log domain.
도 1은 본 개시의 실시 예에 따른 인공신경망을 나타내는 도면이다.
도 2는 본 개시의 실시 예에 따른 인공뉴런을 나타내는 도면이다.
도 3은 본 개시의 실시 예에 따른 간소화된 시그모이드 함수 회로를 나타내는 도면이다.
도 4는 본 개시의 실시 예에 따른 간소화된 시그모이드 함수 회로가 적용된 뉴로모픽 프로세서를 나타내는 도면이다.FIG. 1 is a diagram illustrating an artificial neural network according to an embodiment of the present disclosure.
FIG. 2 is a diagram showing an artificial neuron according to an embodiment of the present disclosure.
FIG. 3 is a diagram showing a simplified sigmoid function circuit according to an embodiment of the present disclosure.
FIG. 4 is a diagram showing a neuromorphic processor to which a simplified sigmoid function circuit according to an embodiment of the present disclosure is applied.
이하에서, 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 용이하게 실시할 수 있을 정도로, 본 개시의 실시 예들은 명확하고 상세하게 기재될 것이다.Hereinafter, embodiments of the present disclosure will be described clearly and in detail to such an extent that a person skilled in the art can easily practice the present disclosure.
본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며, 본 개시를 제한하고자 하는 것은 아니다. 본 명세서에서 사용된 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises) 및/또는 포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자에 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of describing embodiments only and is not intended to be limiting of the present disclosure. As used herein, the singular forms “singular” and “comprising” include plural forms unless the context clearly dictates otherwise. As used herein, the terms “comprises” and/or “comprising” do not exclude the presence or addition of one or more other components, steps, operations, and/or elements to the components, steps, operations, and/or elements stated.
본 명세서에서 사용되는 "제 1 및/또는 제 2" 등의 용어는 다양한 구성요소들을 설명하기 위하여 사용될 수 있으나, 이는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 목적으로만 사용될 뿐, 해당 용어로 지칭되는 구성요소를 한정하기 위한 것은 아니다. 예를 들어, 본 개시의 권리 범위를 벗어나지 않는 한, 제 1 구성요소는 제 2 구성요소로 명명될 수 있으며, 제 2 구성요소 또한 제 1 구성요소로 명명될 수 있다.The terms "first and/or second" used in this specification may be used to describe various components, but are only used for the purpose of distinguishing one component from another component, and are not intended to limit the component referred to by the terms. For example, without departing from the scope of the present disclosure, the first component may be referred to as the second component, and the second component may also be referred to as the first component.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 잇는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서, 전문에 걸쳐 동일한 참조 부호는 동일한 구성 요소를 지칭할 수 있다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used in a meaning that can be commonly understood by a person of ordinary skill in the art to which this disclosure belongs. In addition, terms defined in commonly used dictionaries shall not be ideally or excessively interpreted unless explicitly specifically defined. In this specification, the same reference numerals may refer to the same components throughout the specification.
도 1은 본 개시의 실시 예에 따른 인공신경망(Artificial Neural Network; ANN, 10)을 나타내는 도면이다. 도 1을 참조하면, 본 개시의 실시예에 따른 인공신경망은 입력층(Input Layer, IL), 은닉층(Hidden Layer, HL) 및 출력층(Output Layer, OL)을 포함할 수 있다. 입력층(IL), 은닉층(HL) 및 출력층(OL)은 시냅스(Synapse, SN)를 통하여 서로 연결될 수 있다.FIG. 1 is a diagram illustrating an artificial neural network (ANN, 10) according to an embodiment of the present disclosure. Referring to FIG. 1, the artificial neural network according to an embodiment of the present disclosure may include an input layer (IL), a hidden layer (HL), and an output layer (OL). The input layer (IL), the hidden layer (HL), and the output layer (OL) may be connected to each other through synapses (SN).
인공신경망(10)은 복수의 인공뉴런(100)들을 포함할 수 있다. 복수의 인공뉴런(100)들은 외부로부터 입력 데이터(X1, X2, …, Xn)를 수신하는 복수의 입력 뉴런들, 복수의 입력 뉴런들로부터 데이터를 수신하고 이를 처리하는 복수의 은닉 뉴런들 및 복수의 은닉 뉴런들로부터 데이터를 수신하고 출력 데이터(Y1, Y2, …, Ym)를 생성하는 복수의 출력 뉴런들을 포함할 수 있다. 입력층(IL)은 복수의 입력 뉴런들을 포함할 수 있고, 은닉층(HL)은 복수의 은닉 뉴런들을 포함할 수 있으며, 출력층(OL)은 복수의 출력 뉴런들을 포함할 수 있다.An artificial neural network (10) may include a plurality of artificial neurons (100). The plurality of artificial neurons (100) may include a plurality of input neurons that receive input data (X 1 , X 2 , ..., X n ) from the outside, a plurality of hidden neurons that receive data from the plurality of input neurons and process the data, and a plurality of output neurons that receive data from the plurality of hidden neurons and generate output data (Y 1 , Y 2 , ..., Y m ). An input layer (IL) may include a plurality of input neurons, a hidden layer (HL) may include a plurality of hidden neurons, and an output layer (OL) may include a plurality of output neurons.
입력층(IL), 은닉층(HL) 및 출력층(OL) 각각에 포함된 인공 뉴런들의 개수는 도 1에 도시된 바에 한정되지 않는다. 또한, 은닉층(HL)은 도 1에 도시된 것보다 더 많은 층(Layer)들을 포함할 수 있다. 은닉층(HL)의 개수는 인공신경망(10)의 정확도 및 학습 속도와 관련될 수 있다. 또한, 입력 데이터(X1, X2, …, Xn) 및 출력 데이터(Y1, Y2, …, Ym)는 텍스트, 이미지 등 다양한 형태의 데이터일 수 있다.The number of artificial neurons included in each of the input layer (IL), the hidden layer (HL), and the output layer (OL) is not limited to that shown in Fig. 1. In addition, the hidden layer (HL) may include more layers than that shown in Fig. 1. The number of hidden layers (HL) may be related to the accuracy and learning speed of the artificial neural network (10). In addition, the input data (X 1 , X 2 , …, X n ) and the output data (Y 1 , Y 2 , …, Y m ) may be various forms of data such as text and images.
도 2는 본 개시의 실시 예에 따른 인공뉴런(100)을 나타내는 도면이다. 도 2를 참조하면, 인공뉴런(100)은 합산 회로(Summation Circuit, 110) 및 활성 함수 회로(Activation Function Circuit, 120)를 포함할 수 있다.FIG. 2 is a drawing showing an artificial neuron (100) according to an embodiment of the present disclosure. Referring to FIG. 2, the artificial neuron (100) may include a summation circuit (110) and an activation function circuit (120).
합산 회로(110)는 가중치들(W1, W2, …, WK)을 이용하여 입력 신호들(A1, A2, …, AK)을 합산할 수 있다. 입력 신호들(A1, A2, …, AK) 각각은 임의의 인공뉴런으로부터 생성된 출력 신호일 수 있다. 가중치들(W1, W2, …, WK) 각각은 시냅스(SN, 도 1 참조)의 강도, 다시 말하면 하나의 인공뉴런과 다른 하나의 인공뉴런과의 결합 정도를 나타낼 수 있다. 합산 회로(110)는 가중치들(W1, W2, …, WK)과 입력 신호들(A1, A2, …, AK)을 각각 곱한 후, 그 결과들을 합쳐서 합산 결과(B)를 도출할 수 있다. 합산 결과(B)는 수학식 1로 나타낼 수 있다.The summing circuit (110) can sum the input signals (A 1 , A 2 , …, A K ) using the weights (W 1 , W 2 , …, W K ) . Each of the input signals (A 1 , A 2 , …, A K ) can be an output signal generated from an arbitrary artificial neuron. Each of the weights (W 1 , W 2 , …, W K ) can represent the strength of a synapse (SN, see FIG. 1), in other words, the degree of coupling between one artificial neuron and another artificial neuron. The summing circuit (110) can derive a summing result (B) by multiplying the weights (W 1 , W 2 , …, W K ) by the input signals (A 1 , A 2 , …, A K ). The summing result (B) can be expressed by mathematical expression 1.
활성 함수 회로(120)는 합산 결과(B) 및 활성 함수(Activation Function, f)를 이용하여 활성 결과(C)를 도출할 수 있다. 본 개시의 실시 예에 따른 활성 함수(f)는 간소화된 시그모이드 함수일 수 있다. 시그모이드 함수란, 선형인 멀티퍼셉트론에서 비선형 값을 도출하기 위하여 이용될 수 있으며, 예로서 로지스틱(Logistic) 함수를 포함할 수 있다. 시그모이드 함수는 실수(Real Number) 영역에서 정의될 수 있으며, 수학식 2로 나타낼 수 있다. 수학식 2에서, sig(x)는 실수 영역의 시그모이드 함수를, x는 실수 변수를 의미한다.The activation function circuit (120) can derive an activation result (C) by using the sum result (B) and the activation function (Activation Function, f). The activation function (f) according to the embodiment of the present disclosure can be a simplified sigmoid function. The sigmoid function can be used to derive a nonlinear value in a linear multiperceptron, and may include a logistic function as an example. The sigmoid function can be defined in a real number domain and can be expressed by mathematical expression 2. In mathematical expression 2, sig(x) represents a sigmoid function in a real number domain, and x represents a real variable.
본 개시의 실시 예에서, 활성 함수(f)로 이용되는 간소화된 시그모이드 함수는 인공신경망의 연산량을 감소시키기 위하여 로그 영역에서의 시그모이드 함수를 변분 변환한 형태일 수 있다. 즉, 본 개시의 실시 예에서 이용되는 활성 함수(f)는 로그 영역의 시그모이드 함수를 도출하고, 도출된 로그 영역의 시그모이드 함수를 변분 변환하는 과정을 통하여 도출될 수 있다.In the embodiments of the present disclosure, the simplified sigmoid function used as the activation function (f) may be a variational form of the sigmoid function in the log domain in order to reduce the amount of computation of the artificial neural network. That is, the activation function (f) used in the embodiments of the present disclosure may be derived through a process of deriving a sigmoid function in the log domain and variationally transforming the derived sigmoid function in the log domain.
로그 영역의 시그모이드 함수는 수학식 2에 제시된 실수 영역의 시그모이드 함수의 양 변에 자연로그를 취하여 유도할 수 있다. 로그 영역의 시그모이드 함수를 유도하는 과정은 수학식 3의 (1) 내지 (4) 과정으로 나타낼 수 있으며, 수학식 3에서 sig(x)는 실수 영역의 시그모이드 함수를, SIG(X)는 로그 영역의 시그모이드 함수를, x는 실수 변수를, X는 로그 영역의 변수를 의미한다. 이하, 표기의 명확화를 위하여 ex는 exp(x)의 형태로 표현한다.The sigmoid function in the log domain can be derived by taking the natural logarithm of both sides of the sigmoid function in the real domain presented in Equation 2. The process of deriving the sigmoid function in the log domain can be expressed as processes (1) to (4) of Equation 3. In Equation 3, sig(x) represents the sigmoid function in the real domain, SIG(X) represents the sigmoid function in the log domain, x represents a real variable, and X represents a variable in the log domain. Hereinafter, for the sake of clarity of notation, e x is expressed in the form of exp(x).
수학식 3으로부터 도출된 로그 영역의 시그모이드 함수는 인공신경망의 연산량을 줄이기 위하여 변분 변환될 수 있다. 로그 영역의 시그모이드 함수의 변분 변환은 실수 변수 x의 부호에 따라 달리 유도될 수 있다. 먼저, 실수 변수 x가 양수인 경우 유도 과정은 수학식 4의 (1) 내지 (12) 과정으로 나타낼 수 있다. 수학식 4에서 F(x)는 변분 변환을 통하여 도출되는 근사식을 의미하고, D(x)는 로그 영역의 시그모이드 함수 SIG(X)와 근사식의 차이를 의미한다. 또한, Y는 D(x)를 최소화한 함수를 의미한다.The sigmoid function of the log domain derived from mathematical expression 3 can be variationally transformed to reduce the amount of computation of the artificial neural network. The variational transformation of the sigmoid function of the log domain can be derived differently depending on the sign of the real variable x. First, when the real variable x is positive, the derivation process can be expressed as processes (1) to (12) of mathematical expression 4. In mathematical expression 4, F(x) denotes an approximate expression derived through the variational transformation, and D(x) denotes the difference between the sigmoid function SIG(X) of the log domain and the approximate expression. In addition, Y denotes a function that minimizes D(x).
실수 변수 x가 음수인 경우 로그 영역의 시그모이드 함수는 수학식 5와 같이 표현된다. 수학식 5에서, x는 음수이므로 양수인 xp와 -1의 곱으로 표현할 수 있다. 수학식 5에서 sig(x)는 실수 영역에서의 시그모이드 함수를 의미하고, SIG(Xp)는 로그 영역의 시그모이드 함수를 의미한다.When the real variable x is negative, the sigmoid function in the log domain is expressed as in Equation 5. In Equation 5, since x is negative, it can be expressed as the product of xp, which is a positive number, and -1. In Equation 5, sig(x) means the sigmoid function in the real domain, and SIG(Xp) means the sigmoid function in the log domain.
실수 변수 x가 음수인 경우, 유도 과정은 수학식 6의 (1) 내지 (12) 과정으로 나타낼 수 있다. 수학식 6에서 F(x)는 변분 변환을 통하여 도출되는 근사식을 의미하고, D(x)는 로그 영역의 시그모이드 함수 SIG(Xp)와 근사식의 차이를 의미한다. 또한, Y는 D(xp)를 최소화한 함수를 의미한다.When the real variable x is negative, the derivation process can be expressed as processes (1) to (12) of Equation 6. In Equation 6, F(x) denotes an approximate formula derived through variational transformation, and D(x) denotes the difference between the sigmoid function SIG(Xp) in the log domain and the approximate formula. In addition, Y denotes a function that minimizes D(xp).
수학식 4 및 수학식 6에서 도출된 근사식 F(X) 및 F(Xp)는 활성 함수 회로(120)에서 활성 결과(C)를 도출하기 위한 활성 함수(f)로 이용될 수 있다.The approximate formulas F(X) and F(Xp) derived from mathematical expressions 4 and 6 can be used as an activation function (f) to derive an activation result (C) in an activation function circuit (120).
도 3은 본 개시의 실시 예에 따른 간소화된 시그모이드 함수 회로(200)를 나타내는 도면이다. 간소화된 시그모이드 함수 회로(200)는 활성 함수(f)를 구현하기 위한 회로로, 활성 함수 회로(120, 도 2 참조)에 포함될 수 있다. 도 3을 참조하면, 간소화된 시그모이드 함수 회로(200)는 제 1 회로(210), 제 2 회로(220) 및 제 1 멀티플렉서(230)를 포함할 수 있다. 제 1 회로(210)는 제 1 비교기(211), 제 2 멀티플렉서(212a), 제 3 멀티플렉서(212b), 제1 곱셈기(213) 및 제 1 합산기(214)를 포함할 수 있다. 제 2 회로(220)는 제 2 비교기(221), 제 4 멀티플렉서(222a), 제 5 멀티플렉서(222b), 제 2 곱셈기(223) 및 제 2 합산기(224)를 포함할 수 있다.FIG. 3 is a diagram showing a simplified sigmoid function circuit (200) according to an embodiment of the present disclosure. The simplified sigmoid function circuit (200) is a circuit for implementing an activation function (f) and may be included in an activation function circuit (120, see FIG. 2). Referring to FIG. 3, the simplified sigmoid function circuit (200) may include a first circuit (210), a second circuit (220), and a first multiplexer (230). The first circuit (210) may include a first comparator (211), a second multiplexer (212a), a third multiplexer (212b), a first multiplier (213), and a first adder (214). The second circuit (220) may include a second comparator (221), a fourth multiplexer (222a), a fifth multiplexer (222b), a second multiplier (223), and a second adder (224).
본 개시의 실시 예에 따르면, 간소화된 시그모이드 함수 회로(200)를 통하여 활성 결과(F)(도 2에 개시된 활성 결과(C)에 대응)가 도출될 수 있다. 로그 도메인에서, 입력 는 벡터로, 방향인 부호 Xs와 크기 X로 표현될 수 있다. 간소화된 시그모이드 함수 회로(200)는 입력된 의 방향 부호가 양(+)인 경우, 제 1 회로(210)로부터의 출력 값이 활성 결과(F)로 도출될 수 있다. 입력된 의 방향 부호가 음(-)인 경우, 제 2 회로(220)로부터의 출력 값이 활성 결과(F)로 도출될 수 있다.According to an embodiment of the present disclosure, an activation result (F) (corresponding to the activation result (C) disclosed in FIG. 2) can be derived through a simplified sigmoid function circuit (200). In the log domain, an input can be expressed as a vector with a direction sign Xs and a size X. The simplified sigmoid function circuit (200) is input If the direction sign of the input is positive (+), the output value from the first circuit (210) can be derived as an active result (F). When the direction sign of the second circuit (220) is negative (-), the output value from the second circuit (220) can be derived as an active result (F).
도 4는 본 개시의 실시 예에 따른 간소화된 시그모이드 함수 회로(200, 도 3 참조)가 적용된 뉴로모픽 프로세서(1000)를 나타내는 도면이다. 도 4를 참조하면, 뉴로모픽 프로세서(1000)는 인공뉴런 구현 소자 어레이(1100), 워드 라인 바이어스 유닛(1200), 비트 라인 바이어스 및 검출 유닛(1300), 제어 로직 유닛(1400), 불휘발성 메모리(1500), 휘발성 메모리(1600) 및 입출력 유닛(1700)을 포함할 수 있다.FIG. 4 is a diagram showing a neuromorphic processor (1000) to which a simplified sigmoid function circuit (200, see FIG. 3) according to an embodiment of the present disclosure is applied. Referring to FIG. 4, the neuromorphic processor (1000) may include an artificial neuron implementation element array (1100), a word line bias unit (1200), a bit line bias and detection unit (1300), a control logic unit (1400), a nonvolatile memory (1500), a volatile memory (1600), and an input/output unit (1700).
인공뉴런 구현 소자 어레이(1100)는 상술한 도 1에 개시된 인공신경망(10, 도 1 참조)을 하드웨어적으로 구현한 것일 수 있다. 인공뉴런 구현 소자 어레이(1100)는 복수의 인공뉴런(100, 도 1 참조)들을 구현한 소자들을 포함할 수 있으며, 복수의 인공뉴런(100) 구현 소자들이 행들 및 열들로 배열된 구조일 수 있다. 복수의 인공뉴런(100) 구현 소자들 각각은 상술한 도 3에 개시된 간소화된 시그모이드 함수 회로(200, 도 3 참조)를 포함할 수 있다. 인공뉴런 구현 소자 어레이(1100)는 간소화된 시그모이드 함수에 기반한 결과치를 출력할 수 있다. 도 4에서, 인공뉴런 구현 소자 어레이(1100)와 연결되는 워드 라인(WL) 및 비트 라인(BL)은 하나로 도시되었으나, 이는 도면의 복잡도를 줄이기 위한 것일 뿐, 인공뉴런 구현 소자 어레이(1100)에 포함되는 복수의 인공뉴런(100) 구현 소자들 각각에 연결되는 워드 라인(WL) 및 비트 라인(BL)을 의미한다.The artificial neuron implementation element array (1100) may be a hardware implementation of the artificial neural network (10, see FIG. 1) disclosed in the above-described FIG. 1. The artificial neuron implementation element array (1100) may include elements implementing a plurality of artificial neurons (100, see FIG. 1), and may have a structure in which the plurality of artificial neuron (100) implementation elements are arranged in rows and columns. Each of the plurality of artificial neuron (100) implementation elements may include a simplified sigmoid function circuit (200, see FIG. 3) disclosed in the above-described FIG. 3. The artificial neuron implementation element array (1100) may output a result based on the simplified sigmoid function. In FIG. 4, the word line (WL) and the bit line (BL) connected to the artificial neuron implementation element array (1100) are illustrated as one, but this is only to reduce the complexity of the drawing, and means the word line (WL) and the bit line (BL) connected to each of the plurality of artificial neuron (100) implementation elements included in the artificial neuron implementation element array (1100).
워드 라인 바이어스 유닛(1200)은 제어 로직 유닛(1400)으로부터 입력 데이터를 수신하고, 워드 라인(WL)을 통하여 인공뉴런 구현 소자 어레이(1100)에 포함되는 복수의 인공뉴런(100) 구현 소자들 각각에 입력 데이터를 전달할 수 있다. 또한, 워드 라인 바이어스 유닛(1200)은 인공뉴런 구현 소자 어레이(1100)에 포함되는 복수의 시냅스(SN, 도 1 참조) 연결들에 가중치를 기록하기 위한 전류를 워드 라인(WL)을 통하여 공급할 수 있다.The word line bias unit (1200) can receive input data from the control logic unit (1400) and transmit the input data to each of a plurality of artificial neuron (100) implementation elements included in the artificial neuron implementation element array (1100) through the word line (WL). In addition, the word line bias unit (1200) can supply current for recording weights for a plurality of synapse (SN, see FIG. 1) connections included in the artificial neuron implementation element array (1100) through the word line (WL).
비트 라인 바이어스 및 검출 유닛(1300)은 인공뉴런 구현 소자 어레이(1100)에 포함되는 복수의 인공뉴런(100) 구현 소자들 각각에서 인공 신경망 연산을 수행할 때 비트 라인(BL)에 접지 전압을 바이어스할 수 있다. 또한, 비트 라인 바이어스 및 검출 유닛(1300)은 비트 라인(BL)을 통하여 전류량을 검출함으로써, 인공뉴런 구현 소자 어레이(1100)에 포함되는 복수의 인공뉴런(100) 구현 소자들의 연산 결과를 획득할 수 있다.The bit line bias and detection unit (1300) can bias the bit line (BL) to a ground voltage when performing an artificial neural network operation on each of a plurality of artificial neuron (100) implementation elements included in the artificial neuron implementation element array (1100). In addition, the bit line bias and detection unit (1300) can obtain an operation result of a plurality of artificial neuron (100) implementation elements included in the artificial neuron implementation element array (1100) by detecting the amount of current through the bit line (BL).
제어 로직 유닛(1400)은 불휘발성 메모리(1500)에 저장된 정보를 읽고, 읽혀진 정보에 기반하여 워드 라인 바이어스 유닛(1200) 및 비트 라인 바이어스 및 검출 유닛(1300)을 제어할 수 있다. 또한, 제어 로직 유닛(1400)은 입출력 유닛(1700)을 통하여 수신되는 초기 입력을 입력 데이터로서 워드 라인 바이어스 유닛(1200)에 전달하거나 휘발성 메모리(1600)에 저장할 수 있다. 또한, 제어 로직 유닛(1400)은 인공뉴런 구현 소자 어레이(1100)로부터 출력된 결과를 입력 데이터로서 워드 라인 바이어스 유닛(1200)에 전달하거나 휘발성 메모리(1600)에 저장할 수 있다.The control logic unit (1400) can read information stored in the nonvolatile memory (1500) and control the word line bias unit (1200) and the bit line bias and detection unit (1300) based on the read information. In addition, the control logic unit (1400) can transfer an initial input received through the input/output unit (1700) as input data to the word line bias unit (1200) or store it in the volatile memory (1600). In addition, the control logic unit (1400) can transfer a result output from the artificial neuron implementation element array (1100) as input data to the word line bias unit (1200) or store it in the volatile memory (1600).
비휘발성 메모리(1500)는 인공뉴런 구현 소자 어레이(1100)에 포함된 복수의 인공뉴런(100) 구현 소자들의 연결 관계에 대한 정보를 저장할 수 있다. 즉, 비휘발성 메모리(1500)는 뉴로모픽 프로세서(1000)에 의하여 구현되는 인공 신경망의 전체 구조에 대한 정보를 포함할 수 있다.The nonvolatile memory (1500) can store information about the connection relationship between a plurality of artificial neuron (100) implementation elements included in the artificial neuron implementation element array (1100). That is, the nonvolatile memory (1500) can include information about the entire structure of the artificial neural network implemented by the neuromorphic processor (1000).
휘발성 메모리(1600)는 입출력 유닛(1700)으로부터 입력된 초기 입력 및 인공뉴런 구현 소자 어레이(1100)으로부터 출력된 결과를 저장할 수 있다. 입출력 유닛(1700)은 외부로부터 초기 입력을 수신하여 제어 로직 유닛(1400)에 전달하고, 제어 로직 유닛(1400)으로부터 인공뉴런 구현 소자 어레이(1100)로부터 출력된 결과를 전달받아 외부로 출력할 수 있다.The volatile memory (1600) can store an initial input input from an input/output unit (1700) and a result output from an artificial neuron implementation element array (1100). The input/output unit (1700) can receive an initial input from the outside and transmit it to a control logic unit (1400), and can receive a result output from an artificial neuron implementation element array (1100) from the control logic unit (1400) and output it to the outside.
상술된 내용은 본 개시를 실시하기 위한 구체적인 실시 예들이다. 본 개시는 상술된 실시 예들 뿐만 아니라, 단순하게 설계 변경되거나 용이하게 변경할 수 있는 실시 예들 또한 포함할 것이다. 또한, 본 개시는 실시 예들을 이용하여 용이하게 변형하여 실시할 수 있는 기술들도 포함될 것이다. 따라서, 본 개시의 범위는 상술된 실시 예들에 국한되어 정해져서는 안되며, 후술하는 특허청구범위뿐만 아니라 본 개시의 특허청구범위와 균등한 것들에 의해 정해져야 할 것이다.The above-described contents are specific embodiments for carrying out the present disclosure. The present disclosure will include not only the above-described embodiments, but also embodiments that are simply designed or can be easily changed. In addition, the present disclosure will also include technologies that can be easily modified and implemented using the embodiments. Therefore, the scope of the present disclosure should not be limited to the above-described embodiments, but should be determined by the claims described below as well as the equivalents of the claims of the present disclosure.
10 : 인공신경망(Artificial Neural Network; ANN)
100 : 인공뉴런
110 : 합산 회로(Summatation Circuit)
120 : 활성 함수 회로(Activation Fuction Circuit)10: Artificial Neural Network (ANN)
100 : Artificial Neuron
110 : Summatation Circuit
120: Activation Function Circuit
Claims (11)
상기 입력 데이터의 실수 영역에서의 부호가 음인 경우, 상기 입력 데이터에 대하여 제2 일차 함수에 상응하는 간소화된 시그모이드 함수에 기반한 연산을 수행하는 제 2 회로; 및
상기 입력 데이터의 부호에 기반하여 상기 제 1 회로의 출력 및 상기 제 2 회로의 출력 중 어느 하나를 선택하여 출력하는 제 1 멀티플렉서를 포함하되,
상기 제1 일차 함수 및 제2 일차 함수는 실수 영역의 시그모이드 함수를 로그 영역으로 변환하여 생성된 로그 영역의 시그모이드 함수의 변분 변환에 상응하는 간소화된 시그모이드 함수 회로.A first circuit which performs an operation based on a simplified sigmoid function corresponding to a first-order function for the input data when the sign in the real number domain of the input data is positive;
A second circuit that performs an operation based on a simplified sigmoid function corresponding to a second linear function for the input data when the sign in the real domain of the input data is negative; and
Including a first multiplexer that selects and outputs one of the outputs of the first circuit and the output of the second circuit based on the sign of the input data,
The above first and second linear functions are simplified sigmoid function circuits corresponding to the variational transformation of the sigmoid function of the log domain generated by transforming the sigmoid function of the real domain into the log domain.
상기 복수의 인공뉴런 구현 소자들 각각은:
입력 데이터와 가중치의 곱에 대한 합 연산을 수행하는 합산 회로; 및
상기 합산 회로의 연산 결과로부터 시그모이드 함수에 상응하는 활성 결과를 도출하는 활성 함수 회로를 포함하고,
상기 활성 결과는 실수 영역의 상기 시그모이드 함수를 로그 영역으로 변환하여 생성된 로그 영역의 시그모이드 함수의 변분 변환에 상응하는 일차 함수에 기반하여 도출되는 뉴로모픽 프로세서.
An artificial neuron implementation element array comprising a plurality of artificial neuron implementation elements for performing operations of an artificial neural network,
Each of the above multiple artificial neuron implementation elements:
A summing circuit that performs a sum operation on the product of input data and weights; and
It includes an activation function circuit that derives an activation result corresponding to a sigmoid function from the operation result of the above summation circuit,
A neuromorphic processor in which the above activation result is derived based on a linear function corresponding to a variational transform of a sigmoid function in a log domain generated by converting the sigmoid function in the real domain into a log domain.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US17/536,536 US20220172029A1 (en) | 2020-11-30 | 2021-11-29 | Circuit for implementing simplified sigmoid function and neuromorphic processor including the circuit |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020200164528 | 2020-11-30 | ||
| KR20200164528 | 2020-11-30 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20220076271A KR20220076271A (en) | 2022-06-08 |
| KR102746707B1 true KR102746707B1 (en) | 2024-12-27 |
Family
ID=81981344
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020210069870A Active KR102746707B1 (en) | 2020-11-30 | 2021-05-31 | Circuit for implementing simplified sigmoid function and neuromorphic processor including the circuit |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102746707B1 (en) |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003337932A (en) | 2002-05-21 | 2003-11-28 | Yoshiki Mizukami | Apparatus, method, and program for prediction by neural network |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11775805B2 (en) * | 2018-06-29 | 2023-10-03 | Intel Coroporation | Deep neural network architecture using piecewise linear approximation |
-
2021
- 2021-05-31 KR KR1020210069870A patent/KR102746707B1/en active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003337932A (en) | 2002-05-21 | 2003-11-28 | Yoshiki Mizukami | Apparatus, method, and program for prediction by neural network |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20220076271A (en) | 2022-06-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11620515B2 (en) | Multi-task knowledge distillation for language model | |
| Sharma et al. | Activation functions in neural networks | |
| Di Mauro et al. | Activity prediction of business process instances with inception CNN models | |
| US10671912B2 (en) | Spatio-temporal spiking neural networks in neuromorphic hardware systems | |
| BuHamra et al. | The Box–Jenkins analysis and neural networks: prediction and time series modelling | |
| Katal et al. | Artificial neural network: models, applications, and challenges | |
| CN107622303A (en) | For the method for neutral net and the equipment of execution this method | |
| CN103914711B (en) | A kind of improved very fast learning device and its method for classifying modes | |
| US11526735B2 (en) | Neuromorphic neuron apparatus for artificial neural networks | |
| Hinton | Deep belief nets | |
| Al-Jumeily et al. | Predicting physical time series using dynamic ridge polynomial neural networks | |
| Aggarwal et al. | Deep learning | |
| US20250348727A1 (en) | Unsupervised learning of memristor crossbar neuromorphic processing systyems | |
| Fatahi et al. | Towards an spiking deep belief network for face recognition application | |
| López-Monroy et al. | Neural networks and deep learning | |
| US5274744A (en) | Neural network for performing a relaxation process | |
| Harikrishnan et al. | Handwritten digit recognition with feed-forward multi-layer perceptron and convolutional neural network architectures | |
| Amiri et al. | Feedback associative memory based on a new hybrid model of generalized regression and self-feedback neural networks | |
| KR102746707B1 (en) | Circuit for implementing simplified sigmoid function and neuromorphic processor including the circuit | |
| Dao | Image classification using convolutional neural networks | |
| Shaharin et al. | Performance study of TDNN training algorithm for speech recognition | |
| Shah et al. | Stock market prediction using neural networks | |
| US5239618A (en) | Data processing device with network structure and its learning processing method | |
| Maren | Introduction to neural networks | |
| Zheng et al. | Wavelet neural networks for stock trading |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20210531 |
|
| PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20211201 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20210531 Comment text: Patent Application |
|
| PG1501 | Laying open of application | ||
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20240206 Patent event code: PE09021S01D |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20241030 |
|
| PG1601 | Publication of registration |