CN107705775A - 一种基于rbf神经网络的多种乐器调音方法 - Google Patents
一种基于rbf神经网络的多种乐器调音方法 Download PDFInfo
- Publication number
- CN107705775A CN107705775A CN201710707233.9A CN201710707233A CN107705775A CN 107705775 A CN107705775 A CN 107705775A CN 201710707233 A CN201710707233 A CN 201710707233A CN 107705775 A CN107705775 A CN 107705775A
- Authority
- CN
- China
- Prior art keywords
- rbf
- network
- layer
- output
- musical instrument
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/02—Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/081—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for automatic key or tonality recognition, e.g. using musical rules or a knowledge base
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
一种基于RBF神经网络的多种乐器调音方法,包括如下步骤:输入音符,音频预处理,处理后的音频参数作为输入参数输入到RBF乐器判别网络,输出乐器分类结果;根据分类结果,利用算法匹配相应的调整模式,进行音频变换,相当于归一化处理;将归一化处理过的音频,作为输入参数输入到RBF音准判别网络,输出当前音高值;实际音高值和想要调节的标准音高值进行差值运算,输出调节结果。本发明不需要多次人为差值计算,只要给出足够的训练样本数量,让神经网络自己学习计算,可以实现以任意精度逼近,一经训练,可重复使用,输出高效快捷,也可以通过更改训练样本来更换精度,不需要以牺牲采样频率为代价。
Description
技术领域
本发明涉及乐器调音方法技术领域,尤其涉及一种基于RBF神经网络的多种乐器调音方法。
背景技术
乐器调音是每个自学者学习使用乐器的必经之路,现有的调音方法,虽然简单方便,但是调音的精度不高,尤其是不能针对多种乐器,没有良好的普适性,易出错,甚至损耗琴弦,不适合初学者。现有调音器只能显示出输入声音与标准音调之间的细微差别,以便于用户对乐器进行手工调整。但精度需要人为差值计算,有时还需要降低采样频率来满足相应的精度。
发明内容
本发明的目的在于解决上述问题提出一种基于RBF神经网络的多种乐器调音方法,可以针对多种乐器,通过人工神经网络方法实现自动识别所调乐器,识别后经过算法匹配,快速匹配出适合的收音MIC模式,调音时,采用人工神经网络的径向基函数网络的方法进行逼近拟合,输出相应的结果,能快速有效地帮助使用者调音。
为了达到此目的,本发明采用以下技术方案:
一种基于RBF神经网络的多种乐器调音方法,包括如下步骤:
A.输入音符,音频预处理,处理后的音频参数作为输入参数输入到RBF乐器判别网络,输出乐器分类结果;
B.根据分类结果,利用算法匹配相应的调整模式,进行音频变换,相当于归一化处理;
C.将归一化处理过的音频,作为输入参数输入到RBF音准判别网络,输出当前音高值;
D.实际音高值和想要调节的标准音高值进行差值运算,输出调节结果。
更优的,RBF乐器分类网络训练包括如下步骤:
步骤一、根据任意乐器的特征参数T组成特征向量Xk=[Tk1,Tk2,Tk3,…TkM],则训练样本集为X=[X1,X2,X3…Xk…XN](k=1,2,3…N);
步骤二、贴上对应的标签,对应为乐器输出类别为Yk=[yk1,yk2,yk3,…ykj,ykJ])J=1,2,3…J为输出的类别);
步骤三、构建RBF乐器分类网络;
步骤四、设定网络参数;
步骤五、当RBF乐器判别网络的数据中心和扩展常数确定之后,可以由输入输出层的权值矢量W=[W1,W2,W3,…Wh]T;
步骤六、得出相应的参数后,RBF乐器分类网络训练完毕。
更优的,RBF乐器分类网络的结构为三层前馈神经网络,包括输入层,隐含层和输出层;
所述隐含层由模式层和求和层构成。
更优的,所述输入层的节点数为M,所述模式层的节点数为N,所述求和层的节点数为J,所述输出层的节点数为J。
更优的,所述模式层选用径向基函数为高斯函数
更优的,RBF音准判别网络训练包括以下步骤:
步骤一、构建RBF音准判别网络;
步骤二、设定网络参数;
步骤三、当RBF乐器判别网络的数据中心和扩展常数确定之后,可以由输入输出得出输出的权值矢量W=[W1,W2,W3,…Wh]T;
步骤四、得出相应的参数后,RBF音准判别网络训练完毕。
更优的,所述RBF乐器音准判别网络的结构为三层前馈神经网络,包括输入层,隐含层和输出层;
所述隐含层的神经元个数为训练样本中的音阶数,构建出正规化的RBF网络,可以以任一精度逼近音高谱线。
更优的,隐含层选用径向基函数为反射sigmoid函数
本发明的目的在于提出一种基于RBF神经网络的多种乐器调音方法,不需要多次人为差值计算,只要给出足够的训练样本数量,让神经网络自己学习计算,可以实现以任意精度逼近,一经训练,可重复使用,输出高效快捷,也可以通过更改训练样本来更换精度,不需要以牺牲采样频率为代价。
附图说明
图1为本发明的一个实施例的流程图;
图2为本发明的一个实施例的RBF乐器识别网络的结构图;
图3为本发明的一个实施例的RBF音准判别网络的结构图;
其中:1为RBF乐器识别网络的输入层;2为RBF乐器识别网络的模式层;3为RBF乐器识别网络的求和层;4为RBF乐器识别网络的输出层;5为RBF音准判别网络的输入层;6为RBF音准判别网络的输出层。
具体实施方式
下面结合附图并通过具体实施例方式来进一步说明本发明的技术方案。
一种基于RBF神经网络的多种乐器调音方法,其特征在于,包括如下步骤:
A.输入音符,音频预处理,处理后的音频参数作为输入参数输入到RBF乐器判别网络,输出乐器分类结果;
B.根据分类结果,利用算法匹配相应的调整模式,进行音频变换,相当于归一化处理;
C.将归一化处理过的音频,作为输入参数输入到RBF音准判别网络,输出当前音高值;
D.实际音高值和想要调节的标准音高值进行差值运算,输出调节结果。
更具体的,首先,需要对音频进行预处理,采样量化,分帧加窗,根据频谱特性和现有的声学知识选择各乐器音色的特征参数,将各个音色转化为特征向量,所以每个乐器的特征向量肯定不同的,并贴上分类标签,选取适量样本,创建RBF神经网络,进行样本学习,训练好的网络具有乐器分类功能,网络的输入乐器的特征向量,网络的输出是基于0,1表达的分类形式,例如:有5种乐器待分类,第一类输出[1,0,0,0,0],第二类输出则为[0,1,0,0,0]…即一个输出神经元代表一类乐器属性,当输出层的该类别的竞争神经元获胜时,该神经元输出值为1,其他神经元输出为0,这样就简单实现了分类功能。
选择RBF神经网络进行训练,是因为它采用径向基函数作为隐含层的中心,具有局部响应特性,在训练网络时隐含层的神经元数量可以根据训练样本的分布适当减少,根据乐器样本的特征及网络的输出分类直接获得RBF隐含层单元的连接权值,无需反复训练,缩短训练时间,提高网络创建效率。求和层属于某类的概率累计,从而得到该模式的估计概率密度函数,每一类只有一个求和层单元,并且只与属于自己类的神经元相连接,所以求和层单元简单地将属于自己类的模式层单元的输出相加,而与其他类别的模式层单元的输出无关。这样网络的扩充性能好,结构设计灵活,允许增加或减少新的乐器识别样本,而无需重新进行长时间的训练学习。
RBF神经网络输出的为乐器识别的分类结果,由0,1编码实现,利用匹配算法将分类结果与选择的MIC规格模式联系起来,进行音频变换补偿处理。处理过的音频,作为输入参数项,传送进已训练好的RBF音准判别网络。
最后,实现音阶识别,利用RBF可以用作通用逼近器的特性,输入已有音高的训练样本集,用于训练正则化的RBF,可以精确构建音频谱的响应面,类似一个精确插值的过程,训练好的音阶识别RBF网络是一个音频谱的响应面。当使用网络进行调音时,网络的输入是由拾音器拾取的一个未知音阶,输入到网络后会得到一个实际值,这个值会和标准值进行比对,差值运算,根据得出的值判定调节。
更进一步的说明,RBF乐器分类网络训练包括如下步骤:
步骤一、根据任意乐器的特征参数T组成特征向量Xk=[Tk1,Tk2,Tk3,…TkM],则训练样本集为X=[X1,X2,X3…Xk…XN](k=1,2,3…N);
步骤二、贴上对应的标签,对应为乐器输出类别为Yk=[yk1,yk2,yk3,…ykj,ykJ])J=1,2,3…J为输出的类别);
步骤三、构建RBF乐器分类网络;
步骤四、设定网络参数;
步骤五、当RBF乐器判别网络的数据中心和扩展常数确定之后,可以由输入输出层的权值矢量W=[W1,W2,W3,…Wh]T;
步骤六、得出相应的参数后,RBF乐器分类网络训练完毕。
更进一步的说明,RBF乐器分类网络的结构为三层前馈神经网络,包括输入层,隐含层和输出层;所述隐含层由模式层和求和层构成。本例中,输入层输入乐器的特征向量,模式层为训练样本,每一类乐器只有一个求和层单元,某类乐器的概率累计,输出层输出乐器编码。
更进一步的说明,所述输入层的节点数为M,所述模式层的节点数为N,所述求和层的节点数为J,所述输出层的节点数为J。
更进一步的说明,所述模式层选用径向基函数为高斯函数d为特征数据样本集中最大的欧式距离,h为RBF网络数据中心的数目。
更进一步的说明,RBF音准判别网络训练包括以下步骤:
步骤一、构建RBF音准判别网络;
步骤二、设定网络参数;
步骤三、当RBF乐器判别网络的数据中心和扩展常数确定之后,可以由输入输出得出输出的权值矢量W=[W1,W2,W3,…Wh]T;
步骤四、得出相应的参数后,RBF音准判别网络训练完毕。
更进一步的说明,所述RBF乐器音准判别网络的结构为三层前馈神经网络,包括输入层,隐含层和输出层;所述隐含层的神经元个数为训练样本中的音阶数,构建出正规化的RBF网络,可以以任一精度逼近音高谱线。
更进一步的说明,隐含层选用径向基函数为反射sigmoid函数 d为特征数据样本中最大的欧式距离,h为RBF网络数据中心的数目。
以上结合具体实施例描述了本发明的技术原理。这些描述只是为了解释本发明的原理,而不能以任何方式解释为对本发明保护范围的限制。基于此处的解释,本领域的技术人员不需要付出创造性的劳动即可联想到本发明的其它具体实施方式,这些方式都将落入本发明的保护范围之内。
Claims (8)
1.一种基于RBF神经网络的多种乐器调音方法,其特征在于,包括如下步骤:
A.输入音符,音频预处理,处理后的音频参数作为输入参数输入到RBF乐器判别网络,输出乐器分类结果;
B.根据分类结果,利用算法匹配相应的调整模式,进行音频变换,相当于归一化处理;
C.将归一化处理过的音频,作为输入参数输入到RBF音准判别网络,输出当前音高值;
D.实际音高值和想要调节的标准音高值进行差值运算,输出调节结果。
2.根据权利要求1所述的一种基于RBF神经网络的多种乐器调音方法,其特征在于:RBF乐器分类网络训练包括如下步骤:
步骤一、根据任意乐器的特征参数T组成特征向量Xk=[Tk1,Tk2,Tk3,…TkM],则训练样本集为X=[X1,X2,X3…Xk…XN](k=1,2,3…N);
步骤二、贴上对应的标签,对应为乐器输出类别为Yk=[yk1,yk2,yk3,…ykj,ykJ])J=1,2,3…J为输出的类别);
步骤三、构建RBF乐器分类网络;
步骤四、设定网络参数;
步骤五、当RBF乐器判别网络的数据中心和扩展常数确定之后,可以由输入输出层的权值矢量W=[W1,W2,W3,…Wh]T;
步骤六、得出相应的参数后,RBF乐器分类网络训练完毕。
3.根据权利要求2所述的一种基于RBF神经网络的多种乐器调音方法,其特征在于:RBF乐器分类网络的结构为三层前馈神经网络,包括输入层,隐含层和输出层;
所述隐含层由模式层和求和层构成。
4.根据权利要求3所述的一种基于RBF神经网络的多种乐器调音方法,其特征在于:所述输入层的节点数为M,所述模式层的节点数为N,所述求和层的节点数为J,所述输出层的节点数为J。
5.根据权利要求3所述的一种基于RBF神经网络的多种乐器调音方法,其特征在于:所述模式层选用径向基函数为高斯函数
6.根据权利要求1所述的一种基于RBF神经网络的多种乐器调音方法,其特征在于:RBF音准判别网络训练包括以下步骤:
步骤一、构建RBF音准判别网络;
步骤二、设定网络参数;
步骤三、当RBF乐器判别网络的数据中心和扩展常数确定之后,可以由输入输出得出输出的权值矢量W=[W1,W2,W3,…Wh]T;
步骤四、得出相应的参数后,RBF音准判别网络训练完毕。
7.根据权利要求6所述的一种基于RBF神经网络的多种乐器调音方法,其特征在于:所述RBF乐器音准判别网络的结构为三层前馈神经网络,包括输入层,隐含层和输出层;
所述隐含层的神经元个数为训练样本中的音阶数,构建出正规化的RBF网络,可以以任一精度逼近音高谱线。
8.根据权利要求7所述的一种基于RBF神经网络的多种乐器调音方法,其特征在于:隐含层选用径向基函数为反射sigmoid函数
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201710707233.9A CN107705775A (zh) | 2017-08-17 | 2017-08-17 | 一种基于rbf神经网络的多种乐器调音方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201710707233.9A CN107705775A (zh) | 2017-08-17 | 2017-08-17 | 一种基于rbf神经网络的多种乐器调音方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN107705775A true CN107705775A (zh) | 2018-02-16 |
Family
ID=61169727
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201710707233.9A Pending CN107705775A (zh) | 2017-08-17 | 2017-08-17 | 一种基于rbf神经网络的多种乐器调音方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN107705775A (zh) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109991842A (zh) * | 2019-03-14 | 2019-07-09 | 合肥工业大学 | 基于神经网络的钢琴调音方法及系统 |
| CN110163227A (zh) * | 2018-02-26 | 2019-08-23 | 黄佳敏 | 一种基于模式识别的机场跑道道面适航性判别方法 |
| CN110364184A (zh) * | 2019-07-15 | 2019-10-22 | 西安音乐学院 | 基于深度卷积神经网络dcnn和ctc算法的音准评估方法 |
| CN112489682A (zh) * | 2020-11-25 | 2021-03-12 | 平安科技(深圳)有限公司 | 音频处理方法、装置、电子设备和存储介质 |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5138924A (en) * | 1989-08-10 | 1992-08-18 | Yamaha Corporation | Electronic musical instrument utilizing a neural network |
| CN1892811A (zh) * | 2005-07-04 | 2007-01-10 | 雅马哈株式会社 | 乐器的调音设备和其中使用的计算机程序 |
| US20130232097A1 (en) * | 2012-03-02 | 2013-09-05 | California Institute Of Technology | Continuous-weight neural networks |
| CN103325382A (zh) * | 2013-06-07 | 2013-09-25 | 大连民族学院 | 一种自动识别中国少数民族传统乐器音频数据的方法 |
| CN105074822A (zh) * | 2013-03-26 | 2015-11-18 | 杜比实验室特许公司 | 用于音频分类和处理的装置和方法 |
| CN106295717A (zh) * | 2016-08-30 | 2017-01-04 | 南京理工大学 | 一种基于稀疏表示和机器学习的西洋乐器分类方法 |
| CN106504767A (zh) * | 2016-10-12 | 2017-03-15 | 耿梁宸 | 借助声音波形的乐器调音和歌曲音高判断方法 |
-
2017
- 2017-08-17 CN CN201710707233.9A patent/CN107705775A/zh active Pending
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5138924A (en) * | 1989-08-10 | 1992-08-18 | Yamaha Corporation | Electronic musical instrument utilizing a neural network |
| CN1892811A (zh) * | 2005-07-04 | 2007-01-10 | 雅马哈株式会社 | 乐器的调音设备和其中使用的计算机程序 |
| US20130232097A1 (en) * | 2012-03-02 | 2013-09-05 | California Institute Of Technology | Continuous-weight neural networks |
| CN105074822A (zh) * | 2013-03-26 | 2015-11-18 | 杜比实验室特许公司 | 用于音频分类和处理的装置和方法 |
| CN103325382A (zh) * | 2013-06-07 | 2013-09-25 | 大连民族学院 | 一种自动识别中国少数民族传统乐器音频数据的方法 |
| CN106295717A (zh) * | 2016-08-30 | 2017-01-04 | 南京理工大学 | 一种基于稀疏表示和机器学习的西洋乐器分类方法 |
| CN106504767A (zh) * | 2016-10-12 | 2017-03-15 | 耿梁宸 | 借助声音波形的乐器调音和歌曲音高判断方法 |
Non-Patent Citations (1)
| Title |
|---|
| 郑贵滨等: "基于两级神经网络的连续哼唱特征提取", 《计算机工程与应用》 * |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110163227A (zh) * | 2018-02-26 | 2019-08-23 | 黄佳敏 | 一种基于模式识别的机场跑道道面适航性判别方法 |
| CN110163227B (zh) * | 2018-02-26 | 2021-07-23 | 山东炎黄工业设计有限公司 | 一种基于模式识别的机场跑道道面适航性判别方法 |
| CN109991842A (zh) * | 2019-03-14 | 2019-07-09 | 合肥工业大学 | 基于神经网络的钢琴调音方法及系统 |
| CN110364184A (zh) * | 2019-07-15 | 2019-10-22 | 西安音乐学院 | 基于深度卷积神经网络dcnn和ctc算法的音准评估方法 |
| CN110364184B (zh) * | 2019-07-15 | 2022-01-28 | 西安音乐学院 | 基于深度卷积神经网络dcnn和ctc算法的音准评估方法 |
| CN112489682A (zh) * | 2020-11-25 | 2021-03-12 | 平安科技(深圳)有限公司 | 音频处理方法、装置、电子设备和存储介质 |
| WO2021213135A1 (zh) * | 2020-11-25 | 2021-10-28 | 平安科技(深圳)有限公司 | 音频处理方法、装置、电子设备和存储介质 |
| CN112489682B (zh) * | 2020-11-25 | 2023-05-23 | 平安科技(深圳)有限公司 | 音频处理方法、装置、电子设备和存储介质 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN110490230A (zh) | 基于深度卷积生成对抗网络的水声目标识别方法 | |
| CN109559736B (zh) | 一种基于对抗网络的电影演员自动配音方法 | |
| CN111161744B (zh) | 同时优化深度表征学习与说话人类别估计的说话人聚类方法 | |
| CN107680582A (zh) | 声学模型训练方法、语音识别方法、装置、设备及介质 | |
| CN107705775A (zh) | 一种基于rbf神经网络的多种乐器调音方法 | |
| CN111477247A (zh) | 基于gan的语音对抗样本生成方法 | |
| CN113569742A (zh) | 一种基于卷积神经网络的宽频带电磁干扰源识别方法 | |
| CN112542161B (zh) | 一种双层pid优化的bp神经网络语音识别方法 | |
| KR102406512B1 (ko) | 음성인식 방법 및 그 장치 | |
| CN108229659A (zh) | 基于深度学习的钢琴单键音识别方法 | |
| JP6568175B2 (ja) | 学習装置、生成装置、分類装置、学習方法、学習プログラム、および動作プログラム | |
| CN108846048A (zh) | 基于循环神经网络和注意力机制的音乐流派分类方法 | |
| CN111368900A (zh) | 一种图像目标物识别方法 | |
| CN119964600B (zh) | 录音笔关键词声音识别方法、装置及设备 | |
| CN114417976B (zh) | 一种高光谱图像分类方法、装置、电子设备和存储介质 | |
| CN117831570A (zh) | 一种基于原型分类器的完全小样本类别增量音频分类方法 | |
| JPH08227408A (ja) | ニューラルネットワーク | |
| CN118364380A (zh) | 基于基准注意力及贝叶斯更新策略的标签校正方法 | |
| CN108154186B (zh) | 一种模式识别方法和装置 | |
| CN116522129A (zh) | 基于多优化的双通道原型网络的小样本辐射源个体识别方法 | |
| CN115661923A (zh) | 自适应建模域特征的域泛化行人重识别方法 | |
| CN115049006A (zh) | 基于自适应前馈神经网络的通信信号识别方法和系统 | |
| Zhang et al. | Deep Template Matching for Small-Footprint and Configurable Keyword Spotting. | |
| CN113111774A (zh) | 一种基于主动增量式微调的雷达信号调制方式识别方法 | |
| CN117332266A (zh) | 基于混合熵深度学习网络的无人机射频信号检测识别方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180216 |
|
| RJ01 | Rejection of invention patent application after publication |