CN110895935A - 语音识别方法、系统、设备和介质 - Google Patents
语音识别方法、系统、设备和介质 Download PDFInfo
- Publication number
- CN110895935A CN110895935A CN201811068321.XA CN201811068321A CN110895935A CN 110895935 A CN110895935 A CN 110895935A CN 201811068321 A CN201811068321 A CN 201811068321A CN 110895935 A CN110895935 A CN 110895935A
- Authority
- CN
- China
- Prior art keywords
- voice
- speech
- speech recognition
- training data
- model component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000012549 training Methods 0.000 claims abstract description 183
- 238000005457 optimization Methods 0.000 claims abstract description 66
- 238000013528 artificial neural network Methods 0.000 claims abstract description 59
- 230000006870 function Effects 0.000 claims description 196
- 230000004913 activation Effects 0.000 claims description 26
- 238000004590 computer program Methods 0.000 claims description 2
- 238000002372 labelling Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 230000009471 action Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000008034 disappearance Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000005311 autocorrelation function Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/18—Artificial neural networks; Connectionist approaches
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Image Analysis (AREA)
Abstract
一种语音识别方法、系统、设备和介质,包括:提取接收到的语音信号的声学特征;将所述语音信号的声学特征输入至语音识别模型组件,以便所述语音识别模型组件对所述语音信号进行识别处理;获取所述语音识别模型组件输出的、所述语音信号对应的语音序列;其中,所述语音识别模型组件是基于多个前馈神经网络模块构建、并通过时序分类优化函数形成的损失函数进行模型训练而生成的模型组件。采用本发明实施例后,能够提高声学模型语音识别的实时性。
Description
技术领域
本发明涉及计算机领域,尤其涉及一种语音识别方法、系统、设备和计算机存储介质。
背景技术
语音识别所要解决的问题是让计算机能够“听懂”人类的语音,将语音转化成文本。语音识别是实现智能的人机交互的前沿阵地,是完全机器翻译,自然语言理解等的前提条件。
语音识别的目的是对给定的波形序列,可以得到相应的单词或者字符序列。因此语音识别可以被看作是一个信道解码。
目前,应用于实际的语音识别的实时性较差即时延较大,难以满足语音识别的需求。
发明内容
本发明实施例提供了一种语音识别的方法、装置、设备和计算机存储介质,能够降低语音识别的时延,提高声学模型语音识别的实时性。
一种语音识别方法,包括:
提取接收到的语音信号的声学特征;
将所述语音信号的声学特征输入至语音识别模型组件,以便所述语音识别模型组件对所述语音信号进行识别处理;
获取所述语音识别模型组件输出的、所述语音信号对应的语音序列;
其中,所述语音识别模型组件是基于多个前馈神经网络模块构建、并通过时序分类优化函数形成的损失函数进行模型训练而生成的模型组件。
所述语音识别模型组件包括多个依次相连的前馈神经网络模块和一个分类器,并以一个前馈神经网络模块为输入端,以所述分类器为输出端。
所述分类器和与所述分类器相连的前馈神经网络模块之间,还包括线性投影层和激活函数层。
所述前馈神经网络模块包括激活函数层、线性投影层和记忆块。
在所述前馈神经网络模块中:
所述激活函数层以与所述前馈神经网络模块相连的、靠近所述输入端的前馈神经网络的输出为输入;
所述线性投影层以所述激活函数层的输出为输入;
所述记忆块以所述线性投影层、以及与所述前馈神经网络模块相连的、靠近所述输入端的前馈神经网络的输出为输入;
所述前馈神经网络模块以所述记忆块的输出为自身输出。
所述语音识别模型组件基于预先获取的训练数据集合、并通过时序分类优化函数形成的损失函数进行模型训练,以便所述分类器的输出指示输入语音信号所对应的语音序列。
所述训练数据集合包括多条训练数据,每条训练数据包括语音数据和所述语音数据对应的标准语音序列,所述基于预先获取的训练数据集合、并通过时序分类优化函数形成的损失函数进行模型训练,包括:
对所述训练数据集合中的各条训练数据,将所述训练数据中语音数据的声学特征进行提取以得到相应的特征序列;
将所述训练数据对应的特征序列作为输入,输入所述语音识别模型组件,以得到所述语音识别模型组件输出的、所述训练数据中语音数据的识别结果;
基于所述训练数据中语音数据的识别结果和标准语音序列之间的差异,以时序分类优化函数为损失函数,训练所述语音识别模型组件。
所述训练数据集合包括多条训练数据,每条训练数据包括语音数据和所述语音数据对应的标准语音序列,所述基于预先获取的训练数据集合、并通过时序分类优化函数形成的损失函数进行模型训练,包括:
对所述训练数据集合中的各条训练数据,将所述训练数据中语音数据的声学特征进行提取以得到相应的特征序列;
将所述训练数据对应的特征序列作为输入,输入所述语音识别模型组件,以得到所述语音识别模型组件输出的、所述训练数据中语音数据的识别结果;
基于所述训练数据中语音数据的识别结果和标准语音序列之间的差异,以时序分类优化函数和交叉熵函数联合形成的函数为损失函数,训练所述语音识别模型组件。
当所述损失函数中时序分类优化函数对应的、空白帧输出概率低于预设概率阈值时,基于所述损失函数中交叉熵函数获取时间标注信息;
通过所述损失函数和所述时间标注信息训练所述语音识别模型组件。
一种语音识别的系统,包括:声音传感器和语音识别设备,所述声音传感器与所述语音识别设备耦合;
所述声音传感器,用于接收用户的语音信号;
所述语音识别设备,用于提取接收到的语音信号的声学特征;
将所述语音信号的声学特征输入至语音识别模型组件,以便所述语音识别模型组件对所述语音信号进行识别处理;
获取所述语音识别模型组件输出的、所述语音信号对应的语音序列;
其中,所述语音识别模型组件是基于多个前馈神经网络模块构建、并通过时序分类优化函数形成的损失函数进行模型训练而生成的模型组件。
所述语音识别模型组件包括多个依次相连的前馈神经网络模块和一个分类器,并以一个前馈神经网络模块为输入端,以所述分类器为输出端。
所述分类器和与所述分类器相连的前馈神经网络模块之间,还包括线性投影层和激活函数层。
所述前馈神经网络模块包括激活函数层、线性投影层和记忆块。
在所述前馈神经网络模块中:
所述激活函数层以与所述前馈神经网络模块相连的、靠近所述输入端的前馈神经网络的输出为输入;
所述线性投影层以所述激活函数层的输出为输入;
所述记忆块以所述线性投影层、以及与所述前馈神经网络模块相连的、靠近所述输入端的前馈神经网络的输出为输入;
所述前馈神经网络模块以所述记忆块的输出为自身输出。
所述语音识别设备,还用于基于预先获取的训练数据集合、并通过时序分类优化函数形成的损失函数进行模型训练,得到所述语音识别模型组件,以便所述分类器的输出指示输入语音信号所对应的语音序列。
所述训练数据集合包括多条训练数据,每条训练数据包括语音数据和所述语音数据对应的标准语音序列,
所述语音识别设备,还用于对所述训练数据集合中的各条训练数据,将所述训练数据中语音数据的声学特征进行提取以得到相应的特征序列;
将所述训练数据对应的特征序列作为输入,输入所述语音识别模型组件,以得到所述语音识别模型组件输出的、所述训练数据中语音数据的识别结果;
基于所述训练数据中语音数据的识别结果和标准语音序列之间的差异,以时序分类优化函数为损失函数,训练所述语音识别模型组件。
所述训练数据集合包括多条训练数据,每条训练数据包括语音数据和所述语音数据对应的标准语音序列,
所述语音识别设备,还用于对所述训练数据集合中的各条训练数据,将所述训练数据中语音数据的声学特征进行提取以得到相应的特征序列;
将所述训练数据对应的特征序列作为输入,输入所述语音识别模型组件,以得到所述语音识别模型组件输出的、所述训练数据中语音数据的识别结果;
基于所述训练数据中语音数据的识别结果和标准语音序列之间的差异,以时序分类优化函数和交叉熵函数联合形成的函数为损失函数,训练所述语音识别模型组件。
所述语音识别设备,具体用于当所述损失函数中时序分类优化函数对应的、空白帧输出概率低于预设概率阈值时,基于所述损失函数中交叉熵函数获取时间标注信息;
基于所述训练数据中语音数据的识别结果和标准语音序列之间的差异,通过所述损失函数和所述时间标注信息训练所述语音识别模型组件。
一种语音识别的设备,
存储器,用于存储程序;
处理器,用于运行所述存储器中存储的所述程序,以执行上述语音识别方法。
一种计算机可读存储介质,其上存储有计算机程序指令,当所述计算机程序指令被处理器执行时实现如上述语音识别方法。
从上述技术方案中可以看出,提取接收到的语音信号的声学特征。将语音信号的声学特征输入至语音识别模型组件,以便语音识别模型组件对语音信号进行识别处理。最后,获取语音识别模型组件输出的、语音信号对应的语音序列。其中,语音识别模型组件是基于多个前馈神经网络模块构建、并通过时序分类优化函数形成的损失函数进行模型训练而生成的模型组件。由于经时序分类优化函数生成的语音识别模型组件,能够降低语音识别的时延,继而满足语音识别的需求。
附图说明
从下面结合附图对本发明的具体实施方式的描述中可以更好地理解本发明其中,相同或相似的附图标记表示相同或相似的特征。
图1是本发明实施例中语音识别的系统结构示意图;
图2是本发明实施例中语音识别模型组件的结构示意图;
图3是本发明另一个实施例中语音识别模型组件的结构示意图;
图4是本发明实施例中语音识别方法的流程示意图;
图5是本发明另一个实施例中语音识别的系统结构示意图;
图6是本发明实施例中语音识别方法和系统的计算设备的示例性硬件架构的结构图。
具体实施方式
为使本发明的目的、技术方案和优点表达得更加清楚明白,下面结合附图及具体实施例对本发明再作进一步详细的说明。
下面将详细描述本申请的各个方面的特征和示例性实施例,为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细描述。应理解,此处所描述的具体实施例仅被配置为解释本申请,并不被配置为限定本申请。对于本领域技术人员来说,本申请可以在不需要这些具体细节中的一些细节的情况下实施。下面对实施例的描述仅仅是为了通过示出本申请的示例来提供对本申请更好的理解。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
语音识别技术是人机交互技术的重要组成部分,有了语音识别技术,机器就可以像人类一样听懂说话,进而能够思考、理解和反馈。
参见图1,图1是本发明实施例中语音识别的系统结构示意图。其中,语音识别的系统可以包括声音传感器和语音识别设备,声音传感器与语音识别设备耦合。
声学传感器是可以感受声学量并转化成可输出信号的传感器。声学传感器包括声压传感器、噪声传感器、超声波传感器和麦克风。
语音识别设备可以是具有计算功能的计算机/服务器,其中服务器是由一台或多台计算机组成。
声音传感器接收用户发出的语音信号,并将接收到的语音信号发送至语音识别设备。
语音识别设备可以与声音传感器位于同一位置,或与声音传感器位于不同位置。作为一个示例,声音传感器位于用户所在的本地端,语音识别设备位于云端。声音传感器可以通过网络将接收到的语音信号发送至语音识别设备。
当然,同一个语音识别设备可以与多个声音传感器相连接。同时接收多个声音传感器发送的语音信号的声学特征。
语音信号的丰富变化性是由用户的各种复杂特性或者说话风格与语速、环境噪声、信道干扰、方言差异等因素引起的。语音识别模型组件需要足够的鲁棒性来处理以上的情况。深度神经网络成为语音识别技术中的主流语音识别模型组件。
参见图2,图2是本发明实施例中语音识别模型组件的结构示意图。具体包括:前馈神经网络(Deep-feedforward sequential memory networks,DFSMN)模块和分类器。其中,包括多个DFSMN模块和一个分类器。
DFSMN模块包括:激活函数(Rectified Linear Units,ReLU)层,线性投影层,以及记忆块。
记忆块存储每帧输入数据的历史信息和未来信息。历史信息和未来信息可以体现数据的长时信息,有效提升神经网络处理信息数据的能力,进而提高信息处理的效率。
对于一个DFSMN模块而言,激活函数层是与前一个DFSMN的输出为输入。也就是说,激活函数层与前一个DFSMN的记忆块相连接,激活函数层作为DFSMN模块的输入。
线性投影层与激活函数层相连接,线性投影层以激活函数层的输出为输入。
记忆块分别与线性投影层和前一个DFSMN模块的记忆块相连接。记忆块以线性投影层、以及与前一个DFSMN模块的记忆块的输出为输入。也就是说,记忆块的输入包括两部分,一部分是线性投影层的输入,另一个部分是前一个DFSMN模块的记忆块的输出。其中,线性投影层的输入也可以理解为每帧输入数据的未来信息。前一个DFSMN模块的记忆块的输出也可以理解为每帧输入数据的历史信息。换言之,记忆块存储每帧输入数据的历史信息和未来信息。
此外,记忆块还与下一个DFSMN模块相连接,记忆块的输出为记忆块所属DFSMN模块的输出。即,记忆块可以将所属DFSMN模块的输出,作为下一个DFSMN模块的输入。
这样,可以克服由于深度神经网络的深度造成的梯度消失问题,使得可以稳定的训练深层的深度神经网络。
是第l个DFSMN模块的记忆块中第t帧特征的第i个历史信息。是第l个DFSMN模块的记忆块中第t帧特征的第j个未来信息。是第l个DFSMN模块的记忆块的第t帧特征的历史信息记忆的帧数。是第l个DFSMN模块的记忆块的第t帧特征的未来信息的帧数。是第t帧特征第i个历史信息的权重。第t帧特征第i个未来信息的权重。表示两个向量对应维度元素间的乘法操作符。
在本发明的一个实施例中,语音识别模型组件可以基于预先获取的训练数据集合和损失函数进行模型训练。根据训练后的语音识别模型组件,分类器就可以输出语音信号所对应的语音序列。
其中,训练数据集合为包括语音数据与该语音数据对应的标准语音序列的集合。作为一个示例,训练数据集合包括多条训练数据,每条训练数据均包括语音数据与该语音数据对应的标准语音序列。
损失函数是用来估量语音识别模型组件的预测值与真实值的不一致程度,它是一个非负实值函数,损失函数越小,语音识别模型组件的鲁棒性就越好。损失函数是通过时序分类优化函数形成的函数。
下面基于损失函数的不同,具体说明训练语音识别模型组件的过程。
在本发明的一个实施例中,首先,对训练数据集合中的各条训练数据,将训练数据中语音数据的声学特征进行提取以得到相应的特征序列。
常用的声学特征包括:短时平均能量或幅度、短时平均过零率、短时自相关函数、线性预测系数、基音频率、短时傅里叶变换、倒谱和共振峰等。
作为一个示例,可以采用以下任一方式提取语音数据的声学特征:线性预测倒谱参数(Linear Prediction Cepstrum Coefficient,LPCC)、梅尔频率倒谱系数(Mel-frequency cepstral coefficients,MFCC)、隐马尔可夫模型(Hidden Markov Model,HMM)和动态时间归整(Dynamic Time Warping,DTW)。
然后,将训练数据对应的特征序列作为输入,输入语音识别模型组件,以得到语音识别模型组件输出的、训练数据中语音数据的识别结果。
语音识别模型组件的作用在于:输出输入的特征序列的识别结果。由于训练数据包括语音数据与该语音数据对应的标准语音序列,最后,基于训练数据中语音数据的识别结果和标准语音序列之间的差异,以时序分类优化函数为损失函数,训练语音识别模型组件。
具体来说,基于训练数据中语音数据的识别结果和标准语音序列之间的差异,以时序分类优化函数为损失函数确定目标函数。依据确定的目标函数获知分类器的梯度信号。通过梯度信号,调整语音识别模型组件中参数,进而得到训练后语音识别模型组件。
训练数据集合包括多条训练数据,通过训练数据集合中的训练数据进行多次训练,最终得到训练后的语音识别模型组件。
在本发明的一个实施例中,时序分类优化函数可以包括神经网络的时序分类(Connectionist temporal classification,CTC)优化函数。
CTC优化函数是一种用来在语音识别、手写体识别等序列问题中训练深度神经网络的算法。
具体来说,对于一段长度为F的序列来说,每个样本点f在分类器都会输出一个softmax向量,softmax向量表征不同类别之间的相对预测概率。利用CTC优化函数就可以正确预测出该序列的标签。
CTC优化函数引入CTC空白(blank)帧。CTC blank可以将混淆或不确定的样本点映射到CTC blank节点。这样,关注于样本点的差异性,减少需要完整描述全部样本点的负担。
这样,利用CTC优化函数训练生成语音识别模型组件,由于无需完整描述全部样本点,因此能够确保语音识别模型组件语音识别的实时性,而且关注于样本点的差异性进而提高语音识别模型组件输出语音序列的正确性。
在本发明的一个实施例中,CTC blank输出概率大于预设阈值,则说明利用CTC优化函数训练得到的语音识别模型组件,输出语音序列的实时性和正确性可以满足实际的需求。需要说明的是,预设阈值是基于实际的应用场景预先设置的参数。
在本发明的一个实施例中,考虑到语音识别模型组件在实际应用中会遇到输出的语音序列与标准语音序列在时间上的不匹配性,可能会延时一定的时间。也就是说,语音识别模型组件输出的语音序列会出现乱序,整理乱序的语音序列会导致语音序列的延迟。
为了解决语音识别模型组件输出的语音序列延迟的问题,可以在语音识别模型组件的输入语音信号中增加时间标注信息。增加时间标注信息的目的在于,标识语音信号的时间顺序。
在训练语音识别模型组件中,所使用的损失函数不仅包括时序分类优化函数,还包括交叉熵函数。
与损失函数仅包括时序分类优化函数的不同之处在于:在训练语音识别模型组件的过程中,基于训练数据中语音数据的识别结果和标准语音序列之间的差异,以时序分类优化函数和交叉熵函数联合形成的函数为损失函数,训练语音识别模型组件。
这样,通过时序分类优化函数和交叉熵函数,训练得到语音识别模型组件的情况下,利用时间标注信息迅速整理语音序列,进而降低语音序列的延迟,提高语音识别模型组件语音识别的实时性。
在本发明的一个实施例中,CTC blank输出概率小于或等于预设阈值,则说明利用CTC优化函数训练得到的语音识别模型组件,输出语音序列的实时性和正确性难以满足实际的需求。
那么,则需要利用CTC优化函数和交叉熵(Cross Entropy,CE)函数联合形成的函数为损失函数,训练语音识别模型组件,从而提高语音识别模型组件输出语音序列的实时性和正确性。
CE函数用于度量两个概率分布间的差异性,可以表示当前参数下的语音识别模型组件与理想的语音识别模型组件之间的差距,以便调整语音识别模型组件的当前参数。
在本发明的一个实施例中,建立CTC优化函数和CE函数的目标目标函数Lctcce(x)。
Lctcce(x)=Lctc(x)+αLce(x) (4)
其中,x是声学模型的输出语音序列,Lctc(x)是CTC优化函数,Lce(x)是CE函数。α是CTC优化函数与CE函数的预设相关系数。
Lce(x)=-∑K[1-p(ye|x)]delogp(ye|x) (5)
p(ye|x)是语音识别模型组件预测CTC blank输出概率。具体来说,x是语音识别模型组件的输出语音序列,ye指第e帧是CTC blank。p(ye|x)指在x是语音识别模型组件的输出语音序列的情况下,ye的第e帧是CTC blank的概率。语音序列中有K帧。de是第e帧的时间标注信息。
需要说明的是,时间标注信息是帧级别的标识信息。也就是说,对于每个语音帧均包括时间标注信息。这样,依据时间标注信息,在语音序列中迅速整理语音序列。即:语音识别模型组件输出的语音序列在时间上对齐,进而降低语音序列的延迟。
利用CTC优化函数和CE函数训练语音识别模型组件,对于一个语音帧,在仅采用CTC优化函数训练语音识别模型组件的情况下,CTC blank输出概率大于预设阈值,则无需CE函数训练语音识别模型组件;在仅采用CTC优化函数训练语音识别模型组件的情况下,CTC blank输出概率小于或等于预设阈值,则不仅需要CTC优化函数,还需要CE函数训练语音识别模型组件。
CE函数获取语音帧中的时间标注信息,这样使得语音识别模型组件更加稳定,语音识别模型组件输出的语音序列在时间上对齐,进而降低语音序列的延迟。
经过上述过程,训练得到语音识别模型组件。下面结合图2详细说明语音识别的具体过程。
需要说明的是,图2中语音识别模型组件包括多个DFSMN模块和一个分类器。
采集到的语音信号通过消除噪音、信道失真等对语音进行增强,将语音信号从时域转化到频域,并提取语音信号的声学特征。
继续参见图2,语音识别模型组件的输入是语音信号的声学特征。声学特征是多维的向量,并且声学特征的取值可以是离散或连续的。
语音信号的声学特征输入语音识别模型组件中的DFSMN模块中。依次通过多个DFSMN模块后,输出至分类器,最终分类器输出语音信号对应的语音序列。
其中,在DFSMN模块中,ReLU层的输入,依次通过线性投影层和记忆块输入至下一个DFSMN模块中。记忆块存储每帧输入数据的历史信息和未来信息。ReLU层采用的节点数目为2048,线性投影层和记忆块的节点数目均为512。在实际的应用中,可以根据实际需求调整ReLU层、线性投影层和记忆块的节点数目。
也就是说,在DFSMN模块的记忆块中存储每帧输入数据的历史信息和未来信息。由于隐层包括多个DFSMN模块,那么,隐层中存储每帧输入数据的历史信息和未来信息。
此外,为了克服由于深度神经网络的深度造成的梯度消失问题,使得可以稳定的训练深层的深度神经网络。
参见图3,图3是本发明另一个实施例中语音识别模型组件的结构示意图。与图2中语音识别模型组件的不同在于,该语音识别模型组件还包括线性投影层和ReLU层。
最后一个DFSMN模块的输出作为ReLU层的输入。增加ReLU层的目的在于增强构建语音识别模型组件的能力。作为一个示例,增加ReLU层的数目可以是一个或多个。即,增加一个ReLU层,或增加多个ReLU层。
ReLU层的输出作为线性投影层的输入。线性投影层是一个低维度的线性投影层,可以用来减少语音识别模型组件的参数。
参见图4,图4是本发明实施例中语音识别方法的流程示意图,具体包括:
S401、提取接收到的语音信号的声学特征。
接收语音信号,提取接收到的语音信号的声学特征。作为一个示例,接收用户的语音信号,然后提取用户的语音信号的声学特征。对于不同的用户,其对应的声学特征也是不同的。
S402、将语音信号的声学特征输入至语音识别模型组件,以便语音识别模型组件对语音信号进行识别处理。
语音识别模型组件是基于多个DFSMN模块构建、并通过时序分类优化函数形成的损失函数进行模型训练而生成的模型组件。
在本发明的一个实施例中,可以基于预先获取的训练数据集合、并通过时序分类优化函数形成的损失函数进行模型训练,以得到语音识别模型组件。
根据预先训练得到的语音识别模型组件,可以将语音信号的声学特征输入至语音识别模型组件,以便语音识别模型组件对语音信号进行识别处理。
S403、获取语音识别模型组件输出的、语音信号对应的语音序列。
从语音识别模型组件获取输出的语音序列,该语音序列就是语音信号对应的语音序列。
在本发明实施例中,语音识别模型组件是基于多个DFSMN模块构建、并通过时序分类优化函数形成的损失函数进行模型训练而生成的模型组件。由于无需完整描述全部样本点,因此能够确保语音识别模型组件语音识别的实时性,而且关注于样本点的差异性进而提高语音识别模型组件输出语音序列的正确性。
在本发明的一个实施例中,分类器和与分类器相连的DFSMN模块之间,还包括线性投影层和激活函数层。增加ReLU层的目的在于增强构建语音识别模型组件的能力。线性投影层是一个低维度的线性投影层,可以用来减少语音识别模型组件的参数。
在本发明的一个实施例中,基于预先获取的训练数据集合、并通过时序分类优化函数形成的损失函数进行模型训练,得到语音识别模型组件,以便分类器的输出指示输入语音信号所对应的语音序列。
在上述实施例中,通过时序分类优化函数形成的损失函数进行模型训练,得到语音识别模型组件,可以提高语音识别模型组件的鲁棒性,进而提高语音识别模型组件输出语音序列的正确性。
在本发明的一个实施例中,首先,对训练数据集合中的各条训练数据,将训练数据中语音数据的声学特征进行提取以得到相应的特征序列。
然后,将训练数据对应的特征序列作为输入,输入语音识别模型组件,以得到语音识别模型组件输出的、训练数据中语音数据的识别结果。
最后,基于训练数据中语音数据的识别结果和标准语音序列之间的差异,以时序分类优化函数为损失函数,训练语音识别模型组件。
在上述实施例中,由于以时序分类优化函数为损失函数,无需完整描述全部样本点,因此能够确保语音识别模型组件语音识别的实时性,而且关注于样本点的差异性进而提高语音识别模型组件输出语音序列的正确性。
在本发明的一个实施例中,首先,对训练数据集合中的各条训练数据,将训练数据中语音数据的声学特征进行提取以得到相应的特征序列。
然后,将训练数据对应的特征序列作为输入,输入语音识别模型组件,以得到语音识别模型组件输出的、训练数据中语音数据的识别结果。
最后,基于训练数据中语音数据的识别结果和标准语音序列之间的差异,以时序分类优化函数和交叉熵函数联合形成的函数为损失函数,训练语音识别模型组件。
在上述实施例中,以时序分类优化函数和交叉熵函数联合形成的函数为损失函数,解决语音识别模型组件输出的语音序列延迟的问题,从而提高语音识别模型组件输出语音序列的实时性和正确性。
在本发明的一个实施例中,当损失函数中时序分类优化函数对应的、空白帧输出概率低于预设概率阈值时,基于损失函数中交叉熵函数获取时间标注信息。
基于训练数据中语音数据的识别结果和标准语音序列之间的差异,以时序分类优化函数和交叉熵函数联合形成的函数为损失函数,通过损失函数和时间标注信息训练语音识别模型组件。
在上述实施例中,利用时间标注信息能够迅速整理出语音序列,进而降低语音序列的延迟,提高语音识别模型组件的实时性。
参见图5,图5是本发明另一个实施例中语音识别的系统结构示意图,语音识别的系统与语音识别的方法相对应,语音识别的系统具体包括:
声音传感器501,用于接收用户的语音信号。
语音识别设备502,用于提取接收到的语音信号的声学特征;
将语音信号的声学特征输入至语音识别模型组件,以便语音识别模型组件对语音信号进行识别处理;
获取语音识别模型组件输出的、语音信号对应的语音序列;
其中,语音识别模型组件是基于多个DFSMN模块构建、并通过时序分类优化函数形成的损失函数进行模型训练而生成的模型组件。
在本发明的一个实施例中,语音识别模型组件包括多个依次相连的DFSMN模块和一个分类器,并以一个DFSMN模块为输入端,以分类器为输出端。
在本发明的一个实施例中,分类器和与分类器相连的DFSMN模块之间,还包括线性投影层和激活函数层。
在本发明的一个实施例中,DFSMN模块包括激活函数层、线性投影层和记忆块。
在本发明的一个实施例中,在DFSMN模块中:
激活函数层以与DFSMN模块相连的、靠近输入端的DFSMN的输出为输入。
线性投影层以激活函数层的输出为输入。
记忆块以线性投影层、以及与DFSMN模块相连的、靠近输入端的DFSMN的输出为输入。
DFSMN模块以记忆块的输出为自身输出。
在本发明的一个实施例中,语音识别设备502,还用于基于预先获取的训练数据集合、并通过时序分类优化函数形成的损失函数进行模型训练,得到语音识别模型组件,以便分类器的输出指示输入语音信号所对应的语音序列。
在本发明的一个实施例中,训练数据集合包括多条训练数据,每条训练数据包括语音数据和语音数据对应的标准语音序列。
语音识别设备502,还用于对训练数据集合中的各条训练数据,将训练数据中语音数据的声学特征进行提取以得到相应的特征序列。
将训练数据对应的特征序列作为输入,输入语音识别模型组件,以得到语音识别模型组件输出的、训练数据中语音数据的识别结果。
基于训练数据中语音数据的识别结果和标准语音序列之间的差异,以时序分类优化函数为损失函数,训练语音识别模型组件。
在本发明的一个实施例中,训练数据集合包括多条训练数据,每条训练数据包括语音数据和语音数据对应的标准语音序列。
语音识别设备502,还用于对训练数据集合中的各条训练数据,将训练数据中语音数据的声学特征进行提取以得到相应的特征序列。
将训练数据对应的特征序列作为输入,输入语音识别模型组件,以得到语音识别模型组件输出的、训练数据中语音数据的识别结果。
基于训练数据中语音数据的识别结果和标准语音序列之间的差异,以时序分类优化函数和交叉熵函数联合形成的函数为损失函数,训练语音识别模型组件。
在本发明的一个实施例中,语音识别设备502,具体用于当损失函数中时序分类优化函数对应的、空白帧输出概率低于预设概率阈值时,基于损失函数中交叉熵函数获取时间标注信息。
基于训练数据中语音数据的识别结果和标准语音序列之间的差异,通过损失函数和时间标注信息训练语音识别模型组件。
图6是示出能够实现根据本发明实施例中语音识别的方法和系统的计算设备的示例性硬件架构的结构图。
如图6所示,计算设备600包括输入设备601、输入接口602、中央处理器603、存储器604、输出接口605、以及输出设备606。其中,输入接口602、中央处理器603、存储器604、以及输出接口605通过总线610相互连接,输入设备601和输出设备606分别通过输入接口602和输出接口605与总线610连接,进而与计算设备600的其他组件连接。
具体地,输入设备601接收来自外部的输入信息,并通过输入接口602将输入信息传送到中央处理器603;中央处理器603基于存储器604中存储的计算机可执行指令对输入信息进行处理以生成输出信息,将输出信息临时或者永久地存储在存储器604中,然后通过输出接口605将输出信息传送到输出设备606;输出设备606将输出信息输出到计算设备600的外部供用户使用。
也就是说,图6所示的计算设备也可以被实现为包括:存储有计算机可执行指令的存储器;以及处理器,该处理器在执行计算机可执行指令时可以实现结合图1至图5描述的语音识别方法和系统。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使对应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (20)
1.一种语音识别方法,包括:
提取接收到的语音信号的声学特征;
将所述语音信号的声学特征输入至语音识别模型组件,以便所述语音识别模型组件对所述语音信号进行识别处理;
获取所述语音识别模型组件输出的、所述语音信号对应的语音序列;
其中,所述语音识别模型组件是基于多个前馈神经网络模块构建、并通过时序分类优化函数形成的损失函数进行模型训练而生成的模型组件。
2.根据权利要求1所述语音识别方法,其中,所述语音识别模型组件包括多个依次相连的前馈神经网络模块和一个分类器,并以一个前馈神经网络模块为输入端,以所述分类器为输出端。
3.根据权利要求2所述语音识别方法,其中:
所述分类器和与所述分类器相连的前馈神经网络模块之间,还包括线性投影层和激活函数层。
4.根据权利要求1-3中任一项所述语音识别方法,所述前馈神经网络模块包括激活函数层、线性投影层和记忆块。
5.根据权利要求4所述语音识别方法,在所述前馈神经网络模块中:
所述激活函数层以与所述前馈神经网络模块相连的、靠近所述输入端的前馈神经网络的输出为输入;
所述线性投影层以所述激活函数层的输出为输入;
所述记忆块以所述线性投影层、以及与所述前馈神经网络模块相连的、靠近所述输入端的前馈神经网络的输出为输入;
所述前馈神经网络模块以所述记忆块的输出为自身输出。
6.根据权利要求1所述语音识别方法,其中,所述语音识别模型组件基于预先获取的训练数据集合、并通过时序分类优化函数形成的损失函数进行模型训练,以便所述分类器的输出指示输入语音信号所对应的语音序列。
7.根据权利要求6所述语音识别方法,其中,所述训练数据集合包括多条训练数据,每条训练数据包括语音数据和所述语音数据对应的标准语音序列,所述基于预先获取的训练数据集合、并通过时序分类优化函数形成的损失函数进行模型训练,包括:
对所述训练数据集合中的各条训练数据,将所述训练数据中语音数据的声学特征进行提取以得到相应的特征序列;
将所述训练数据对应的特征序列作为输入,输入所述语音识别模型组件,以得到所述语音识别模型组件输出的、所述训练数据中语音数据的识别结果;
基于所述训练数据中语音数据的识别结果和标准语音序列之间的差异,以时序分类优化函数为损失函数,训练所述语音识别模型组件。
8.根据权利要求6所述语音识别方法,其中,所述训练数据集合包括多条训练数据,每条训练数据包括语音数据和所述语音数据对应的标准语音序列,所述基于预先获取的训练数据集合、并通过时序分类优化函数形成的损失函数进行模型训练,包括:
对所述训练数据集合中的各条训练数据,将所述训练数据中语音数据的声学特征进行提取以得到相应的特征序列;
将所述训练数据对应的特征序列作为输入,输入所述语音识别模型组件,以得到所述语音识别模型组件输出的、所述训练数据中语音数据的识别结果;
基于所述训练数据中语音数据的识别结果和标准语音序列之间的差异,以时序分类优化函数和交叉熵函数联合形成的函数为损失函数,训练所述语音识别模型组件。
9.根据权利要求8所述语音识别方法,其中:
当所述损失函数中时序分类优化函数对应的、空白帧输出概率低于预设概率阈值时,基于所述损失函数中交叉熵函数获取时间标注信息;通过所述损失函数和所述时间标注信息训练所述语音识别模型组件。
10.一种语音识别的系统,包括:声音传感器和语音识别设备,所述声音传感器与所述语音识别设备耦合;
所述声音传感器,用于接收用户的语音信号;
所述语音识别设备,用于提取接收到的语音信号的声学特征;
将所述语音信号的声学特征输入至语音识别模型组件,以便所述语音识别模型组件对所述语音信号进行识别处理;
获取所述语音识别模型组件输出的、所述语音信号对应的语音序列;
其中,所述语音识别模型组件是基于多个前馈神经网络模块构建、并通过时序分类优化函数形成的损失函数进行模型训练而生成的模型组件。
11.根据权利要求10所述语音识别的系统,其中,所述语音识别模型组件包括多个依次相连的前馈神经网络模块和一个分类器,并以一个前馈神经网络模块为输入端,以所述分类器为输出端。
12.根据权利要求11所述语音识别的系统,其中,所述分类器和与所述分类器相连的前馈神经网络模块之间,还包括线性投影层和激活函数层。
13.根据权利要求10-12中任一项所述语音识别的系统,其中,所述前馈神经网络模块包括激活函数层、线性投影层和记忆块。
14.根据权利要求13所述语音识别的系统,其中,在所述前馈神经网络模块中:
所述激活函数层以与所述前馈神经网络模块相连的、靠近所述输入端的前馈神经网络的输出为输入;
所述线性投影层以所述激活函数层的输出为输入;
所述记忆块以所述线性投影层、以及与所述前馈神经网络模块相连的、靠近所述输入端的前馈神经网络的输出为输入;
所述前馈神经网络模块以所述记忆块的输出为自身输出。
15.根据权利要求13所述语音识别的系统,其中,所述语音识别设备,还用于基于预先获取的训练数据集合、并通过时序分类优化函数形成的损失函数进行模型训练,得到所述语音识别模型组件,以便所述分类器的输出指示输入语音信号所对应的语音序列。
16.根据权利要求15所述语音识别的系统,其中,所述训练数据集合包括多条训练数据,每条训练数据包括语音数据和所述语音数据对应的标准语音序列,
所述语音识别设备,还用于对所述训练数据集合中的各条训练数据,将所述训练数据中语音数据的声学特征进行提取以得到相应的特征序列;
将所述训练数据对应的特征序列作为输入,输入所述语音识别模型组件,以得到所述语音识别模型组件输出的、所述训练数据中语音数据的识别结果;
基于所述训练数据中语音数据的识别结果和标准语音序列之间的差异,以时序分类优化函数为损失函数,训练所述语音识别模型组件。
17.根据权利要求15所述语音识别的系统,其中,所述训练数据集合包括多条训练数据,每条训练数据包括语音数据和所述语音数据对应的标准语音序列,
所述语音识别设备,还用于对所述训练数据集合中的各条训练数据,将所述训练数据中语音数据的声学特征进行提取以得到相应的特征序列;
将所述训练数据对应的特征序列作为输入,输入所述语音识别模型组件,以得到所述语音识别模型组件输出的、所述训练数据中语音数据的识别结果;
基于所述训练数据中语音数据的识别结果和标准语音序列之间的差异,以时序分类优化函数和交叉熵函数联合形成的函数为损失函数,训练所述语音识别模型组件。
18.根据权利要求17所述语音识别的系统,其中,所述语音识别设备,具体用于当所述损失函数中时序分类优化函数对应的、空白帧输出概率低于预设概率阈值时,基于所述损失函数中交叉熵函数获取时间标注信息;
基于所述训练数据中语音数据的识别结果和标准语音序列之间的差异,通过所述损失函数和所述时间标注信息训练所述语音识别模型组件。
19.一种语音识别的设备,
存储器,用于存储程序;
处理器,用于运行所述存储器中存储的所述程序,以执行如权利要求1-9任一所述语音识别的方法。
20.一种计算机可读存储介质,其上存储有计算机程序指令,当所述计算机程序指令被处理器执行时实现如权利要求1-9中任一项所述语音识别方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201811068321.XA CN110895935B (zh) | 2018-09-13 | 2018-09-13 | 语音识别方法、系统、设备和介质 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201811068321.XA CN110895935B (zh) | 2018-09-13 | 2018-09-13 | 语音识别方法、系统、设备和介质 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN110895935A true CN110895935A (zh) | 2020-03-20 |
| CN110895935B CN110895935B (zh) | 2023-10-27 |
Family
ID=69785423
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201811068321.XA Active CN110895935B (zh) | 2018-09-13 | 2018-09-13 | 语音识别方法、系统、设备和介质 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN110895935B (zh) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111402891A (zh) * | 2020-03-23 | 2020-07-10 | 北京字节跳动网络技术有限公司 | 语音识别方法、装置、设备和存储介质 |
| CN112560453A (zh) * | 2020-12-18 | 2021-03-26 | 平安银行股份有限公司 | 语音信息校验方法、装置、电子设备及介质 |
| CN112669824A (zh) * | 2020-12-23 | 2021-04-16 | 苏州思必驰信息科技有限公司 | 构建声学模型的方法、语音识别系统和语音识别方法 |
| CN114067800A (zh) * | 2021-04-28 | 2022-02-18 | 北京有竹居网络技术有限公司 | 语音识别方法、装置和电子设备 |
| CN114333782A (zh) * | 2022-01-13 | 2022-04-12 | 平安科技(深圳)有限公司 | 语音识别方法、装置、设备及存储介质 |
| CN116302294A (zh) * | 2023-05-18 | 2023-06-23 | 安元科技股份有限公司 | 一种界面化自动识别组件属性的方法及系统 |
| CN118280371A (zh) * | 2024-04-29 | 2024-07-02 | 广东省空间计算科技集团有限公司 | 一种基于人工智能的语音交互方法及系统 |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20170011738A1 (en) * | 2015-07-09 | 2017-01-12 | Google Inc. | Generating acoustic models |
| CN106531157A (zh) * | 2016-10-28 | 2017-03-22 | 中国科学院自动化研究所 | 语音识别中的正则化口音自适应方法 |
| CN107293288A (zh) * | 2017-06-09 | 2017-10-24 | 清华大学 | 一种残差长短期记忆循环神经网络的声学模型建模方法 |
| CN107368475A (zh) * | 2017-07-18 | 2017-11-21 | 中译语通科技(北京)有限公司 | 一种基于生成对抗神经网络的机器翻译方法和系统 |
| CN107871497A (zh) * | 2016-09-23 | 2018-04-03 | 北京眼神科技有限公司 | 语音识别方法和装置 |
| CN107993651A (zh) * | 2017-12-29 | 2018-05-04 | 深圳和而泰数据资源与云技术有限公司 | 一种语音识别方法、装置、电子设备及存储介质 |
| WO2018107810A1 (zh) * | 2016-12-15 | 2018-06-21 | 平安科技(深圳)有限公司 | 声纹识别方法、装置、电子设备及介质 |
| US20180174576A1 (en) * | 2016-12-21 | 2018-06-21 | Google Llc | Acoustic-to-word neural network speech recognizer |
| CN108417210A (zh) * | 2018-01-10 | 2018-08-17 | 苏州思必驰信息科技有限公司 | 一种词嵌入语言模型训练方法、词语识别方法及系统 |
-
2018
- 2018-09-13 CN CN201811068321.XA patent/CN110895935B/zh active Active
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20170011738A1 (en) * | 2015-07-09 | 2017-01-12 | Google Inc. | Generating acoustic models |
| CN107871497A (zh) * | 2016-09-23 | 2018-04-03 | 北京眼神科技有限公司 | 语音识别方法和装置 |
| CN106531157A (zh) * | 2016-10-28 | 2017-03-22 | 中国科学院自动化研究所 | 语音识别中的正则化口音自适应方法 |
| WO2018107810A1 (zh) * | 2016-12-15 | 2018-06-21 | 平安科技(深圳)有限公司 | 声纹识别方法、装置、电子设备及介质 |
| US20180174576A1 (en) * | 2016-12-21 | 2018-06-21 | Google Llc | Acoustic-to-word neural network speech recognizer |
| CN107293288A (zh) * | 2017-06-09 | 2017-10-24 | 清华大学 | 一种残差长短期记忆循环神经网络的声学模型建模方法 |
| CN107368475A (zh) * | 2017-07-18 | 2017-11-21 | 中译语通科技(北京)有限公司 | 一种基于生成对抗神经网络的机器翻译方法和系统 |
| CN107993651A (zh) * | 2017-12-29 | 2018-05-04 | 深圳和而泰数据资源与云技术有限公司 | 一种语音识别方法、装置、电子设备及存储介质 |
| CN108417210A (zh) * | 2018-01-10 | 2018-08-17 | 苏州思必驰信息科技有限公司 | 一种词嵌入语言模型训练方法、词语识别方法及系统 |
Cited By (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111402891A (zh) * | 2020-03-23 | 2020-07-10 | 北京字节跳动网络技术有限公司 | 语音识别方法、装置、设备和存储介质 |
| CN111402891B (zh) * | 2020-03-23 | 2023-08-11 | 抖音视界有限公司 | 语音识别方法、装置、设备和存储介质 |
| CN112560453A (zh) * | 2020-12-18 | 2021-03-26 | 平安银行股份有限公司 | 语音信息校验方法、装置、电子设备及介质 |
| CN112560453B (zh) * | 2020-12-18 | 2023-07-14 | 平安银行股份有限公司 | 语音信息校验方法、装置、电子设备及介质 |
| CN112669824A (zh) * | 2020-12-23 | 2021-04-16 | 苏州思必驰信息科技有限公司 | 构建声学模型的方法、语音识别系统和语音识别方法 |
| CN112669824B (zh) * | 2020-12-23 | 2022-04-15 | 思必驰科技股份有限公司 | 构建声学模型的方法、语音识别系统和语音识别方法 |
| CN114067800A (zh) * | 2021-04-28 | 2022-02-18 | 北京有竹居网络技术有限公司 | 语音识别方法、装置和电子设备 |
| CN114067800B (zh) * | 2021-04-28 | 2023-07-18 | 北京有竹居网络技术有限公司 | 语音识别方法、装置和电子设备 |
| CN114333782A (zh) * | 2022-01-13 | 2022-04-12 | 平安科技(深圳)有限公司 | 语音识别方法、装置、设备及存储介质 |
| CN116302294A (zh) * | 2023-05-18 | 2023-06-23 | 安元科技股份有限公司 | 一种界面化自动识别组件属性的方法及系统 |
| CN116302294B (zh) * | 2023-05-18 | 2023-09-01 | 安元科技股份有限公司 | 一种界面化自动识别组件属性的方法及系统 |
| CN118280371A (zh) * | 2024-04-29 | 2024-07-02 | 广东省空间计算科技集团有限公司 | 一种基于人工智能的语音交互方法及系统 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN110895935B (zh) | 2023-10-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN110895935B (zh) | 语音识别方法、系统、设备和介质 | |
| US10930270B2 (en) | Processing audio waveforms | |
| US11450332B2 (en) | Audio conversion learning device, audio conversion device, method, and program | |
| CN110364143B (zh) | 语音唤醒方法、装置及其智能电子设备 | |
| Kumar et al. | A Hindi speech recognition system for connected words using HTK | |
| Mannepalli et al. | MFCC-GMM based accent recognition system for Telugu speech signals | |
| US10490182B1 (en) | Initializing and learning rate adjustment for rectifier linear unit based artificial neural networks | |
| CN108305616A (zh) | 一种基于长短时特征提取的音频场景识别方法及装置 | |
| Hibare et al. | Feature extraction techniques in speech processing: a survey | |
| Todkar et al. | Speaker recognition techniques: A review | |
| WO2014029099A1 (en) | I-vector based clustering training data in speech recognition | |
| Nasereddin et al. | Classification techniques for automatic speech recognition (ASR) algorithms used with real time speech translation | |
| Ren et al. | Two-stage training for Chinese dialect recognition | |
| Keshet et al. | Pac-bayesian approach for minimization of phoneme error rate | |
| KR20230023773A (ko) | 텍스트 음성 변환을 위한 웨이브넷 셀프 트레이닝 | |
| CN102436815B (zh) | 一种应用于英语口语网络机考系统的语音识别装置 | |
| Kannadaguli et al. | A comparison of Bayesian and HMM based approaches in machine learning for emotion detection in native Kannada speaker | |
| Ananthi et al. | Speech recognition system and isolated word recognition based on Hidden Markov model (HMM) for Hearing Impaired | |
| Vimala et al. | Isolated speech recognition system for Tamil language using statistical pattern matching and machine learning techniques | |
| Yılmaz et al. | Noise robust exemplar matching using sparse representations of speech | |
| Maheswari et al. | A hybrid model of neural network approach for speaker independent word recognition | |
| CN118230722B (zh) | 基于ai的智能语音识别方法及系统 | |
| Astudillo et al. | Accounting for the residual uncertainty of multi-layer perceptron based features | |
| Aung et al. | Time delay neural network for Myanmar automatic speech recognition | |
| HK40026133A (zh) | 语音识别方法、系统、设备和介质 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40026133 Country of ref document: HK |
|
| GR01 | Patent grant | ||
| GR01 | Patent grant |