[go: up one dir, main page]

CN116612770B - 非线性音频效果的数字建模方法、计算机设备及存储介质 - Google Patents

非线性音频效果的数字建模方法、计算机设备及存储介质

Info

Publication number
CN116612770B
CN116612770B CN202310624871.XA CN202310624871A CN116612770B CN 116612770 B CN116612770 B CN 116612770B CN 202310624871 A CN202310624871 A CN 202310624871A CN 116612770 B CN116612770 B CN 116612770B
Authority
CN
China
Prior art keywords
nonlinear
model
output signal
signal
nonlinear model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310624871.XA
Other languages
English (en)
Other versions
CN116612770A (zh
Inventor
张宏鑫
毛怡帆
吴泓嘉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202310624871.XA priority Critical patent/CN116612770B/zh
Publication of CN116612770A publication Critical patent/CN116612770A/zh
Application granted granted Critical
Publication of CN116612770B publication Critical patent/CN116612770B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Filters That Use Time-Delay Elements (AREA)
  • Tone Control, Compression And Expansion, Limiting Amplitude (AREA)

Abstract

本申请提供了一种非线性音频效果的数字建模方法、计算机设备及存储介质,该方法包括:获取音频源输入信号的采样样本;将输入信号的采样样本发送至目标系统的输入,并获取目标系统输出信号的采样样本;基于W‑H非线性模型,以输入信号的采样样本作为W‑H非线性模型的输入,以目标系统输出信号的采样样本作为W‑H非线性模型的期望输出,使用自适应矩估计计算W‑H非线性模型的参数;获取W‑H非线性模型的期望输出信号的采样样本和真实输出信号的采样样本,对每个采样样本进行短时傅里叶变换,得到两个信号的幅度谱,计算两个幅度谱之间的差异,并采用级联的滤波器拟合该差异,得到最终的W‑H非线性模型;基于最终的W‑H非线性模型输出处理后的信号。

Description

非线性音频效果的数字建模方法、计算机设备及存储介质
技术领域
本发明属于数字音频技术领域,特别涉及一种非线性音频效果的数字建模方法、计算机设备及存储介质。
背景技术
非线性效果的数字建模一直是数字音频效果领域深度研究的内容。压缩(compressor)、激励(exciter)、过载(overdrive)和失真(distortion)等各种音频效果都属于非线性效果的范畴。但是,能够实现这些效果的模拟设备通常较为昂贵,且体积庞大、难以携带。因此,研究非线性效果的数字建模方法是有必要的。
非线性效果的数字建模主要有两种方式,即白盒建模与黑盒建模。白盒建模也被称为正向建模,其利用了目标系统的所有已知信息,包括目标系统的电路图以及电子元器件的具体参数以及非线性特性等。白盒建模的优势在于其能够提供非常高精度的建模结果,而其劣势在于必须要求获取目标系统的详细特征,并且,模拟电路复杂的拓扑结构与大量非线性元件可能造成实时处理的计算成本过高。黑盒建模也被称为反向建模,其利用抽象的非线性系统模型来表示目标系统,再通过数值计算方法计算建模结果。这类抽象非线性模型主要包括Volterra模型、Chebyshev模型与人工神经网络模型等。黑盒建模的优势在于其不需要获取目标系统的详细特征,只要目标系统符合抽象非线性模型的特征,就可以对其进行建模,而其劣势在于能够提供的建模精度相对白盒建模来说较低。
对于以非线性效果数字建模为核心业务的厂商来说,建模精度更高的白盒建模无疑是首选的建模方式,而对于普通用户来说,便携性和自由度则是更值得考虑的因素。因此,数字音频效果器厂商通常选择白盒建模作为产品的核心技术,而将黑盒建模作为产品的特色功能之一,供用户自行选择。现有技术中,黑盒建模的非线性模型通常较为复杂,模型参数的计算成本较高,所需的计算时间长,这导致配置有黑盒建模技术的产品价格普遍较高,且用户在对目标系统建模时等待时间较长,体验感较差。因此,亟需一种复杂度较低,且计算成本不高的建模方法。
发明内容
本发明的主要目的在于提供一种非线性音频效果的数字建模方法,以解决上述现有技术中,黑盒建模的非线性模型通常较为复杂,模型参数的计算成本较高,所需的计算时间长,导致配置有黑盒建模技术的产品价格普遍较高,且用户在对目标音频效果建模时等待时间较长,体验感较差的问题。
为实现上述目的,本发明采用了如下技术方案:
第一方面,本发明提供一种非线性音频效果的数字建模方法,所述方法包括:
获取音频源输入信号的采样样本,所述音频源包括任何具有宽频带特征的音频信号;
将输入信号的采样样本发送至目标系统的输入,并获取目标系统输出信号的采样样本;
基于W-H非线性模型,以输入信号的采样样本作为W-H非线性模型的输入,以目标系统输出信号的采样样本作为W-H非线性模型的期望输出,使用自适应矩估计计算W-H非线性模型的参数;
获取W-H非线性模型的期望输出信号的采样样本和真实输出信号的采样样本,对每个采样样本进行短时傅里叶变换,得到两个信号的幅度谱,计算两个幅度谱之间的差异,并采用级联的滤波器拟合该差异,得到最终的W-H非线性模型;
基于最终的W-H非线性模型输出处理后的信号。
进一步的,所述W-H非线性模型由滤波器单元与非线性单元级联构成。
进一步的,计算W-H非线性模型的参数具体包括:
首先按下式计算FIR滤波器的输出:
y[n]=x[n]*h[n]
其中,x[n]表示输入信号;y[n]表示输出信号;h[n]表示滤波器传递函数;
按下式计算非线性单元的输出:
其中,kp、kn、gp、gn参数用于调节非线性曲线的响应特征,该非线性单元用于模拟电子元器件的非线性特性;
然后,计算目标系统的输出信号yreal[n]与模型的输出信号ymodel[n]在时域上的均方误差J,如下式所示:
其中,ymodel[n]表示模型的输出信号;yreal[n]表示目标系统的输出信号;N为信号样本采样点数;
之后,计算在自适应矩估计中需要用到的偏导数,包括
进一步的,还包括使用自适应矩估计对W-H模型的参数进行更新,计算步骤如下:
(1)计算移动平均梯度v:
(2)计算误差修正后的移动平均梯度vcorrected
(3)计算移动平均平方梯度s:
(4)计算误差修正后的移动平均平方梯度scorrected
(5)对参数θ进行更新:
其中,θ表示W-H模型中的任意参数;t表示模型当前的迭代次数;β1、β2用于确定移动平均数计算的窗口大小;ε用于防止分母项过小而导致梯度爆炸。
进一步的,还包括在参数更新时使用自适应学习率衰减方法,具体包括:
(1)计算当前迭代次数下均方误差J曲线的斜率大小;
(2)设置阈值,判断当前迭代次数下斜率是否小于该阈值;若是,则认为模型需要衰减学习率,转至步骤(3),若否,则学习率不变;
(3)按下式衰减学习率:
α=α×r
其中,α表示学习率,r表示衰减率。
进一步的,基于最终的W-H非线性模型输出处理后的信号还包括:
用户介入试听,向用户提供输入信号的增益调节,并基于用户指令对输入信号的增益量进行调节。
第二方面,本发明提供一种计算机设备,包括存储器、处理器,所述存储器中存储有可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面所述的方法。
第三方面,本发明提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现上述第一方面所述的方法。
本发明的有益技术效果如下:
本发明提供的非线性音频效果的数字建模方法、计算机设备及存储介质,通过获取输入信号,将其发送至目标系统,再获取目标系统的输出信号,基于W-H模型,结合自适应矩估计对目标系统进行数字建模,同时还引入了增益调节与自适应学习率衰减,加速了模型的收敛过程。解决了现有技术中,黑盒建模的非线性模型通常较为复杂,模型参数的计算成本较高,所需的计算时间长,导致配置有黑盒建模技术的产品价格普遍较高,且用户在对目标音频效果建模时等待时间较长,体验感较差的问题。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是本发明实施例示出的非线性音频效果的数字建模方法的流程示意图。
图2是以Peavey 5150型号电子管音箱作为建模对象,用户将配置有本发明方法的装置与其他设备连接的方式示意图。
图3是同一段电吉他信号分别由Peavey 5150音箱输出的真实信号以及本发明方法建模得到的模型输出波形图。
图4是本发明实施例提供的计算机设备的组成示意图。
通过上述附图,已示出本公开明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本公开构思的范围,而是通过参考特定实施例为本领域技术人员说明本公开的概念。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
现有技术中,黑盒建模的非线性模型通常较为复杂,模型参数的计算成本较高,所需的计算时间长,这导致配置有黑盒建模技术的产品价格普遍较高,且用户在对目标系统建模时等待时间较长,体验感较差。因此,亟需一种复杂度较低,且计算成本不高的建模方法。
针对上述问题,本发明实施例提供一种非线性音频效果的数字建模方法、计算机设备及存储介质,以解决上述现有技术中的问题。
下面以具体地实施例对本发明的技术方案以及本发明的技术方案如何解决上述技术问题进行详细说明。下面将结合附图,对本发明的实施例进行描述。
图1为本发明实施例提供的一种非线性音频效果的数字建模方法的流程示意图,如图1所示,该方法包括:
S101、获取音频源输入信号的采样样本。
音频源可以是任何具有宽频带特征的音频信号,例如吉他的演奏信号、歌手的演唱信号以及正弦扫频信号等等。
S102、将输入信号发送至目标系统的输入,并获取目标系统输出信号的采样样本;
S103、基于W-H非线性模型,以输入信号的采样样本作为W-H非线性模型的输入,以目标系统输出信号的采样样本作为W-H非线性模型的期望输出,使用自适应矩估计计算W-H非线性模型的参数;
本实施例中,W-H非线性模型由FIR滤波器单元与非线性单元级联构成,在计算模型参数的过程中,首先按下式计算FIR滤波器的输出:
y[n]=x[n]*h[n]
其中,x[n]表示输入信号;y[n]表示输出信号;h[n]表示滤波器传递函数。
按下式计算非线性单元的输出:
其中,kp、kn、gp、gn参数用于调节非线性曲线的响应特征,该非线性单元用于模拟电子元器件的非线性特性。
然后,计算目标系统的输出信号yreal[n]与模型的输出信号ymodel[n]在时域上的均方误差J,如下式所示:
其中,ymodel[n]表示模型的输出信号;yreal[n]表示目标系统的输出信号;N为信号样本采样点数。
之后,计算在自适应矩估计中需要用到的偏导数,包括
使用自适应矩估计对模型参数进行更新,计算步骤如下:
(1)计算移动平均梯度v:
(2)计算误差修正后的移动平均梯度vcorrected
(3)计算移动平均平方梯度s:
(4)计算误差修正后的移动平均平方梯度scorrected
(5)对参数θ进行更新:
其中,θ表示W-H非线性模型中的任意参数;t表示模型当前的迭代次数;β1、β2用于确定移动平均数计算的窗口大小;ε用于防止分母项过小而导致梯度爆炸。
为了加速模型的收敛,减少计算时间,在参数更新时还需要衰减学习率。此处应用了一种自适应学习率衰减方法,其步骤如下:
(1)计算当前迭代次数下均方误差J曲线的斜率大小;
(2)设置阈值,判断当前迭代次数下斜率是否小于该阈值。若是,则认为模型需要衰减学习率,转至步骤(3),若否,则学习率不变;
(3)按下式衰减学习率:
α=α×r
其中,α表示学习率,r表示衰减率。
S104、获取W-H非线性模型的期望输出信号与真实输出信号的采样样本,对每个采样样本进行短时傅里叶变换,得到两个信号的幅度谱,计算两个幅度谱之间的差异,并采用级联的滤波器拟合该差异,得到最终的W-H非线性模型。
优选的,本实施例中,滤波器采用IIR滤波器。
S105、基于最终的W-H非线性模型输出处理后的信号。
此时,允许用户介入试听,并向用户提供输入信号的增益调节,由用户确定输入信号的增益量。
示例性地,以Peavey 5150型号电子管音箱作为建模对象,用户以图2所示的方式将配置有本方法的装置与其他设备连接,并输入一段若干秒时长的电吉他信号,该信号将被发送至Peavey 5150电子管音箱中,同时音箱将返回其输出信号。若干秒后,建模完成,提示用户介入进行增益调节。最后,由用户确认并储存建模数据。图3显示了该示例中,同一段电吉他信号分别由Peavey 5150音箱输出的真实信号以及本方法建模得到的模型输出。可以看到,由本方法建模得到的模型基本还原了真实的Peavey 5150音箱的特征。
图4为本发明实施例提供的一种计算机设备的结构示意图,如图4所示,计算机设备500包括:存储器501和处理器502;
其中,存储器501用于存储处理器可执行的计算机指令;
处理器502在执行计算机指令时实现上述实施例中方法中的各个步骤。具体可以参见前述方法实施例中的相关描述。
可选地,上述存储器501既可以是独立的,也可以跟处理器502集成在一起。当存储器501独立设置时,该检测设备还包括总线,用于连接存储器501和处理器502。
本申请实施例还提供了一种非临时性计算机可读存储介质,当该存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行上述实施例提供的方法。
本申请实施例还提供了一种计算机程序产品,计算机程序产品包括:计算机程序,计算机程序存储在可读存储介质中,电子设备的至少一个处理器可以从可读存储介质读取计算机程序,至少一个处理器执行计算机程序使得电子设备执行上述任一实施例提供的方案。
以上对本申请所述的一种非线性音频效果的数字建模方法、装置、设备及存储介质进行了详细地的介绍,以上的实例说明只是用于帮助理解本申请的方法及其核心思想而非对其进行限制,其他的任何未背离本申请的精神实质与原理下所作改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本申请的保护范围之内。

Claims (6)

1.一种非线性音频效果的数字建模方法,其特征在于,所述方法包括:
获取音频源输入信号的采样样本,所述音频源包括任何具有宽频带特征的音频信号;
将输入信号的采样样本发送至目标系统的输入,并获取目标系统输出信号的采样样本;
基于W-H非线性模型,以输入信号的采样样本作为W-H非线性模型的输入,以目标系统输出信号的采样样本作为W-H非线性模型的期望输出,使用自适应矩估计计算W-H非线性模型的参数;所述W-H非线性模型由滤波器单元与非线性单元级联构成;
计算W-H非线性模型的参数具体包括:
首先按下式计算FIR滤波器的输出:
其中,表示输入信号;表示输出信号;表示滤波器传递函数;
按下式计算非线性单元的输出:
其中,参数用于调节非线性曲线的响应特征,该非线性单元用于模拟电子元器件的非线性特性;
然后,计算目标系统的输出信号与模型的输出信号在时域上的均方误差,如下式所示:
其中,表示模型的输出信号;表示目标系统的输出信号;为信号样本采样点数;
之后,计算在自适应矩估计中需要用到的偏导数,包括
获取W-H非线性模型的期望输出信号的采样样本和真实输出信号的采样样本,对每个采样样本进行短时傅里叶变换,得到两个信号的幅度谱,计算两个幅度谱之间的差异,并采用级联的滤波器拟合该差异,得到最终的W-H非线性模型;
基于最终的W-H非线性模型输出处理后的信号。
2.如权利要求1所述的非线性音频效果的数字建模方法,其特征在于,还包括使用自适应矩估计对W-H模型的参数进行更新,计算步骤如下:
(1) 计算移动平均梯度
(2) 计算误差修正后的移动平均梯度
(3) 计算移动平均平方梯度
(4) 计算误差修正后的移动平均平方梯度
(5) 对参数进行更新:
其中,表示W-H模型中的任意参数;表示模型当前的迭代次数;用于确定移动平均数计算的窗口大小;用于防止分母项过小而导致梯度爆炸;表示学习率。
3.如权利要求2所述的非线性音频效果的数字建模方法,其特征在于,还包括在参数更新时使用自适应学习率衰减方法,具体包括:
(1) 计算当前迭代次数下均方误差曲线的斜率大小;
(2) 设置阈值,判断当前迭代次数下斜率是否小于该阈值;若是,则认为模型需要衰减学习率,转至步骤(3),若否,则学习率不变;
(3) 按下式衰减学习率:
其中,表示学习率,表示衰减率。
4.如权利要求1-3任一项所述的非线性音频效果的数字建模方法,其特征在于,基于最终的W-H非线性模型输出处理后的信号还包括:
用户介入试听,向用户提供输入信号的增益调节,并基于用户指令对输入信号的增益量进行调节。
5.一种计算机设备,其特征在于,包括存储器、处理器,所述存储器中存储有可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述权利要求1-4任一项中的方法。
6.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如权利要求1-4任一项中的方法。
CN202310624871.XA 2023-05-30 2023-05-30 非线性音频效果的数字建模方法、计算机设备及存储介质 Active CN116612770B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310624871.XA CN116612770B (zh) 2023-05-30 2023-05-30 非线性音频效果的数字建模方法、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310624871.XA CN116612770B (zh) 2023-05-30 2023-05-30 非线性音频效果的数字建模方法、计算机设备及存储介质

Publications (2)

Publication Number Publication Date
CN116612770A CN116612770A (zh) 2023-08-18
CN116612770B true CN116612770B (zh) 2025-10-28

Family

ID=87685149

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310624871.XA Active CN116612770B (zh) 2023-05-30 2023-05-30 非线性音频效果的数字建模方法、计算机设备及存储介质

Country Status (1)

Country Link
CN (1) CN116612770B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106255027A (zh) * 2016-08-18 2016-12-21 苏州上声电子有限公司 一种非线性音频系统的音质可听化评估方法及系统
CN110313031A (zh) * 2017-02-01 2019-10-08 惠普发展公司,有限责任合伙企业 针对语音隐私的自适应语音可懂度控制

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8244787B2 (en) * 2005-10-31 2012-08-14 University Of Florida Research Foundation, Inc. Optimum nonlinear correntropy filter
CN113078884B (zh) * 2021-03-15 2023-06-20 武汉理工大学 添加非线性拟合的自适应算法
WO2023064735A1 (en) * 2021-10-14 2023-04-20 Qualcomm Incorporated Audio coding using machine learning based linear filters and non-linear neural sources

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106255027A (zh) * 2016-08-18 2016-12-21 苏州上声电子有限公司 一种非线性音频系统的音质可听化评估方法及系统
CN110313031A (zh) * 2017-02-01 2019-10-08 惠普发展公司,有限责任合伙企业 针对语音隐私的自适应语音可懂度控制

Also Published As

Publication number Publication date
CN116612770A (zh) 2023-08-18

Similar Documents

Publication Publication Date Title
Ramírez et al. Modeling nonlinear audio effects with end-to-end deep neural networks
CN109727604B (zh) 用于语音识别前端的频域回声消除方法及计算机储存介质
CN112820315B (zh) 音频信号处理方法、装置、计算机设备及存储介质
CN103634726B (zh) 一种扬声器自动均衡方法
CN112562624B (zh) 主动降噪滤波器设计方法、降噪方法、系统及电子设备
CN104157293B (zh) 一种增强声环境中目标语音信号拾取的信号处理方法
Orcioni et al. Identification of Volterra models of tube audio devices using multiple-variance method
CN106057220B (zh) 一种音频信号的高频扩展方法和音频播放器
CN109286730A (zh) 一种回声检测的方法、装置及系统
CN109102821B (zh) 时延估计方法、系统、存储介质及电子设备
US20190362736A1 (en) Dry sound and ambient sound separation
CN111031448A (zh) 回声消除方法、装置、电子设备和存储介质
CN112652290B (zh) 产生混响音频信号的方法及音频处理模型的训练方法
CN111798864B (zh) 一种回声消除方法、装置、电子设备及存储介质
CN111796790A (zh) 一种音效调节方法、装置、可读存储介质及终端设备
CN108010536A (zh) 回声消除方法、装置、系统及存储介质
WO2020168981A1 (zh) 风噪声抑制方法及装置
CN109379652B (zh) 一种耳机有源噪声控制的次级通道离线辨识方法
CN116612770B (zh) 非线性音频效果的数字建模方法、计算机设备及存储介质
CN119521072A (zh) 一种播放频响自适应均衡方法及装置
CN112700788A (zh) 回声消除中回声路径的建模方法、装置、设备及存储介质
CN111193497B (zh) 一种基于emfnl滤波器的次级通道建模方法
JP3920795B2 (ja) 反響消去装置、方法、及び反響消去プログラム
Eichas System identification of nonlinear audio circuits
CN111028854A (zh) 一种音频数据的处理方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant