Message Board

Dear readers, authors and reviewers,you can add a message on this page. We will reply to you as soon as possible!

2022 Volume 44 Issue 4
Article Contents

WANG Daili, WANG Shiyuan, ZHANG Tao, et al. Generalized Recursive Kernel Risk-Sensitive Loss Algorithm Based on Sparse System Identification[J]. Journal of Southwest University Natural Science Edition, 2022, 44(4): 196-205. doi: 10.13718/j.cnki.xdzk.2022.04.023
Citation: WANG Daili, WANG Shiyuan, ZHANG Tao, et al. Generalized Recursive Kernel Risk-Sensitive Loss Algorithm Based on Sparse System Identification[J]. Journal of Southwest University Natural Science Edition, 2022, 44(4): 196-205. doi: 10.13718/j.cnki.xdzk.2022.04.023

Generalized Recursive Kernel Risk-Sensitive Loss Algorithm Based on Sparse System Identification

More Information
  • Corresponding author: WANG Shiyuan ; 
  • Received Date: 22/06/2021
    Available Online: 20/04/2022
  • MSC: TN911.7

  • The kernel risk-sensitive loss (KRSL) is widely used as the cost function of adaptive filters to reduce the influence of non-Gaussian noises on system performance owing to its high convexity. In this paper, a generalized kernel risk-sensitive loss (GKRSL) is proposed by using a generalized Gaussian density (GGD) function as the kernel of KRSL to improve the filtering accuracy of system in non-Gaussian noises. The important properties of GKRSL are presented for optimization. Furthermore, combined with the advantages of the GKRSL under the sparse penalty constrain, the recursive updating method is used to generate a novel generalized recursive kernel risk-sensitive loss with the sparse penalty constrain (GRKRSL-SPC) algorithm for identification of sparse systems. The superiorities of GRKRSL-SPC from the aspects of accuracy and robustness are verified by Monte Carlo simulations.
  • 加载中
  • [1] SCHREIBER W F. Advanced Television Systems for Terrestrial Broadcasting: Some Problems and Some Proposed Solutions[J]. Proceedings of the IEEE, 1995, 83(6): 958-981. doi: 10.1109/5.387095

    CrossRef Google Scholar

    [2] DENG H Y, DOROSLOVACKI M. Proportionate Adaptive Algorithms for Network Echo Cancellation[J]. IEEE Transactions on Signal Processing, 2006, 54(5): 1794-1803. doi: 10.1109/TSP.2006.872533

    CrossRef Google Scholar

    [3] GUI G, PENG W, ADACHI F. Improved Adaptive Sparse Channel Estimation Based on the Least Mean Square Algorithm[C]//2013 IEEE Wireless Communications and Networking Conference (WCNC). April 7-10, 2013, Shanghai, China. IEEE, 2013: 3105-3109.

    Google Scholar

    [4] KALOUPTSIDIS N, MILEOUNIS G, BABADI B, et al. Adaptive Algorithms for Sparse System Identification[J]. Signal Processing, 2011, 91(8): 1910-1919. doi: 10.1016/j.sigpro.2011.02.013

    CrossRef Google Scholar

    [5] 周千, 马文涛, 桂冠. 基于l1范数约束的递归互相关熵的稀疏系统辨识[J]. 信号处理, 2016, 32(9): 1079-1086.

    Google Scholar

    [6] 李少东, 杨军, 胡国旗. 一种改进的压缩感知信号重构算法[J]. 信号处理, 2012, 28(5): 744-749. doi: 10.3969/j.issn.1003-0530.2012.05.020

    CrossRef Google Scholar

    [7] 杨秀杰. 基于深度学习稀疏测量的压缩感知图像重构[J]. 西南师范大学学报(自然科学版), 2020, 45(1): 42-47.

    Google Scholar

    [8] 金坚, 谷源涛, 梅顺良. 用于稀疏系统辨识的零吸引最小均方算法[J]. 清华大学学报(自然科学版), 2010, 50(10): 1656-1659.

    Google Scholar

    [9] CHEN Y L, GU Y T, HERO A O. Sparse LMS for System Identification[C]//2009 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). April 19-24, 2009. Taipei, Taiwan, China. IEEE 2009: 3125-3128.

    Google Scholar

    [10] HONG X, GAO J B, CHEN S. Zero-Attracting Recursive Least Squares Algorithms[J]. IEEE Transactions on Vehicular Technology, 2017, 66(1): 213-221.

    Google Scholar

    [11] 周其玉, 张爱华, 曹文周, 等. 平方根变步长lp范数LMS算法的稀疏系统辨识[J]. 电讯技术, 2020, 60(2): 137-141.

    Google Scholar

    [12] SETH S, PRINCIPE J C. Compressed Signal Reconstruction Using the Correntropy Induced Metric[C]//2008 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). March 31-April 4, 2008. Las Vegas, NV, USA. IEEE, 2008: 3845-3848.

    Google Scholar

    [13] MA W T, QU H, GUI G, et al. Maximum Correntropy Criterion Based Sparse Adaptive Filtering Algorithms for Robust Channel Estimation under Non-Gaussian Environments[J]. Journal of the Franklin Institute, 2015, 352(7): 2708-2727. doi: 10.1016/j.jfranklin.2015.03.039

    CrossRef Google Scholar

    [14] PRINCIPE J C. Information Theoretic Learning: Renyi's Entropy and Kernel Perspective[M]. New York: Springer, 2010: 366-376.

    Google Scholar

    [15] CHEN B D, XING L, ZHAO H Q, et al. Generalized Correntropy for Robust Adaptive Filtering[J]. IEEE Transactions on Signal Processing, 2016, 64(13): 3376-3387. doi: 10.1109/TSP.2016.2539127

    CrossRef Google Scholar

    [16] MA W T, DUAN J D, CHEN B D, et al. Recursive Generalized Maximum Correntropy Criterion Algorithm with Sparse Penalty Constraints for System Identification[J]. Asian Journal of Control, 2017, 19(3): 1164-1172. doi: 10.1002/asjc.1448

    CrossRef Google Scholar

    [17] SUN Q, ZHANG H, WANG X F, et al. Sparsity Constrained Recursive Generalized Maximum Correntropy Criterion with Variable Center Algorithm[J]. IEEE Transactions on Circuits and System Ⅱ: Express Briefs, 2020, 67(12): 3517-3521. doi: 10.1109/TCSII.2020.2986053

    CrossRef Google Scholar

    [18] CHEN B D, XING L, XU B, et al. Kernel Risk-Sensitive Loss: Definition, Properties and Application to Robust Adaptive Filtering[J]. IEEE Transactions on Signal Processing, 2017, 65(11): 2888-2901. doi: 10.1109/TSP.2017.2669903

    CrossRef Google Scholar

    [19] SONG K S. Asymptotic Relative Efficiency and Exact Variance Stabilizing Transformation for the Generalized Gaussian Distribution[J]. IEEE Transactions on Information Theory, 2013, 59(7): 4389-4396. doi: 10.1109/TIT.2013.2249182

    CrossRef Google Scholar

    [20] PEI S C, TSENG C C. Least Mean P-Power Error Criterion for Adaptive FIR Filter[J]. IEEE Journal on Selected Areas in Communications, 1994, 12(9): 1540-1547. doi: 10.1109/49.339922

    CrossRef Google Scholar

    [21] LO J T, WANNER T. Existence and Uniqueness of Risk-sensitive Estimates[J], IEEE Transactions on Automatic Control, 2002, 47(11): 1945-1948. doi: 10.1109/TAC.2002.804458

    CrossRef Google Scholar

    [22] 王文东, 王尧, 王建军. 一类光滑加权l1算法的收敛性分析与数值仿真实验[J]. 西南大学学报(自然科学版), 2014, 36(5): 72-77.

    Google Scholar

    [23] WU F Y, YANG K D, HU Y. Sparse Estimator with l0-Norm Constraint Kernel Maximum Correntropy Criterion[J], IEEE Transactions on Circuits and System-Ⅱ: Express Briefs, 2020, 67(2): 400-404. doi: 10.1109/TCSII.2019.2912578

    CrossRef Google Scholar

    [24] DAS R L. l0/l1 Regularized Conjugate Gradient Based Sparse Adaptive Algorithms[C]//2020 International Conference on Signal Processing and Communications (SPCOM). July 19-24, 2020. Bangalore, India. IEEE, 2020: 1-5.

    Google Scholar

    [25] LIU W F, PRINCIPE J C, HAYKIN S. Kernel Adaptive Filtering[M]. New Jersey: John Wiley & Sons Inc, 2010: 95-96.

    Google Scholar

  • 加载中
通讯作者: 陈斌, bchen63@163.com
  • 1. 

    沈阳化工大学材料科学与工程学院 沈阳 110142

  1. 本站搜索
  2. 百度学术搜索
  3. 万方数据库搜索
  4. CNKI搜索

Figures(4)  /  Tables(3)

Article Metrics

Article views(1805) PDF downloads(95) Cited by(0)

Access History

Other Articles By Authors

Generalized Recursive Kernel Risk-Sensitive Loss Algorithm Based on Sparse System Identification

    Corresponding author: WANG Shiyuan ; 

Abstract: The kernel risk-sensitive loss (KRSL) is widely used as the cost function of adaptive filters to reduce the influence of non-Gaussian noises on system performance owing to its high convexity. In this paper, a generalized kernel risk-sensitive loss (GKRSL) is proposed by using a generalized Gaussian density (GGD) function as the kernel of KRSL to improve the filtering accuracy of system in non-Gaussian noises. The important properties of GKRSL are presented for optimization. Furthermore, combined with the advantages of the GKRSL under the sparse penalty constrain, the recursive updating method is used to generate a novel generalized recursive kernel risk-sensitive loss with the sparse penalty constrain (GRKRSL-SPC) algorithm for identification of sparse systems. The superiorities of GRKRSL-SPC from the aspects of accuracy and robustness are verified by Monte Carlo simulations.

  • 开放科学(资源服务)标识码(OSID):

  • 自适应滤波是统计信号处理的重要组成部分,而稀疏自适应滤波是自适应滤波领域中不可或缺的部分,其显著特征是脉冲响应的大部分分量是零或者接近于零. 在实际场景中,存在大量的稀疏系统,例如数字电视传输通道[1]、回波路径[2]、信道估计[3]等. 由于稀疏系统通常是不确定的,因此需采用基于稀疏系统的自适应滤波算法对其进行辨识[4-5].

    应用在稀疏系统中的自适应滤波算法通常采用与稀疏性相关的范数作为稀疏惩罚约束项(Sparse Penalty Constraint,SPC)[6-7],如l1范数,lp范数和l0范数,其中基于l1范数的最小均方自适应滤波算法包括零吸引最小均方(Zero-attracting Least Mean Square,ZA-LMS)算法[8]和加权零吸引最小均方(Reweighted Zero-attracting Least Mean Square,RZA-LMS)算法[9]等,但是ZA-LMS和RZA-LMS的收敛速率较慢,因此,为了提高收敛速率提出了基于零吸引的递归最小二乘(Zero-attracting Recursive Least Squares,ZA-RLS)算法[10]. 通常由于l1范数存在零点处的非光滑性的缺点,会导致算法性能降低,因此,引入lp范数作为SPC提高稀疏系统的滤波精度,进而提出了基于平方根变步长lp范数的LMS算法[11],以变步长的形式分析了稀疏系统中稳态均方误差和收敛速率之间的关系. 通常最小任何lp范数(0<p<1)可等效为最小l0范数,但这是一个非凸优化问题,因此为了解决l0范数中的(Non-deterministic Polynomial,NP)难问题提出了相关熵诱导度量(Correntropy Induced Metric,CIM)用来近似l0范数[12],其典型应用是具有CIM的最大相关熵(Maximum Correntropy Criterion with CIM,CIMMCC)算法[13],CIMMCC算法能够提高非高斯环境下稀疏自适应滤波算法的鲁棒性.

    因为非高斯噪声在自然界中是普遍存在的,所以高斯噪声环境下的稀疏算法在非高斯噪声环境下会产生性能不稳定或退化等问题. 从信息理论学习(Information Theoretic Learning,ITL)[14]的观点出发,为解决非高斯噪声对算法性能的影响,提出了广义相关熵(Generalized Correntropic,GC)准则. GC准则本质上是定义在特征空间中相似性度量的一种方法,利用数据的高阶统计特性消除非高斯噪声,其在自适应滤波中最经典的应用是广义相关熵损失(Generalized Correntropic Loss,GC-Loss)算法[15]. 而在稀疏系统中,利用广义最大相关熵准则(Generalized Maximum Correntropy Criterion,GMCC),同时采用CIM作为稀疏惩罚约束项进而提出了具有稀疏惩罚约束的递归广义最大相关熵(Recursive Generalized Maximum Correntropy Criterion with Sparse Penalty Constraint,RGMCC-SPC)算法[16],该算法在CIMMCC算法基础上采用广义递归的更新方式提高了收敛速率和滤波精度. 为了进一步解决RGMCC-SPC算法中非零均值误差在零处误差识别精度较差的问题,提出了可变中心的RGMCC-SPC(Variable Center RGMCC-SPC,RGMCCVC-SPC)算法[17]. 然而由于GC-Loss的性能表面具有高度非凸的特性,导致算法的收敛性能较差. 为了解决这个问题,引入定义在特征空间的核风险敏感损失(Kernel Risk-Sensitive Loss,KRSL)函数[18],使其在非高斯噪声中的性能优于GC-Loss.

    启发于KRSL和GMCC,本文提出了一种新的应用在稀疏系统下的广义自适应滤波算法,该算法以广义高斯密度(Generalized Gaussian Density,GGD)[19]函数作为KRSL函数中的核函数,结合稀疏惩罚约束项,以递归的方式进行更新,进而为稀疏系统辨识设计出具有稀疏惩罚约束项的广义递归核风险敏感损失(Generalized Recursive Kernel Risk-Sensitive Loss with Sparse Penalty Constraint,GRKRSL-SPC)算法. 所提出的GRKRSL-SPC算法利用了特征空间中映射数据非二阶统计量的特征,以指数形式强调较大误差的相似性,使得算法在非高斯噪声环境下,能够同时具有强鲁棒性和高滤波精度的特性.

1.   背景介绍
  • 本节在核风险敏感损失函数和广义核风险敏感损失函数的基础上,提出了最小化广义核风险敏感损失函数准则.

  • 核风险敏感损失函数是指定义在核空间中两个随机变量XY的相似度测量,其表达式如下所示:

    其中λ>0是风险敏感参数,E表示期望符号,FXY(xy)表示关于随机变量XY的联合分布函数,kσ(·)是指带宽为σ的Mercer核. 其表达式为

    本质上,公式(1)表示核风险敏感损失函数的指数形式只包含二阶统计量,实际上,不同阶的统计量在实际应用中更为普遍. 因此,可以利用广义高斯密度函数作为核风险敏感损失函数的核函数并以此设计广义核风险敏感损失函数.

  • 给定如下具有零均值的广义高斯密度函数[19]

    其中,Γ(·)表示伽马函数,b>0是带宽,α>0是形状参数,β=1/bα表示核参数. 从公式(3)可以看出广义高斯密度具有普适性. 当α=1时,广义高斯密度为拉普拉斯分布;当α=2时,则为高斯分布;而当α→∞时,则为均匀分布. 根据文献[15],定义广义相关熵损失函数的表达式为

    结合公式(1)和公式(4),可得广义核风险敏感损失函数的表达式为

    其中,当0<α≤2时,Gαb(·)表示为Mercer核,所以在此范围内,广义核风险敏感损失函数可用传统风险敏感损失函数的类似形式重新表示为

    其中,Φ(·)表示的是将数据从原始空间转换到核空间H的非线性映射算子,‖·‖H是核空间中的范数. 通过比较式(4)和式(5)可知,式(5)可以看作是广义相关熵损失函数的指数形式. 当α=2时,核风险敏感损失函数是广义核风险损失函数的一个特例,所以,广义核风险损失函数具有普适性. 然而,因为FXY(xy)通常未知,所以式(5)和式(6)难以计算. 当有L个样本{x(i),y(i)}i=1L可用时,通过计算该L个样本的平均值来获得广义核风险损失函数的近似值,即

  • 根据式(5)和式(7),关于广义核风险敏感损失函数的重要性质如下:

    1) JG(XY)是对称、正定、有界的.

    2) JG(XY)是具有广义特性的损失函数,在特定情况下可以转换为核风险敏感损失函数、广义熵损失函数和均值P幂误差[20].

      当α=2时,广义核风险敏感损失函数退化为非广义的形式,风险敏感参数由λ转变为λ/γαb. 因为存在极限$ \mathop {{\rm{lim}}}\limits_{x \to {0^ + }} {\rm{exp}}\left( x \right) \to 1 + x$,当λ→0+β→0+时,JG(XY)可分别近似于1/λ+JGC(XY)和1/λ+βE[(X-Y)α],即意味着广义核风险敏感损失函数可近似于广义相关熵损失函数和均值P幂误差函数.

    3) 令e=X-Y=[e(1),e(2),…,e(L)]T,其中e(i)=x(i)-y(i),i=1,2,…,L. 当α>1且β>0时,在任意的|e(i)|≤[(α-1)/(αβ)]1/α$ {\hat J_G}\left( {X, {\rm{ }}Y} \right)$均具有凸性. 同样地,如果λ的取值超过某一值时,$ {\hat J_G}\left( {X, {\rm{ }}Y} \right)$在任意的非零e处也具有凸性. 然而,当β→0+时,在α∈(0,1]情况下,$ {\hat J_G}\left( {X, {\rm{ }}Y} \right)$对任意e都是凹面,而当α>1,$ {\hat J_G}\left( {X, {\rm{ }}Y} \right)$对任意e都是凸面.

      黑塞矩阵如下:

    其中,hi=ξi((α-1)-αβ|e(i)|α)+αβλexp(-β|e(i)|α)|e(i)|α),ξi= $ \frac{{\alpha \beta {\gamma _{\alpha \beta }}}}{L}|e\left( i \right){|^{\alpha - 2}}$×exp(-β|e(i)|α)×exp(γαβ(1-exp(-β|e(i)|α))). 当α>1且β>0,有hi>0;继而对任意e,当|e(i)|≤[(α-1)/(αβ)]1/α,有$ {\mathit{\boldsymbol{H}}_{\hat J}}\left( {{\rm{ }}\mathit{\boldsymbol{e}}{\rm{ }}} \right) \ge 0$.

    性质(3)阐述了$ {\hat J_G}\left( {X, {\rm{ }}Y} \right)$的凸性是由参数αβλe决定的. 风险敏感参数λ控制核风险敏感损失函数的凸范围,λ取值越大,凸范围就越大,通常选择合适β可保证核风险敏感损失函数的凸性. 因此根据$ {\hat J_G}\left( {X, {\rm{ }}Y} \right)$的凸性,核风险敏感损失函数更加适合设计自适应滤波器.

  • 给定一个数学模型,如下所示:

    其中,d(i)表示第i时刻的期望输出,Ωo=[Ωo0,Ωo1,…,ΩoL-1]TRL×1表示未知系统的最优权重,X(i)=[x(i),x(i-1),…,x(i-L+1)]TRL×1是输入信号,ν(i)则代表噪声. 采用Ω表示权重的估计值,基于公式(7),可得如下广义核风险敏感损失函数准则[21]

    通过最小化公式(10)可以获得广义核风险敏感损失函数的最优解,称之为最小化广义核风险敏感损失函数准则,其表达式如下:

    其中,$ {\bf{R}}_{{\bf{XX}}}^g = \sum\limits_{i = 1}^L {} g\left( {e\left( i \right)} \right){\rm{ }}\mathit{\boldsymbol{X}}{\rm{ }}\left( i \right){\rm{ }}\mathit{\boldsymbol{X}}{\rm{ }}{\left( i \right)^{\rm{T}}}$是输入信号的加权自相关矩阵;$ {\bf{R}}_{d{\bf{X}}}^g = \sum\limits_{i = 1}^L {} g\left( {e\left( i \right)} \right)d\left( i \right){\rm{ }}\mathit{\boldsymbol{X}}{\rm{ }}\left( i \right)$是期望输出与输入信号之间的加权互相关向量,这里g(e(i))=exp(λ(1-exp(-β|e(i)|α)))exp(-β|e(i)|α)|e(i)|α-2.

    最后,图 1显示了不同α下对广义核风险敏感损失函数曲线平滑度的影响. 从图中可以看出:当误差较小且α值越大时表面越光滑,表明广义核风险敏感损失函数的精度高于非广义形式.

2.   算法
  • 这一小节主要介绍近似l0范数的稀疏惩罚约束项. 实际上,在寻找最优稀疏项时需要最小化l0范数,而这是一个NP难问题. 通常采用近似l0范数的方法来解决,一种是将其转化为无约束的l1范数正则化问题,可获得近似l0范数的解,但代价是增加采样过程中的测量次数[22];另一种则是采用CIM来近似l0范数,减少了测量中的计算消耗[12],其表达式如下:

    其中,σ是核宽. 此外,存在其他近似l0范数的稀疏惩罚约束项为‖Ω‖0$ \sum\limits_{i = 0}^{L - 1} {} (1 - {e^{ - \beta |{\Omega _i}|}})$[23-24],该方法与CIM之间最显著的区别是指数部分是否为二阶统计量. CIM是具有二阶统计特性,其指数部分权向量能够保证整个函数具有凸性. 基于公平性原则,本文选择了与比较算法相同稀疏惩罚约束项的CIM. 另外,h(i)梯度的向量形式如下:

  • 定义如下带有稀疏惩罚约束项的广义核风险敏感损失函数为成本函数:

    其中,μ表示遗忘因子,ρh(i)代表稀疏惩罚约束项,ρ>0是控制权重向量的稀疏惩罚约束程度的正则化参数. 采用梯度下降法最小化该成本函数,可得:

    其中,

    令公式(15)的梯度等于0可得权重Ω的解为

    根据公式(16),定义Υ(i)和Θ(i)为

    根据公式(17)将公式(16)改写为矩阵形式,其权向量可以表示为

    Θ(i)通过递归形式进行更新可得:

    为了避免计算矩阵的逆运算,根据矩阵求逆引理[25]:(A+BCD)-1=A-1-A-1B(C-1+DA-1B)-1DA-1.

    在公式(19)中令A=μΘ(i-1),B=X(i),C=M(i),D=XT(i),可得:

    其中,G(i)= $ \frac{{\mathit{\boldsymbol{ \boldsymbol{\varTheta} }}{\mathit{\boldsymbol{}}^{ - 1}}\left( {i - 1} \right){\rm{ }}\mathit{\boldsymbol{X}}{\rm{ }}\left( i \right)}}{{\mu + M\left( i \right){\rm{ }}\mathit{\boldsymbol{X}}{^{\rm{T}}}\left( i \right){\rm{ }}\mathit{\boldsymbol{ \boldsymbol{\varTheta} }}{^{ - 1}}\left( {i - 1} \right){\rm{ }}\mathit{\boldsymbol{X}}{\rm{ }}\left( i \right)}}{\rm{ }}$为卡尔曼增益. 令P(i)=Θ-1(i),公式(20)则可重新表示为

    所以

    采用同样的方法可以得到下列表达式:

    将公式(22)两端同时减去ρh′(i),可得:

    当迭代至算法性能稳定时,权向量几乎无变化. 即当i→∞时,有h′(i-1)≈h′(i). 所以公式(23)成立.

    将公式(21)和(23)代入公式(18)可得权重向量更新式为

    最后,根据上述的推导过程,总结GRKRSL-SPC算法如表 1所示.

  • 本节分析GRKRSL-SPC算法的计算复杂度,这里考虑每次迭代过程中的加法、除法以及乘法次数. 以α=4为例,各种算法的计算复杂度比较如表 2所示,其中,D表示输入数据的长度,比较算法为基于稀疏惩罚约束的递归广义最大相关熵(Recursive Generalized Maximum Correntropy Criterion with SPC,RGMCC-SPC)算法[16]和基于稀疏惩罚约束的递归广义最大相关熵变中心(Recursive Generalized Maximum Correntropy Criterion with Variable Center under Sparsity Constrained,RGMCCVC-SPC)算法[17]. 从表 2中可知,3种算法具有相同的除法次数,而在乘法和加法运算上,GRKRSL-SPC算法的计算量小于RGMCCVC-SPC算法,但高于RGMCC-SPC算法.

3.   仿真结果和分析
  • 本节将采用蒙特卡洛仿真验证提出的GRKRSL-SPC算法在稀疏系统辨识下的有效性. 未知的稀疏系统中的结构如图 2所示,其中最优权重表示为Ωo=[Ωo0,Ωo1,…,ΩoL-1]TRL×1的列向量,输入信号为X(i)=[x(i),x(i-1),…,x(i-L+1)]TRL×1的列向量,x(i)表示为第i时刻输入的第一个值,x(i-L+1)则为第i时刻的第L个值,Z-1表示系统的单位延迟. 首先假定自适应滤波器的权重向量是由16个抽头随机产生,将第5个值设置为1,其他值均设置为0,可得稀疏度为1/16,表述为Ωo=[0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0]T[10]. 其次,设置滤波器的长度为30,系统稀疏度为5/30[16]. 假定自适应滤波器的初始权重向量是零向量,输入信号为单位方差的零均值高斯序列. 噪声模型为:υ(i)=(1-b(i))υ1(i)+b(i)υ2(i),其中υ1(i)是常见的噪声,υ2(i)为较大方差的脉冲噪声,表示大的离群值;b(i)是由伯努利随机过程引起的发生概率,其中概率分布为Pr{b(i)=1}=cPr{b(i)=0}=1-c,0≤c≤1,仿真中选择c=0.01. υ2(i)是方差为9均值为0的高斯序列. υ1(i)考虑两种噪声分布:①在{1,-1}范围内的二进制分布,其概率分布为Pr{x=1}=Pr{x=-1}=0.5. ② 2sin(ω)的正弦波,ω满足[0,2π]的均匀分布. 所有仿真结果是在上述混合噪声环境下执行200次蒙特卡洛获得的. 计算机软硬件配置分别为Windows10和Intel(R) Core(TM) i7-8700 CPU 3.20GHz,RAM 8.0G.

    在进行实验仿真过程中,为了确保算法比较的公平性,选择在非高斯噪声环境下具有鲁棒性且采用递归更新方式的RGMCC-SPC[16]和RGMCCVC-SPC算法[17]作为比较算法,当RGMCCVC-SPC算法的变中心变为0时退化为RGMCC-SPC算法,设置比较算法的参数使得所有算法具有一致的收敛速率. 为了进一步定量评价滤波精度,定义稳态均方偏差(Mean Square Deviation,MSD)如下,用MMSD表示:

    其中,$ {\bf{\tilde \Omega }}$(i)=Ωo-Ω(i),Ωo为稀疏系统辨识中的最优权重,Ω(i)则是其第i时刻的权重估计值.

    图 3显示了GRKRSL-SPC算法在二进制噪声下的学习曲线和所有算法的参数设置,其中,图 3(a)图 3(b)的稀疏度分别为1/16,5/30. 从图 3中可知3个算法在保持几乎一致的收敛速率下,GRKRSL-SPC算法的滤波精度显著高于RGMCC-SPC和RGMCCVC-SPC算法,尤其当α=4和α=6时,表现更明显. 同样地,在稀疏度为1/16和5/30的正弦噪声环境下,GRKRSL-SPC算法提高了稀疏系统辩识中的精度,并且α=4和α=6的滤波性能优于α=2的性能,仿真结果如图 4所示.

    表 3显示了在两种稀疏度以及两种噪声环境下算法的消耗时间.

    表 3中可以得出:不论是在二进制噪声还是正弦噪声环境中,GRKRSL-SPC算法比RGMCCVC-SPC算法消耗更少的时间,比RGMCC-SPC算法消耗更多的时间,此结论与表 2中计算复杂度结果相一致. 总而言之,从稳态均方偏差和计算复杂度两方面而言,GRKRSL-SPC算法性能优于RGMCCVC-SPC算法和RGMCC-SPC算法.

4.   结论
  • 本文利用广义高斯密度(GGD)函数作为核函数,提出了一种定义在核空间的非线性相似度量方法,即广义核风险敏感损失函数(GRKRSL). 进一步结合递归更新方式提出了应用在稀疏系统模型中的基于稀疏惩罚约束的广义核递归风险敏感(GRKRSL-SPC)算法. 从计算复杂度和滤波精度两个方面去验证了GRKRSL-SPC算法在非高斯噪声环境中的有效性和滤波精度. GRKRSL-SPC算法在保持与RGMCC-SPC和RGMCCVC-SPC算法相同计算复杂度的前提下,提高了稀疏系统的滤波性能,尤其是当α=4和α=6时滤波精度明显提高. 蒙特卡洛仿真结果验证了GRKRSL-SPC算法对稀疏系统识别精度优于其他的鲁棒稀疏自适应滤波算法.

Figure (4)  Table (3) Reference (25)

Catalog

    /

    DownLoad:  Full-Size Img  PowerPoint
    Return
    Return