Message Board

Dear readers, authors and reviewers,you can add a message on this page. We will reply to you as soon as possible!

2020 Volume 45 Issue 7
Article Contents

Yong LI, He-fei LIU, Kun WANG, et al. Bayesian Model Selection of Number of Unknown Hidden States in Hidden Markov Multiple Linear Regression Model[J]. Journal of Southwest China Normal University(Natural Science Edition), 2020, 45(7): 11-17. doi: 10.13718/j.cnki.xsxb.2020.07.002
Citation: Yong LI, He-fei LIU, Kun WANG, et al. Bayesian Model Selection of Number of Unknown Hidden States in Hidden Markov Multiple Linear Regression Model[J]. Journal of Southwest China Normal University(Natural Science Edition), 2020, 45(7): 11-17. doi: 10.13718/j.cnki.xsxb.2020.07.002

Bayesian Model Selection of Number of Unknown Hidden States in Hidden Markov Multiple Linear Regression Model

More Information
  • Corresponding author: He-fei LIU ; 
  • Received Date: 09/06/2018
    Available Online: 20/07/2020
  • MSC: O212

  • When the hidden Markov model is used in the MCMC iteration, the implicit state vector is constantly changed. To solve this problem, first, the Bayesian method is used to study the Hidden Markov Multiple Linear Regression Model with unknown number of hidden states, and the DIC calculation method is improved. Secondly, MCMC algorithm is used to simulate the model and calculate the DIC value of the model. Finally, the purpose of Bayesian model selection is achieved by comparing the DIC values of different hidden state number models.
  • 加载中
  • [1] 李勇, 刘鹤飞.隐状态个数未知的隐马尔可夫0-1分布的贝叶斯推断[J].统计与决策, 2018(20): 22-25.

    Google Scholar

    [2] ROBERT C P, CELEUX G, DIEBOLT J. Bayesian Estimation of Hidden Markov Chains: a Stochastic Implementation [J]. Statistics & Probability Letters, 1993, 16(1): 77-83.

    Google Scholar

    [3] JAMES P H, PETER G. A Class of Stochastic Models for Relating Synoptic Atmospheric Patterns to Regional Hydrologic Phenomena [J]. Water Resources Research, 1994, 30(5): 1535-1546.

    Google Scholar

    [4] 谢治军, 杨武, 李稚楹, 等.基于HMM的主题爬虫研究[J].重庆工商大学学报(自然科学版), 2012, 29(2): 66-72.

    Google Scholar

    [5] 林已杰, 赖清, 周敏.基于BP神经网络和马尔科夫模型的服务器软件老化预测方法[J].西南师范大学学报(自然科学版), 2011, 36(4): 193-197.

    Google Scholar

    [6] SONG X Y, XIA Y M, ZHU H T. Hidden Markov Latent Variable Models with Multivariate Longitudinal Data [J]. Biometrics, 2017, 73(1): 313-323.

    Google Scholar

    [7] SONG X Y, KANG K, OUYANG M, et al. Bayesian Analysis of Semiparametric Hidden Markov Models with Latent Variables [J]. Structural Equation Modeling: A Multidisciplinary Journal, 2017, 25(1): 1-20.

    Google Scholar

    [8] 刘鹤飞, 王坤, 蒋成飞.隐状态个数未知的隐马尔可夫多元正态分布的贝叶斯推断[J].统计研究, 2017, 34(12): 119-125.

    Google Scholar

    [9] 王坤, 刘鹤飞, 蒋成飞.隐马尔可夫结构方程模型及其贝叶斯估计[J].数理统计与管理, 2018, 37(2): 272-279.

    Google Scholar

    [10] 赵凯, 李玮瑶, 孙挺.基于贝叶斯测距和迭代最小二乘RSS的定位算法[J].西南师范大学学报(自然科学版), 2015, 40(9): 23-29.

    Google Scholar

    [11] ROBERT C P, TITTERINGTON D M. Resampling Schemes for Hidden Markov Models and Their Application for Maximum Likelihood Estimation [J]. Statistical Computation, 1998(8): 145-158.

    Google Scholar

    [12] SEBER G A, LEE A J. Linear Regression Analysis [M]. London: John Wiley and Sons, 2012: 35-42.

    Google Scholar

    [13] GEMAN S, GEMAN D. Stochastic Relaxation, Gibbs Distributions, and the Bayesian Restoration of Images [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1984, 6(6): 721-741.

    Google Scholar

    [14] METROPOLIS N, ROSENBLUTH A W, ROSENBLUTH Marshall N, etal. Equation of State Calculations by Fast Computing Machines [J]. Journal of Chemical Physics, 1953, 21(6): 1087-1092. doi: 10.1063/1.1699114

    CrossRef Google Scholar

    [15] 何朝兵, 刘跃军, 刘华文.左截断右删失数据下指数分布参数多变点的贝叶斯估计[J].西南师范大学学报(自然科学版), 2015, 40(1): 12-17.

    Google Scholar

    [16] LEE S Y, SONG X Y. Bayesian Model Selection for Mixtures of Structural Equation Models with an Unknown Number of Components [J]. British Journal of Mathematical and Statistical Psychology, 2003, 56(1): 145-165.

    Google Scholar

    [17] RICHARDSON S, GREEN P J. On Bayesian Analysis of Mixtures with an Unknown Number of Components (with Discussion) [J]. Journal of the Royal Statistical Society: Series B (Statistical Methodology), 1997, 59(4): 731-792.

    Google Scholar

    [18] CAI J H, SONG X Y, HSER Y I. A Bayesian Analysis of Mixture Structural Equation Models with Non-Ignorable Missing Responses and Covariates [J]. Statistics in Medicine, 2010, 29(18): 1861-1874.

    Google Scholar

    [19] 刘鹤飞.隐马尔可夫多元线性回归模型及其贝叶斯估计[J].统计与决策, 2019, 23(6): 21-24.

    Google Scholar

  • 加载中
通讯作者: 陈斌, bchen63@163.com
  • 1. 

    沈阳化工大学材料科学与工程学院 沈阳 110142

  1. 本站搜索
  2. 百度学术搜索
  3. 万方数据库搜索
  4. CNKI搜索

Tables(2)

Article Metrics

Article views(1604) PDF downloads(5) Cited by(0)

Access History

Other Articles By Authors

Bayesian Model Selection of Number of Unknown Hidden States in Hidden Markov Multiple Linear Regression Model

    Corresponding author: He-fei LIU ; 

Abstract: When the hidden Markov model is used in the MCMC iteration, the implicit state vector is constantly changed. To solve this problem, first, the Bayesian method is used to study the Hidden Markov Multiple Linear Regression Model with unknown number of hidden states, and the DIC calculation method is improved. Secondly, MCMC algorithm is used to simulate the model and calculate the DIC value of the model. Finally, the purpose of Bayesian model selection is achieved by comparing the DIC values of different hidden state number models.

  • 隐马尔科夫模型是一种基于随机过程的概率统计模型, 其包含状态转移序列和观测变量序列两个随机过程序列, 其中, 状态转移序列是一条单纯的马尔科夫链, 观测变量序列是与状态对应的序列.实际应用中, 只能获得观测变量序列的集合信息, 而无法获得状态序列的集合信息, 即模型的状态信息隐藏在观测变量的信息中, 因此, 将该模型称之为“隐”马尔科夫模型[1].对隐马尔科夫模型进行研究的目的是根据可观测变量的信息, 对不可观测的状态转移信息和每个状态下的分布信息进行推断.

    近年来, 隐马尔科夫模型在人工智能、生物医学、经济管理等众多学科领域取得了良好的应用效果, 引起了国内外学者的广泛关注[2-9].隐马尔科夫模型在实际生产生活中的广泛应用, 也使得其成为近年来统计学领域中的一个研究热点.

    因此, 对隐状态个数未知时的隐马尔科夫多元线性回归模型的研究具有重要的理论意义和实际应用价值.本文在隐马尔科夫模型已有研究成果的基础上, 进一步研究隐马尔科夫多元线性回归模型.

1.   隐马尔科夫多元线性回归模型
  • 假设向量Dt=(yt, xt1, xt2, …, xtr)T是模型在第t个时刻的观测向量, 其中:yt是第t个时刻的因变量; xt1, xt2, …, xtr是在第t个时刻的r个自变量; t为观测时间点, t=1, 2, …, T.记Zt是第t个观测时间点的隐状态, 其可能的取值为{1, 2, …, K}, 称之为K个隐状态的隐马尔科夫模型.

    隐状态转移过程满足的马尔科夫链条件如(1)式:

    其中:u=1, 2, …, K, s=1, 2, …, K, t=2, 3, …, T; aus表示从前一个观测时间点的隐状态u向后一个观测时间点的隐状态s转移的概率.所有可能的隐状态转移概率构成的矩阵称之为隐状态转移概率矩阵:

    在隐状态给定的条件下, 自变量与因变量之间的多元线性回归模型表示如下:

    其中:β为r维回归系数向量, εk为模型误差且[εk|Zt=k]~N(0, σk2).

2.   贝叶斯推断
  • 在贝叶斯理论体系中, 每个参数都是一个随机变量, 为每个参数选择先验分布, 是进行贝叶斯推断的前提[10].文献[11]等对隐马尔科夫正态分布进行研究时, 运用对称的狄尼克莱分布作为状态转移概率矩阵中每一行的先验分布.文献[12]等对线性回归模型参数进行贝叶斯估计时, 运用多元正态分布和倒伽玛分布作为模型中参数的先验分布.本文参考已有文献中的研究经验, 选择(4)式为隐马尔科夫多元线性回归模型中相关参数的先验分布.

    其中:Ak为转移概率矩阵的第k行, Diri为狄尼克莱分布, α表示狄尼克莱分布中的超参数; μokΛok为多元正态分布中的超参数, Inv-Gamma为倒伽玛分布, υoksok2为倒伽玛分布中的超参数.

  • 将模型中的隐状态转移概率矩阵记为A, 多元线性回归模型中的参数(βk, σk2)记为θk, (θ1, θ2, …, θk)记为θ, 隐状态向量记为Z.在隐状态个数固定的情况下, 模型中的贝叶斯参数估计问题可以表示为P(Z, A, θ|D), 其中D=(Y, X).

    由于P(Z, A, θ|D)的复杂性, 无法直接从中推导出每个参数的边际后验分布.因此, 本文选择使用MCMC算法来模拟该分布, 使用收敛之后的后验均值作为每个参数的贝叶斯估计. MCMC算法迭代的具体步骤如下:

    ① 抽样, 对隐状态Z进行更新;

    ② 抽样, 对隐状态转移概率矩阵A进行更新;

    ③ 抽样, 对线性回归模型中参数θ进行更新.

    其中, 参数θ的抽样更新可进一步划分为:

    ① 抽样, 对误差正态分布的方差σk2进行更新;

    ② 抽样, 对多元线性回归系数βk进行更新.

    每一步参数的抽样更新, 都是借助于Gibbs抽样[13]和MH算法[14]从参数的全条件后验分布中取样[15].

    在混合模型的研究中, 模型识别是一个非常重要的问题, 隐马尔科夫模型的研究也同样存在这个问题.因为如果不处理好模型识别问题, 进行MCMC算法迭代处理时, 不同隐状态下的参数有可能发生混淆, 这样计算出的后验均值就没有意义了.目前最常见的解决模型识别问题的方法是交换抽样技术[16], 但是也有很多研究通过对模型中的某个特定参数进行限制来解决这个问题[17].本文的研究中, 采用比较第一个自变量的回归系数大小的方法, 即β11 < β21 < … < βK1来解决标签转换问题.暂不考虑第一个自变量的回归系数有相同取值的情况.实际应用中如需考虑该情况, 可以参考文献[18]使用的方法.

  • 贝叶斯后验推断的任务是运用样本的观测信息和参数的先验信息推断参数的后验信息.隐马尔科夫模型在隐状态个数确定的情况下, 后验推断为P(Z, A, θ|D), 也即根据观测变量集合和模型参数的先验分布去推断模型的隐状态、隐状态转移概率矩阵、多元线性回归模型的参数.其中, 转移概率矩阵A、多元线性回归模型的系数β是隐马尔科夫多元线性回归模型中的参数, 是需要进行估计的对象.然而由于P(Z, A, θ|D)后验分布的复杂性, 无法直接从中推导出每个参数的边际后验分布, 因此本文选择使用MCMC算法对该后验分布进行模拟, 运用Gibbs抽样、MH算法从每个参数的全条件后验分布中抽样.

    隐状态向量Z中每一个隐状态Zt=k的全条件后验分布如下:

    其中f(Dt|θk)是观测变量在隐状态k下的似然函数.

    由于隐状态转移概率矩阵只与隐状态的取值有关, 即P(Ak|Z, θ, D)=P(Ak|Z), 所以隐状态转移概率矩阵第k行的全条件后验分布如下:

    其中nkj(j=1, 2, …K)是前一个时间点隐状态为k且后一个时间点隐状态为j的转移个数.

    下面推导在隐状态确定的条件下, 多元线性回归模型参数(βk, σk2)的全条件后验分布.记所有隐状态为k的观测数据集合为Dk、因变量集合为Yk、自变量集合为Xk, 且记$ {{\mathit{\boldsymbol{\tilde \beta }}}_k} = {\left( {\mathit{\boldsymbol{X}}_k^{\rm{T}} \cdot {\mathit{\boldsymbol{X}}_k}} \right)^{ - 1}}\mathit{\boldsymbol{X}}_k^{\rm{T}} \cdot {\mathit{\boldsymbol{Y}}_k}$, 则

    Yk的似然函数可以表示为

    其中:${v_k}s_k^2 = {\left( {{\mathit{\boldsymbol{Y}}_k} - {\mathit{\boldsymbol{X}}_k}{{\mathit{\boldsymbol{\tilde \beta }}}_k}} \right)^{\rm{T}}}\left( {{\mathit{\boldsymbol{Y}}_k} - {\mathit{\boldsymbol{X}}_k}{{\mathit{\boldsymbol{\tilde \beta }}}_k}} \right) $vk=nkr, nk为隐状态k的观测样本数, r为自变量个数.根据条件概率计算公式可得:

    ${\mathit{\boldsymbol{\mu }}_n} = {\left( {\mathit{\boldsymbol{X}}_k^{\rm{T}}{\mathit{\boldsymbol{X}}_k} + {\mathit{\boldsymbol{ \boldsymbol{\varLambda} }}_{ok}}} \right)^{ - 1}}\left( {\mathit{\boldsymbol{X}}_k^{\rm{T}}{\mathit{\boldsymbol{X}}_k}{{\mathit{\boldsymbol{\tilde \beta }}}_k} + {\mathit{\boldsymbol{ \boldsymbol{\varLambda} }}_{ok}}{\mathit{\boldsymbol{\mu }}_{ok}}} \right) $, 则

    由此, 可将参数(βk, σk2)的后验分布看成一个多元正态分布和一个倒伽玛分布的乘积, 具体形式为:

    为简化表达, 可将该后验分布如下表示:

    则参数βkσk2的后验分布为N[μn, σk2Λn-1], Inv-Gamma[an, bn], 即参数为μnσk2Λn-1的多元正态分布和参数为anbn的倒伽玛分布, 其中

  • 除了模型的参数估计外, 模型选择也是统计分析的一个重要部分.在贝叶斯理论中, 常用的模型选择方法主要是贝叶斯因子和各种信息准则, 如AIC, BIC, DIC等.本文利用经典的DIC信息准则对隐马尔科夫多元线性回归模型中未知的隐状态个数进行模型选择.

    由于DICk=D(θk)+dk, 其中

    DICk=-4Eθk[logP(Y|θk, Mk)|Y]+2logP(Y|${{\mathit{\boldsymbol{\tilde \theta }}}_k} $).

    本文比较的是隐状态个数不同的各个模型, 因此将m个隐状态的模型记为Mm, 则观测变量在备选模型下的对数似然函数为

    其中

    在MCMC迭代的过程中, Eθk, Mm[logP(Y|θm, Mm)|M0]的具体计算方法为

    其中J是MCMC迭代中计算后验均值的次数.

    然而, 对于隐马尔科夫模型来说, 计算DIC的困难之处在于计算logP(Y|${{\mathit{\boldsymbol{\tilde \theta }}}_k} $).因为MCMC算法的执行过程中, 每次迭代时都会对每个观测向量D=(Y, X)重新分配隐状态, 因此, 单纯用每个参数的后验均值来计算logP(Y|${{\mathit{\boldsymbol{\tilde \theta }}}_k} $)进而计算该备选模型的DIC是没有意义的.这也是利用DIC对隐马尔科夫模型进行模型选择的困难之处.文献[19]在利用DIC信息准则对混合结构方程模型中未知的混合个数进行贝叶斯模型选择时, 在MCMC迭代的每一步, 对参数采取重复抽样取均值的方法来计算logP(Y|${{\mathit{\boldsymbol{\tilde \theta }}}_k} $), 其具体方法为:在第j次MCMC迭代时, 对参数θk抽样L次, 计算参数θk的均值, 并用该均值作为${{\mathit{\boldsymbol{\tilde \theta }}}^{\left( j \right)}} $代入计算logP(Y|${{\mathit{\boldsymbol{\tilde \theta }}}^{\left( j \right)}} $), 即

    于是, 第m个备选模型的DIC

3.   实证模拟
  • 为了检验本文所介绍的隐马尔科夫多元线性回归模型的贝叶斯参数估计和模型选择的效果, 将事先给定模型中的隐状态个数K, 隐状态转移概率矩阵A和每个隐状态下多元线性回归模型的参数θk.首先根据转移概率矩阵A生成一个隐状态序列, 再依据每个观测时间点的隐状态取值与对应于每个隐状态的多元线性回归模型参数的取值, 生成每一个观测时间点的观测向量.然后利用本文所介绍的方法, 结合观测向量集合, 对待定的隐状态个数进行贝叶斯模型选择, 并对固定隐状态个数下模型中的参数进行贝叶斯估计[20].最后再将模型选择与参数估计的结果同真实模型进行比较, 检验该方法的可靠性.

    设隐状态个数取值K=3, 则隐状态的概率转移矩阵为如下三阶方阵

    假设每个隐状态下的多元线性回归模型都有如下3个自变量:

    其中:ε1N(0, 0.52), ε2N(0, 0.42), ε3N(0, 0.32).

    实证模拟中, 取观测时间点的总数t=500, 则生成的观测变量集合是一个4×500的二维数组.先验分布中超参数α, μok, Λok的取值分别为α=1, μok=(0, 0, 0)T, Λok=I3, 其中:I3表示三阶单位矩阵; vok=8, sok2=2.5.所有的超参数中k=1, 2, …, K, 其中K是隐状态的个数.

    运用MCMC算法进行后验迭代模拟时, 总迭代次数为5 000次, 去掉前3 000次的迭代结果, 使用后2 000次结果的后验均值作为参数的估计值, 则在模型选择中, j=2 000.此外, 在利用DIC进行模型选择时, 取L=5.隐状态个数不同的各个模型下的DIC计算结果如表 1所示.

    根据表 1中隐状态个数不同的各个模型的DIC计算结果可以发现, M3DIC值最小, 所以选择隐状态个数为3的隐马尔科夫多元线性回归模型.在3个隐状态个数下, 模型中各参数的贝叶斯估计结果如表 2所示, 表明本文的贝叶斯推断方法是有效可靠的.

4.   结束语
  • 本文对隐状态个数未知时的隐马尔科夫多元线性回归模型的贝叶斯推断进行了研究.首先, 运用了偏差信息准则对未知的隐状态个数进行了贝叶斯模型选择; 然后, 运用马尔科夫链蒙特卡洛算法对模型中的未知参数进行贝叶斯估计; 最后, 按照所定义的模型生成了观测向量集合, 并用实证模拟证明了文章所介绍的贝叶斯参数估计和模型选择的方法是可靠的.在进行贝叶斯模型选择时, 本文使用的是经典的DIC信息准则, 今后还将尝试使用贝叶斯因子、赤池信息量准则(AIC)、贝叶斯信息准则(BIC)等方法来对隐马尔科夫多元线性回归模型的隐状态个数进行模型选择.此外, 本文研究的是隐马尔科夫多元线性回归模型, 今后也可以研究更复杂的模型, 比如, 隐马尔科夫半参数回归模型、隐马尔科夫分位数回归模型等.

Table (2) Reference (19)

Catalog

    /

    DownLoad:  Full-Size Img  PowerPoint
    Return
    Return