第二章 线性回归模型回顾与拓展 (12-15学时)
第四节 三大检验(LR Wald LM) 一、极大似然估计法(ML)
(一)极大似然原理
假设对于给定样本Y,X,其联合概率分布存在,fY,X;。将该联合概率密度函数视为未知参数的函数,则fY,X;称为似然函数(Likelihood Function)。极大似然原理就是寻找未知参数的估计ˆ,使得似然函数达到最大,或者说寻找使得样本Y,X出现的概率最大ˆ。
(二)条件似然函数VS无条件似然函数
fY,X;fYX;fX;
若与没有关系,则最大化无条件似然函数fY,X;等价于分别最大化条件似然函数fYX;和边际似然函数fX;,从而的最大似然估计就是最大化条件似然函数fYX;。
(三)线性回归模型最大似然估计
YXu,uN(0,2I)
n2 L(Y,X;,)(2)exp{对数似然函数:
22(YX)(YX)}
22nn(YX)(YX)lLnLLn2Ln2
22221lˆ)02(2XY2XX于是 ˆˆ2ln1(YXˆ)(YXˆ)0224ˆˆˆ221 / 25
最大似然估计及三大检验(Wald-LM-LR)资料
ˆ(XX)1XYML 得到 2 1ˆMLeen(三)得分(Score)和信息矩阵(Information Matrix)
lf(;Y,X)称为得分; l1l2l(Gradient) .得分向量;
..lk2l海瑟矩阵(Hessian Matrix):H
信息矩阵:
三*、带约束条件的最小二乘估计(拉格朗日估计)
在计量经济分析中,通常是通过样本信息对未知参数进行估计。但有些时候可能会遇到非样本信息——对未知参数的约束限制(如生产函数中的规模报酬不变等)。在这种情况下,我们就可以采用拉格朗日估计法。 对于线性模型(1),若其参数具有某种线性等式约束: H0 (6)
其中H是mk矩阵(mk,rank(H)m)。可视为除分量0以外的k1矩阵。上式表明未知参数1,2,,k之间的某些线性关系的信息。
ˆ。 现在的问题是寻求满足上式又使(YX)(YX)达到最小的估计量H02 / 25
最大似然估计及三大检验(Wald-LM-LR)资料
为此,构造拉格朗日函数。(是m1的向量)
L(YX)(YX)H (7)
LˆHˆ0 (8) 2XY2XXHHˆH于是
Lˆ0 (9) HHˆHˆˆ1(XX)1Hˆ (10) 由(8)可得HH2ˆ是OLS的估计量。两边再左乘H,并结合(9)式有 (10)式的ˆHˆ1H(XX)1Hˆ 0HHH2ˆ2[H(Xˆ 所以,X)1H]1HH代入(10)式,我们便得到估计量:
ˆˆ(XX)1H[H(Xˆ (11) X)1H]1HH这就是拉格朗日估计,或称为带约束的最小二乘估计。它既利用了样本信息,
ˆ也是带约束的极大似然估计量(证明从略)也利用了非样本信息。另外,。 H
四、广义最小二乘估计(GLS) 1、数理过程
在实际经济问题的分析过程中,常常遇到古典假定中2的不满足,即随机扰动项存在异方差或自相关。比如利用截面数据进行分析时,随机因素的方差会随着解释变量的增大而增大(即所谓的递增异方差——如在研究消费收入的关系时,随着收入的增加,随机因素的变化会增大)。而利用时间序列数据进行分析时,由于经济变量的惯性作用,随机扰动项之间也会有联系,较为普遍的现象是
3 / 25
最大似然估计及三大检验(Wald-LM-LR)资料
扰动项的一阶自相关。(即utut1t)
当存在异方差或自相关的情况下,传统的OLS不再是有效估计,这时,我们应采用广义最小二乘法来解决这类问题。具体地,
Euu'2 (12)
212wn 时ut存在异方差, 2n2w1其中11 12n11n1n21 时ut存在一阶自相关。
n2需要说明的是,无论是异方差还是自相关,矩阵是正定矩阵。于是,存在非奇异矩阵P,使得
PP 或 P(P)1I
在模型 YXu 两边同时左乘P1,得 P1YP1XP1u
或写成Y*X*u* (13) 此时,Eu*u*'E[P1uu'(P)1]P12(P)12I 即u*已无异方差和自相关。 那么,对(13)式运用OLS可以得到
ˆ(X*X*)1X*Y*(X(P1)P1X)1X(P1)P1Y(X1X)1X1Y (14) 4 / 25
最大似然估计及三大检验(Wald-LM-LR)资料
这就是未知参数的广义最小二乘估计量GLS。它同样具有良好的统计性质。
ˆ,Varˆ2(X1X)1)的估计量。换即它是无偏的、一致的、渐近正态(E句话说,GLS估计量是广义模型中的最小方差线性无偏估计。这就是所谓的
Aitken定理,当I时高斯—马尔科夫定理为其特例。 2、WLS和广义差分法
广义最小二乘法是处理异方差和自相关问题的一般良好估计方法。
2i当已知时,比如异方差时,各个wi2已知,此时,矩阵P
w1P1w11 ,Pw2 1w2Y1X1u1w1w1w1*1*1*1YPY,XPX,uPu。
YXunnnwwwnnn这时由(13)式估计出来的,其实同加权最小二乘估计(WLS)是相同的。换句话说,加权最小二乘实际上是广义最小二乘的特例。再比如随机扰动项
11有一阶自相关且已知,此时12n112P1000100010000000
11n1n21PP,可以算得
n2那么(13)式中的
5 / 25
最大似然估计及三大检验(Wald-LM-LR)资料
12Y12X11Y2Y1X2X1 *1 ,Y*P1YXPXYYXXn1n1nnˆ,其实就是所谓的广义差分法。也就是说广义差此时估计(13)式得出的分法也是GLS的特例。所以,GLS是一个普遍适用的方法。 3、未知时的GLS
当然,上述情形只是已知的情况。而在现实应用时,往往是未知的。于是我们面临一个问题——如何确定?回答当然是对中的未知量进行估计(比如自相关中的,异方差中的Wi)。那么又该如何估计呢?在回答这个问题之前,我们先考察一下GLS与最大似然估计的关系(可对照OLS与ML的关系)
一般来说,当N(0,2)或YN(X,2)时,Y的对数似然函数为
n11InLIn2In2(YX)(2)1(YX)
222或者考虑到PP,而P1YY*、P1XX*,又有(经过适当的运算)
nn1lnLln2ln2ln|P|2(Y*X*)(Y*X*)
222最大化上式,对求导令其为0,可得到的极大似然估计量(它其实就是。对或P中的未知量求导令其为0,可得到中未知量(比如)的估GLS)
计。这是一种理论上可行的方法,但实际操作可能会遇到障碍,尤其是在有异方差存在时。为此,我们介绍另一种方法——可行广义最小二乘法FGLS 4、可行广义最小二乘法(FGLS)
异方差的具体形式是复杂多样的,但总的来说都是与解释变量有关的,随解释变量的变化而变化。以下三种假设情况基本上涵盖了文献中讨论过的大多数情形。
6 / 25
最大似然估计及三大检验(Wald-LM-LR)资料
(i)2i01Zi1(ii)i01Zi1pZip pZip
pZip (或2iexp(01Zi1 pZip))
(iii)ln2i01Zi1我们称这些方程为扰动项方差的辅助方程。式中的Z是原模型中部分或全部的X或X的函数(比如Z1=X1,Z2=X12,Z3X1X2等等)。可行广义最小二乘法的
ˆi,然后得出估计值ˆi从而得基本思想就是,先利用辅助函数求得参数估计值ˆ及最终的GLS结果。FGLS的步骤如下: 到(1)Y对常数项和X1,X2,,XK回归,求得的OLS估计值;
ˆˆX(2)计算残差eiYi011i(3)选择上述方程的适当形式 (3i)ei2对常数项及Z1,ˆX kki,ZP回归,求得的估计值。这是针对上述(i)
的情况。式中的Z为原来X的平方或交叉乘积。然后把这些的估计值代回(i)
ˆi2。再使用GLS或WLS得出最终结果。需要指出的是,这种便得到i2的估计值ˆi2都为正,如果其中出现了0或负数,那么我们就只能方式并不能保证所有的ˆi2了。 使用原来的ei2代替(3ii)对应于上述方程(ii),让ei对常数项及Z1,,ZP回归,求得的OLS
ˆi,然后使用GLS或WLS(此时选择权数为1,如ˆi估计值,代入(ii)得到ˆi为负,那么权数为1ei)。
,ZP回归,求出的
(3iii)对应于方程(iii),让lnei2对常数项及Z1,ˆi2或ˆi2。然后利用GLS或WLS得出结果。这OLS估计值,再代回(iii)求得lnˆi2只会产生正值,不存在0或负的情况,这也是此种里值得一提的是,此时的7 / 25
最大似然估计及三大检验(Wald-LM-LR)资料
方法很有吸引力的地方。
以上便是可行广义最小二乘法的一般步骤。由此得到的FGLS估计量是一致估计量。而且他们的方差和协方差也是一致的。同时渐近地(大样本场合)比OLS估计更有效。
五、矩估计 及GMM简介
事实上就参数估计方法来说,矩估计是最简便直观的方法。即用样本矩作为总体矩的估计。
矩估计 广义矩估计
综上所述,我们将传统的单一方程的估计方法总结如下:
OLS(普通最小二乘法,满足古典假定时的BLUE) 估ML (极大的似然估计,另一种优良的估计法,结果与OLS相同)计LM(拉格朗朗日乘数,或带约束最小二乘估计)方WLS(加权最小二乘,异方差存在且已知法GLS(广义最小二乘)广义差分(存在自相关且可估计量)FGLS(可行广义最小二乘,未知,需要对其中参数进行估计)回归的其他形式(标准化,与量纲回归,过原点回归等);
第三节 线性回归模型的检验方法及拓展
8 / 25
最大似然估计及三大检验(Wald-LM-LR)资料
有个对检验的总体说明
作为统计推断的核心内容,除了估计未知参数以外,对参数的假设检验是实证分析中的一个重要方面。对模型进行各种检验的目的是,改善模型的设定以确保基本假设和估计方法比较适合于数据,同时也是有关理论有效性的验证。
正态性JB检验、峰度、偏度检验
一、假设检验的基本理论及准则
假设检验的理论依据是“小概率事件原理”,它的一般步骤是:(1)建立两个相对的假设(零假设和备择假设)(2)在零假设条件下,寻求用于检验的统计量及其分布(3)得出拒绝或接受零假设的判别规则。另一方面,对于任何的检验过程,都有可能犯错误,即所谓的第一类错误(拒真)和第二类错误(采伪)。而犯这两类错误的概率(分别记为和)是一种此消彼长的情况,于是如何控制这两个概率,使他们尽可能的小以满足要求,就成了寻找优良的检验方法的关键。下面先就假设检验的有关基本理论做一简要介绍。
参数显著性检验的具体步骤是:已知总体的分布F(x,),其中是未知参数。总体真实分布完全由未知参数的取值所决定。对提出某种假设
H0:0(H1:0或>0,0等),从总体中抽取一个容量为n的样本,确定(W)=,或者对样本观测数一个统计量及其分布,决定一个拒绝域W,使得P0(XW)。即是显著性水平,也是犯第一类错误的概率。 据X,P0既然犯两类错误的概率不能同时被控制,所以通常的做法是限制犯第一类错误的概率,使犯第二类错误的概率尽可能的小,即在
P( 0 XW)的条件下,使得
( P,0 XW)(达到最大。其中P表示总体分布为F(x,)时,事件{XW}的概率,0为XW)9 / 25
最大似然估计及三大检验(Wald-LM-LR)资料
零假设集合(0只含一个点时成为简单原假设,否则称为复杂原假设)。0则表示备择假设集合,为了方便描述,我们定义
()=P( XW)称为该检验的势函数。当0时,是犯第一类错误的概率;而当()()0时,1是犯第二类错误的概率。 () 于是一个好的检验方程是:
max(),0 s..t(),0 为了理论上的深入研究和表达方便,我们常用函数来表示检验法。定义函数
(x)1,xW
0,xW它是拒绝域W的示性函数,仅取0、1两个值。反之如果一个函数中(x)只取0或1,则W{x|(x)1}可作为一个拒绝域。也就是说,W和之间建立了一种对立关系,给出一个就等价于给出了一个检验法,(我们称为检验函数)。那么,对于检验法的势函数为
()E(X)(x)dF(x,) 于是,一个好的检验法又可写为
max(),0
s..tE(x),0我们称满足上式的检验法为最优势检验(MPT)(如果是对于复杂原假设和备择假设,则称为一致最优势检验(UMPT)。
奈曼—皮尔逊基本引理给出于(x)是MPT的充要条件。
10 / 25
最大似然估计及三大检验(Wald-LM-LR)资料
[定理] 设X1,,Xn是来自总体分布密度为p(x,)的样本,为未知参数,对于
简单假设检验问题H0:0,H1:1,检验函数(x)是显著性水平为的最优势检验MPT的充要条件是,存在常数K0,使得(x)满足:
E0(X)
1,当p(x,1)Kp(x,0) (x)0,当p(x,)Kp(x,)10这就是著名的奈曼—皮尔逊基本引理,需要指出的是,上述定理中的检验函数
(x)通常也称为似然比检验函数,若记
p(x,1)
p(x,0) (x)称为似然比统计量。如果(x)较大,意味着p(x,1)较大,所以在H0为真时观测到样本点x的可能性比H1为真时观察到样本点x的可能性小,因而应拒绝原假设H0;反之,如果(x)较小则应接受H0。此外,利用(x),上述定理中的(x)可写为
1,(x)K (x)
0,(x)K这说明对于简单假设检验问题,似然比检验是最优的,反之最优势检验法也一定
2是似然比检验法。而大量的文献都已证明了传统假设检验中的Z检验,t检验,检验,F检验都是最优势检验。
于是,我们可以放心地回到这部份的主题——计量经济模型的检验方法。
二、一般线性框架下的假设检验 多元回归模型Y01X1kXku的统计检验通常包括以下三种情
11 / 25
最大似然估计及三大检验(Wald-LM-LR)资料
况:(1)单个系数的显著性检验;(2)若干个回归系数的联合检验;(3)回归系数线性组合的检验。例如:考虑下面这些典型假设的例子。
10、H0:i0。即回归元Xi对Y没有影响,这是最常见的参数显著性检验。 20、H0:ii0 。i0是某一具体值。例如i表示价格弹性,我们也许希望它是-1。
30、H0:121。这里的表示生产函数中资本和劳动的弹性,此时检验是否规模报酬不变。
40、H0:23或230。即检验X2和X3的系数是否相同。 50、H0:12k0。即检验全部回归元都对Y没有影响。
60、H0:II0。 这里的含义是把向量分为两个子向量I和II,分别含有k1和k2个元素。检验H0:II0就是检验某一些回归元XII(X的一部分)对Y没有影响。
诸如以上的情形都可归于一般的线性框架: Rr (注意:这里(1,k))
其中R是由已知常数构成的qk矩阵(qk),r是各元素为常数(一般是0或1)的q1矩阵。于是,对于上述情形,具体的我们有: (i)R(010),r0.(q1) (ii)R(010),ri0.(q1) (iii)R(1,1,0(iv)R(0,1,1,0),r1.(q1) 0),r0.(q1)
12 / 25
最大似然估计及三大检验(Wald-LM-LR)资料
(v)RIk,r0.(qk)
00(vi)R,r0.(qk2)
0Ik2所以,上述问题的统一假设是:
H0:Rr0
ˆ,计算Rˆr,若其值较“小”为了检验这个假设,应先估计出,(接近于0),ˆ则不应否定原假设;而如果其值较大,那么应对H0提出怀疑。为此我们先考察R的分布。
ˆ,我们知道ˆ 对于OLS的N(,2(XX)1)。(注意:这里的X是所有解
释变量观测值组成的nk矩阵不含全是1的第一列)而
ˆ)R E(Rˆ)E[R(ˆ)(ˆ)R]RVarˆR2R(XX)1R Var(Rˆ所以,RN(R,2R(XX)1R)
于是,在H0:Rr0成立的条件下,
ˆrRN(0,2R(XX)1R)
那么,由有关的数理统计知识可知:
ˆr)[2R(XX)1R]1(Rˆr)(R2(q) (1)
此外,我们还可以证明
ee22(nk1) (残差平方和的分布)。
因此,由上述两式,得到在H0下的检验统计量:
13 / 25
最大似然估计及三大检验(Wald-LM-LR)资料
ˆr)[R(XX)1R]1(Rˆr)q(RF~F(q,nk1) (2)
ee(nk1)ˆ2) (注意:ee(nk1)于是,检验的程序是,如果算出的F值大于某个事先选定的临界值,则拒绝H0。具体描述如下:
10、H0:i0
ˆ为ˆ。R(XX)1R为cii。即(XX)1主对角线上的第i个元素(注:此时Ri((XX)1是一K阶对称方阵)。因此:
ˆ2ˆ2ii F2~F(1,nk1)
ˆˆciiVariˆ2取平方根 tiˆsei这就是传统的关于回归参数显著性的t检验法。 t(nk1),
20、H0:ii0
ˆi0类似1,这里tiˆsei0t(nk1)
此时也可以计算,比如i的95%置信区间,而不用检验关于i的具体假设,这个
ˆtSeˆ。 置信区间是i0.025i30、H0:121
ˆ给出了两个估计系数的和ˆˆ,R(XX)1Rc112c12c22(注:R12而此时
(XX)1(cij),R=(1,1,,0))。那么
[R(XX)1R]121ˆ2Cov(ˆ,ˆ)Varˆ]1[Var(ˆˆ)]1ˆ[(c2cc)][Var111222112212ˆ214 / 25
最大似然估计及三大检验(Wald-LM-LR)资料
于是检验统计量为:
tˆˆ112ˆˆ)Var(12t(nk1)
ˆˆ)tˆˆ或者,也可以计算12的95%置信区间(120.025Var(12) 40、H0:23
类似30,可推得此时的检验统计量为
ˆˆ23ˆˆ)Var(23tt(nk1)
50、H0:12k0
此时 RIk,r=0,q=k,那么
FˆXXˆkee(nk1)ESSkRSSnk1F(k,nk1)
这就是我们熟悉的关于回归方程显著性的F检验。
60、H0:II0
I这里对应于。把X分块为XXIII此时 Fe1ee)k2(e1ee(nk1)XII,可以证明(过程略)
F(k2,nk1) (3)
e1是Y对XI做线性回归的残差平方和。ee是Y对所有X回归的RSS。 其中e1通过上述示例,我们看到一般线性框架下的假设检验,它涵盖了传统计量经济分析中的统计检验方法。有了它,我们可以方便地实现许多实证问题中线性意义下的统计检验。其重要性是显而易见的。
15 / 25
最大似然估计及三大检验(Wald-LM-LR)资料
三、一般线性假设检验的另一种形式
上面第60情况出现的统计量就是这里所说的另一种形式。显然50是60的特殊情况,而事实上我们还将看到其它的情况也可归于60。另外,这里还有一个问题,即类似于第30种情况的检验与上一章所讲的带约束的最小二乘估计的关系是什么?也就是说,对未知参数有约束限制的模型进行回归后的结果,与对没有约束限制的模型回归后的参数检验的结果是否一致?下面的具体分析就回答了这一问题。
事实上,无论50还是60都可以认为用了两种不同回归的结果。第一种回归可看作有约束的回归,或者说H0中的约束条件实际上是估计方程施加的。即50中有约束回归是将X1,X2,,XK从回归式中省略掉,或等价地说,令1,2,,k为
零;在60中,有约束的回归只用了前面一部分变量XI(K1K2个)。而50、60两种情况的第二种回归是无约束回归,它们都用了所有的变量X。由于无约束模
e*,因此对某型的残差平方和RSS是ee,有约束模型的残差平方和RSS记为e*些i的显著性检验也就是问,对应的Xi加入模型后,残差平方和RSS是否显著减少。
具体到第3种情形,考虑离差形式的回归方程 y1x12x2e 对其施加约束121,代入回归方程 y1x1(11)x2e 或(yx2)1(x1x2)e
由变量(yx2)对(x1x2)的回归便可得到1的受约束估计值,而这个回归的
e*。 RSS就是有约束的RSS,即e*实际上这就是我们前面讲到的带约束条件的最小二乘估计。
16 / 25
最大似然估计及三大检验(Wald-LM-LR)资料
ˆ,构造拉格朗日函一般地,在约束条件R*r下,求使RSS达到最小的*数
L(YX*)(YX*)(R*r),运用前面所讲的方法可得到(过程略)
ˆˆ(XX)1R[R(Xˆr) (4) X)1R]1(Rˆ是无约束的OLS估计量,而受约束回归的残差为 其中ˆYXˆX(ˆˆ)eX(ˆˆ) eYX将其转置,再与其自身相乘,有
ˆˆ)XX(ˆˆ) eee( eˆˆ代入并化简可得 再把(4)式的ˆr)[R(Xˆr) (5) eee(R eX)1R]1(Rˆr的统计这与(2)式中除q外的分子完全相同,也就得到了检验假设H0:R量的另一种形式为 Feee)q(eee(nk1)F(q,nk1) (6)
这也恰好说明前面所述的6种检验的情形都可以用上述方式进行,即拟合一个受约束的回归,用受约束模型的残差平方和与无约束模型的残差平方和之差
eee的大小(或记为RSSRRSSU)来推断原假设是否成立。这也就是说一e般的线性假设情形都是60的特例,或者(6)式的F统计量是普遍适应于一般线性假设的一种重要检验方法。即
F(RSSRRSSU)qRSSU(nk1)F(q,nk1)
其中RSSR和RSSU分别是受约束模型和无约束模型的残差平方和,q是约束条件个数。同时,这也就回答了本段开始的问题,即,对于未知参数有约束限制的模
17 / 25
最大似然估计及三大检验(Wald-LM-LR)资料
型进行回归后的结果,与对没有约束限制的模型回归后的参数检验的结果应该是一致的。
四、似然比检验(LR)
如本节开头所述,在统计推断中,古典检验方法是建立在似然比的基础之上的。由此可见似然比检验的重要性(当然它的实用性也会在应用中显现出来)。一般而言,似然比被定义为原假设下似然函数的最大值与无约束条件下似然函数的最大值的比率。上一节我们得到了线性回归模型参数的极大似然估计量(上一节(4)式和(5)式)
ˆ(XX)1XY MLˆ)(YXˆ) ˆ2(YXMLMLML1n它们在无约束条件下,使似然函数最大化。把它们代入似然函数可得无约束的最大似然值(推导过程略)
-n2ˆˆL(,)常数(ee)2 (7)
(式中的常数与模型中的任何参数无关,ee是残差平方和)
另一方面,如果在约束条件Rr下使似然函数最大化,令和2表示所导致的估计值,那么L(,2)便是约束条件下的最大似然值,有约束的最大值当然不会超过无约束的最大值,但如果约束条件“有效”,有约束的最大值应当“逼近”无约束的最大值,这正是似然比检验的基本思路。似然比定义为
L(,2) 2ˆˆL(,)显然,01。如果原假设为真,我们会认为的值接近1。或者说,如果
太小,我们则应该拒绝原假设。似然比检验的建立就是要使得当k时,拒
绝原假设。即P(0kH0)(为显著性水平)。在某些情况下,拒绝域
18 / 25
最大似然估计及三大检验(Wald-LM-LR)资料
k可以转化为含有我们熟知的t统计量或F统计量的形式。不过,普遍适用
的是大样本检验。可以证明,对大样本来说,统计量
ˆ,ˆ2)lnL(,2)~2(q) (8) LR2ln2lnL(具体地,如果LR很大,则应拒绝原假设,或者说似然比检验的拒绝域为
LR21(q),其中12(q)为卡方分布的1下侧分位数。
ˆ,ˆ2),为了保证LR的计算,我们还需前面已得到无约束的最大似然值L(要得出约束条件下的最大似然值L(,2)。为此,最大化
lnL(Rr)(式中的是q1的拉格朗日乘数向量,lnL就是无约束的
对数似然函数),可得约束条件下的。由于参数的极大似然估计量与最小二乘
ˆ即(4)式相估计量实际上是相同的,那么此处得到的就与上一小节所得到*ˆe,而2的带约束的极大似同。与前面一样,此时的残差为YXYX**然估计为2e*e*(类似于(7)式) n,因此,
(9)
n2L(,2)常数(e*e*)
(式中常数与(7)式相同)将(7)式和(9)式代入(8)式,就得到了似然比检验统计量的另一种形式,
'LRn(lne*e*lnee) (10)
由此可见,计算LR统计需要拟合无约束模型和有约束模型。而事实上,前面讲的各种检验(t检验,F检验,(6)式)都可以根据似然比原理推导出来。这就再次说明似然比检验是统计检验的理论基础。
五、沃尔德检验(Wald)
19 / 25
最大似然估计及三大检验(Wald-LM-LR)资料
ˆ服从正态分布推在前面一般线性框架的假设检验的讨论中,由OLS估计量ˆ的渐近正态性,也能得到前面的(1)出了(1)式。这里如果我们考虑MLE式,即
121ˆˆr)~2(q) (11) (Rr)R(XX)R(Rˆ2ee代替式中的2,这里q是R中约束条件个数,用2的一致估计量n渐近分布成立,或者说大样本情形的沃尔德统计量为
ˆr)R(XX)1R1(Rˆr)(Rˆ2aW~2(q) (12)
eee)类似于前面的(6)式,上式的分子也可写为(e,于是Wald检验的
统计量具有另一种形式,
'n(e*e*ee)W~2(q) (13)
ee与LR检验的情况一样,W呈大样本卡方分布。如果W的值大于卡方分布的
2上侧分位数,则拒绝原假设。而前面的(6)式也可归为Wald检验类。
Wald检验的一般公式:
Wc()
TVarc()c()~1a2(q)
六*、拉格朗日乘数检验(LM)
ˆ上述的LR检验,Wald检验都涉及到了对数似然函数lnL。Wald检验是由渐近服从均值为,方差协方差阵为I1()的正态分布,而导出在H0下,
ˆrRN(0,RI1()R)。其中I1()2(XX)1。从而得出Wald统计量的分布。
ˆ是的极大似然估计量,由其大样本性或渐近性知,一般地,如果20 / 25
最大似然估计及三大检验(Wald-LM-LR)资料
ˆN(,I1()),其中I()称为信息矩阵,它的定义如下:
2lnLlnLlnLI()E()()E 2(XX)1在线性模型的极大似然估计中,易知 I1(2)0即上述Wald检验的I1()2(XX)1。
拉格朗日乘数检验同样依赖于对数似然函数及信息矩阵。记S()lnL,024n ˆ的得分S(ˆ)0,称为lnL在处的得分。无约束估计量而受约束的估计量的
得分S()在约束条件有效的情况下,应接近于0。可以证明,得分向量S()的均值为零,方差-协方差矩阵为信息矩阵I(),于是S()I1()S()服从分布
2,所以大样本时,在H0:0下,有
LMS()I()S()2(q) (14)
1a此时,我们只需计算受约束的估计量的得分(注意:Wald计算的是无约束
lnL1Xu2的估计量)即由 S()
nuulnL22242用e*YX和2e*'e*n代替上式的u和2,以及Rr,可得
1Xe* S()20再通过适当的运算和变换可得(过程略)
'ne*X(X'X)1X'e* LM= (15) 'e*e*21 / 25
最大似然估计及三大检验(Wald-LM-LR)资料
具体的LM检验可分两步完成。第一步,计算受约束的估计量,从而得到残差向量e*,第二步,让e*对所有的变量X回归,这个回归的可决系数是R2,恩格尔(Engle 1982)证明了对于大样本来说, LMnR22(q) (16)
2当nR2(卡方分布的上侧分位数)时,则拒绝原假设。
LM检验方法实际上是从一个较简单的模型开始,检验是否可以增加新变量,第一步就是对简单模型(变量较少)回归,得到残差e*。如果“真实”模型变量很多,则这些变量加入模型应对e*有影响。所以第二步e*对所有变量回归而得到的R2的大小就将直接决定是否应该增加新变量,即约束Rr是否成立。如
2果R2很大(nR2),则说明新增变量对e*有显著影响,即真实模型应含较多2变量,或者说对参数的约束(比如某些i为0)不成立。如果R2较小(nR2),
则说明新增变量对e*没有显著影响,真实模型就应是变量较少的简单模型,即约束条件成立。这也是通常所说的“从简单到一般”的模型设定方法。
七、LR,Wald,LM的简单比较
三种检验方法都由极大似然估计而来。都用到了对数似然函数,LR检验只适用于线性约束的检验;Wald检验和LM检验既适用于线性约束也适用于非线性约束的检验。LR检验需要计算带约束和无约束的对数似然函数值 ;Wald检验只需要估计无约束的模型;而LM检验只需要估计约束模型(所以当施加约束条件后模型形式变得简单时LM检验更方便适用)。
下面简要推导一下这三个检验统计量之间的著名不等式,即WLRLM
22 / 25
最大似然估计及三大检验(Wald-LM-LR)资料
'e*e*e'e) 首先,(10)式可写为 LRnln(1e'e1将其按级数ln(1z)zz22展开,便可得到LRW。
其次证明(15)式可写为
'n(e*e*e'e) (17) LM'e*e*ˆe的残差可表为 事实上,对于回归模型YXˆYX(XX)1XY[IX(XX)1X]YMY eYX其中MIX(XX)1X是一对称等幂矩阵,它具有性质MX0,Mee。而
ˆ同样有eYXˆ,从而对于满足约束条件R*r的受约束估计量***Me*MYe(因为MX0),于是有
''eee*MMe*e*Me*(MM,M2M)'e*[IX(XX)1X]e*''e*e*e*X(XX)1Xe*
''X(XX)1Xe*e*e*ee,这就得到了LM的另一种表达式,即(17)式。 即e*'e*e*e'e 再次,LR还可写为LRnln(1) 'e*e*1同样按级数ln(1z)zz22展开,便可得到LRLM,即最终,我们有:
WLRLM
由此不等式可知,当LM检验拒绝原假设时,其他检验也一样。当Wald检验没有拒绝原假设时,其他检验也不会拒绝原假设。尽管在小样本时三个值可能有所不同,但在大样本情形,这三个检验近似相等。就计算而言,LR检验最麻烦,其他两种还算简单。
23 / 25
最大似然估计及三大检验(Wald-LM-LR)资料
下面给出的是一元线性回归离差形式yixiui的三种检验的具体形式(H0:0)(推导过程要用到对数似然函数,但并不复杂,这里从略)。
LRnln(1R2)
WnR21R2
2LMnRaux
上述三个式子对于大样本来说都服从自由度为1的卡方分布。就几何上而言,对
ˆ和之间的垂直距离 于一元回归的原假设H0:0,LR检验是基于0ˆ和之间的水平距离ˆ)2lnL());Wald检验是基于(LR2ln2lnL(00ˆ)2I(ˆ),I()是信息矩阵,此处为(2c)1(Varˆ)1),LM检验则(W(0ii是基于对数似然函数在0处的斜率(得分函数是对数似然的导数,
LMs2(0)I(0)1,s(0)为在0处的得分),而每一个检验都很好地度量了原
假设与备样假设之间的“距离”。
现将三种检验方法的要点内容列表如下:
以一元线性回归为例的计算及直观意义方法 适用范围 计算方式 (H0:0) 只适用线计算带约束和无约束的对数似然值 nR2ˆ)2lnL()nln(1R2) LR2lnL(0ˆ与之间的垂直距离 0LR 性约束的检验 2ˆ线性约束只需估计W(ˆ)2I(ˆ)(0)0Wald 和非线性无约束的约束检验 模型 2cii1R2 ˆ与之间的水平距离 (F检验) 度量024 / 25
最大似然估计及三大检验(Wald-LM-LR)资料
LM 同上 只需估计LMs2(0)I(0)1nR2 约束模型 考察对数似然函数在处的斜率 0关系图......
第四节 模型设定检验 ?
RESET, BIC, AIC ……. ……, ……, ……
25 / 25
因篇幅问题不能全部显示,请点此查看更多更全内容