# 拉格朗日乘数检验 (Lagrange Multiplier Test)
拉格朗日乘数检验(Lagrange Multiplier Test),通常简称为 LM检验,是{{{统计学}}}和{{{计量经济学}}}中一种重要的{{{假设检验}}}方法。它主要用于检验模型设定中施加的约束条件是否成立,尤其是在{{{最大似然估计}}}(Maximum Likelihood Estimation, MLE)的框架下。由于其检验统计量的构造基于{{{似然函数}}}的“得分”(score),因此它也被称为 得分检验(Score Test)。
LM检验与{{{似然比检验}}}(Likelihood Ratio Test, LR Test)和{{{沃尔德检验}}}(Wald Test)并称为最大似然框架下的三大经典检验方法。这三种检验在渐近意义下是等价的,但在有限样本中可能得出不同的结论。LM检验的核心优势在于,它仅需要估计受约束的(restricted)模型,而无需估计更复杂的无约束(unrestricted)模型,这在某些情况下极大地简化了计算。
## 检验的直观理解:登山的比喻
为了理解LM检验的内在逻辑,我们可以使用一个生动的比喻。假设我们正在寻找一个二维平面上的最高点,这个最高点由一个{{{似然函数}}} $L(\theta)$ 描述,其中 $\theta = (\theta_1, \theta_2)$ 是我们需要估计的参数。
* 无约束模型:对应于在整个平面上自由寻找最高点,即无约束的最大似然估计 $\hat{\theta}_{UR}$。 * 约束条件:现在,假设我们施加一个约束,例如 $\theta_2 = 0$。这相当于我们被限制只能在 $\theta_1$ 轴上移动来寻找最高点。 * 受约束模型:我们在 $\theta_1$ 轴上找到的最高点,就是受约束的最大似然估计 $\hat{\theta}_{R}$。
LM检验要回答的问题是:这个约束($\theta_2=0$)是否显著地“损害”了我们寻找最高点的能力?
LM检验的逻辑如下: 1. 我们首先站在受约束的最优点 $\hat{\theta}_{R}$ 上。 2. 然后,我们考察在这一点上,如果我们被“允许”向被禁止的 $\theta_2$ 方向移动,似然函数的“坡度”或“梯度”是多少。这个梯度在统计学中被称为得分(Score)。 3. 如果约束($\theta_2=0$)是真实情况(即{{{零假设}}}为真),那么我们所在的受约束最优点 $\hat{\theta}_{R}$ 应该已经非常接近(或就是)全局最优点 $\hat{\theta}_{UR}$。因此,在 $\hat{\theta}_{R}$ 点,沿 $\theta_2$ 方向的坡度应该非常接近于零。 4. 反之,如果该坡度显著不为零,那就意味着如果我们打破约束,沿 $\theta_2$ 方向移动,似然函数值可以显著增加。这提供了强有力的证据来拒绝零假设,即认为该约束是不成立的。
因此,LM检验本质上是检验在受约束估计点上,似然函数关于被约束参数的梯度是否显著偏离零。
## LM检验的统计原理
设一个统计模型的对数似然函数为 $\ln L(\theta)$,其中 $\theta$ 是一个包含 $k$ 个参数的向量。我们想检验 $q$ 个关于参数的约束,通常写为 $H_0: R(\theta)=0$。
一. 得分向量 (Score Vector)
得分向量是{{{对数似然函数}}}关于参数向量 $\theta$ 的一阶偏导数向量: $$ s(\theta) = \frac{\partial \ln L(\theta)}{\partial \theta} $$ 在最大似然估计值 $\hat{\theta}$ 处,$s(\hat{\theta}) = 0$。这是{{{一阶条件}}}。
二. 信息矩阵 (Information Matrix)
{{{信息矩阵}}}衡量了数据中包含的关于参数 $\theta$ 的信息量,通常定义为得分向量协方差矩阵的负期望: $$ I(\theta) = -E\left[ \frac{\partial^2 \ln L(\theta)}{\partial \theta \partial \theta'} \right] $$ 根据{{{Cramér-Rao下界}}},信息矩阵的逆 $[I(\theta)]^{-1}$ 是最大似然估计量 $\hat{\theta}$ 的渐近{{{方差-协方差矩阵}}}。
三. LM 统计量的构建
LM检验的步骤如下: 1. 在零假设 $H_0$ 的约束下,最大化对数似然函数,得到受约束的最大似然估计量 $\hat{\theta}_R$。 2. 计算在 $\hat{\theta}_R$ 处的得分向量 $s(\hat{\theta}_R)$。如前所述,如果 $H_0$ 为真,$\hat{\theta}_R$ 应该接近于无约束的估计量 $\hat{\theta}_{UR}$,因此 $s(\hat{\theta}_R)$ 应该接近于零向量。 3. 为了将得分向量标准化,我们构建如下的二次型,这便是 LM统计量: $$ LM = s(\hat{\theta}_R)' [I(\hat{\theta}_R)]^{-1} s(\hat{\theta}_R) $$ 其中,$I(\hat{\theta}_R)$ 是在 $\hat{\theta}_R$ 处评估的信息矩阵。这个统计量衡量了得分向量与零向量的“标准化距离”。
在零假设 $H_0$ 成立的条件下,LM统计量渐近服从自由度为 $q$ 的{{{卡方分布}}}(Chi-squared distribution),其中 $q$ 是施加的约束个数。 $$ LM \xrightarrow{d} \chi^2(q) $$
四. 决策规则
计算出LM统计量后,将其与来自 $\chi^2(q)$ 分布的临界值在显著性水平 $\alpha$ 下进行比较。 * 如果 $LM > \chi^2_{q, \alpha}$,我们拒绝零假设,认为约束是不成立的。 * 如果 $LM \le \chi^2_{q, \alpha}$,我们不拒绝零假设。 或者,我们可以计算该LM统计量对应的{{{p值}}}。如果p值小于 $\alpha$,则拒绝 $H_0$。
## 与沃尔德检验和似然比检验的比较
LM、Wald和LR检验都是为了相同的目的,但在实现方式上有所不同:
* {{{似然比检验}}} (LR Test):需要估计无约束模型和受约束模型两者,然后比较它们的对数似然值。$LR = 2(\ln L_{UR} - \ln L_R)$。 * {{{沃尔德检验}}} (Wald Test):仅需要估计无约束模型。它直接检验在无约束模型中,那些根据 $H_0$ 应该为零的参数是否真的显著不为零。例如,检验 $\hat{\theta}_2$ 是否等于0。 * 拉格朗日乘数检验 (LM Test):仅需要估计受约束模型。它检验在施加约束后,"代价"有多大。
在实践中,选择哪种检验通常取决于计算的便利性。如果受约束模型(例如,一个标准的{{{线性回归模型}}})比无约束模型(例如,一个包含复杂{{{序列相关}}}结构的模型)更容易估计,那么LM检验就非常具有吸引力。
## 在计量经济学中的主要应用
LM检验因其计算上的便利性而被广泛应用于检验各种模型设定问题。
1. 检验遗漏变量 (Omitted Variable Test) * $H_0$:某些变量的系数为零(即它们不应包含在模型中)。 * 受约束模型:不包含这些变量的回归。 * LM检验通过一个辅助回归实现:首先进行受约束回归得到{{{残差}}},然后将残差对所有变量(包括被遗漏的变量)进行回归。辅助回归的 $R^2$ 乘以样本量 $n$(即 $n R^2$)渐近服从 $\chi^2(q)$ 分布,其中 $q$ 是被遗漏变量的数量。
2. 检验序列相关 (Serial Correlation) * Breusch-Godfrey检验 是一个典型的LM检验。 * $H_0$:扰动项不存在序列相关。 * 受约束模型:标准的OLS回归。 * 检验过程:先运行OLS回归得到残差 $\hat{u}_t$,然后运行辅助回归:$\hat{u}_t$ 对所有原始解释变量和滞后的残差 $\hat{u}_{t-1}, \ldots, \hat{u}_{t-p}$ 进行回归。同样,$n R^2$ 统计量服从 $\chi^2(p)$ 分布。
3. 检验异方差性 (Heteroskedasticity) * Breusch-Pagan检验 是一个用于检验{{{异方差性}}}的LM检验。 * $H_0$:扰动项的方差是恒定的(即存在{{{同方差性}}})。 * 受约束模型:假定同方差性的OLS回归。 * 检验过程:运行OLS回归得到残差平方 $\hat{u}_t^2$,然后将其对所有解释变量进行回归。辅助回归的 $n R^2$ 服从 $\chi^2(k)$ 分布,其中 $k$ 是解释变量的数量。
4. 检验ARCH效应 * Engle (1982) 提出的检验{{{自回归条件异方差}}}(ARCH)效应的检验也是一个LM检验。 * $H_0$:不存在ARCH效应。 * 检验过程:对OLS回归的残差平方 $\hat{u}_t^2$ 对其自身的滞后项($\hat{u}_{t-1}^2, \ldots, \hat{u}_{t-q}^2$)进行回归。$n R^2$ 统计量服从 $\chi^2(q)$ 分布。
综上所述,拉格朗日乘数检验是一个功能强大且应用广泛的诊断工具,它通过仅估计更简单的受约束模型来评估模型约束的有效性,极大地便利了实证研究中的模型设定检验。