知经 KNOWECON · 卓越的经济金融统计数学学习平台

对回归系数施加线性约束的检验

# 对回归系数施加线性约束的检验 (Test for Linear Restrictions on Regression Coefficients)

对回归系数施加线性约束的检验,通常简称为线性约束检验,是{{{计量经济学}}}和{{{统计学}}}中一种至关重要的{{{假设检验}}}方法。它被用于{{{多元线性回归模型}}} (multiple linear regression model) 的框架下,用以检验关于模型中一个或多个{{{回归系数}}}之间是否存在某种特定的线性关系的假设是否被样本数据所支持。

该检验是一种普适性很强的工具,许多我们熟知的检验都可以视作它的特例,例如检验单个系数显著性的{{{t检验}}} (t-test) 和检验模型整体显著性的{{{F检验}}} (F-test)。

## 理论框架与假设设定

我们从一个标准的多元线性回归模型开始:

$$ Y_i = \beta_0 + \beta_1 X_{1i} + \beta_2 X_{2i} + \dots + \beta_k X_{ki} + u_i $$

其中,$Y$ 是{{{因变量}}},$X_1, \dots, X_k$ 是{{{自变量}}},$\beta_0, \dots, \beta_k$ 是未知的模型系数,$u$ 是{{{误差项}}}。使用矩阵形式,该模型可以更简洁地表示为:

$$ Y = X\beta + u $$

其中,$Y$ 是 $n \times 1$ 的因变量向量, $X$ 是 $n \times (k+1)$ 的数据矩阵(包含一列用于截距项的1),$\beta$ 是 $(k+1) \times 1$ 的系数向量,$u$ 是 $n \times 1$ 的误差向量。

线性约束检验的核心是检验一个或多个关于系数向量 $\beta$ 的线性方程是否成立。这些约束可以统一地用矩阵形式表示。假设我们总共要检验 $q$ 个线性约束,那么{{{原假设}}} ($H_0$) 和{{{备择假设}}} ($H_1$) 可以表示为:

$$ H_0: R\beta = r $$ $$ H_1: R\beta \neq r $$

这里的各个组成部分是: * $R$: 这是一个 $q \times (k+1)$ 维的矩阵,被称为约束矩阵。它的每一行都定义了一个线性约束,其元素都是已知的常数。 * $\beta$: 这是我们关心的 $(k+1) \times 1$ 维的系数向量。 * $r$: 这是一个 $q \times 1$ 维的向量,包含了每个线性约束等号右侧的常数值。

### 线性约束的常见示例

为了更好地理解 $R\beta=r$ 的形式,我们看几个具体的例子。假设一个模型有三个自变量和一个截距项:$Y = \beta_0 + \beta_1 X_1 + \beta_2 X_2 + \beta_3 X_3 + u$。此时,$\beta = [\beta_0, \beta_1, \beta_2, \beta_3]'$。

1. 检验单个系数是否为零: $H_0: \beta_2 = 0$。 这是一个约束 ($q=1$)。我们可以写成: $R = [0, 0, 1, 0]$, $r = [0]$。 因此,$R\beta = [0, 0, 1, 0] \begin{bmatrix} \beta_0 \\ \beta_1 \\ \beta_2 \\ \beta_3 \end{bmatrix} = \beta_2$,原假设即 $R\beta=r$。

2. 检验两个系数是否相等: $H_0: \beta_1 = \beta_3$。这等价于 $H_0: \beta_1 - \beta_3 = 0$。 这是一个约束 ($q=1$)。我们可以写成: $R = [0, 1, 0, -1]$, $r = [0]$。

3. 检验系数的线性组合: 这在经济学中很常见,例如检验{{{柯布-道格拉斯生产函数}}}中的{{{规模报酬}}}。假设 $\beta_1$ 和 $\beta_2$ 分别是劳动和资本的产出弹性,我们想检验是否存在{{{规模报酬不变}}},即 $H_0: \beta_1 + \beta_2 = 1$。 这是一个约束 ($q=1$)。我们可以写成: $R = [0, 1, 1, 0]$, $r = [1]$。

4. 检验多个约束(联合假设检验): $H_0: \beta_1 = 0$ 且 $\beta_3 = 0$。 这是两个约束 ($q=2$)。我们可以写成: $R = \begin{bmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 1 \end{bmatrix}$, $r = \begin{bmatrix} 0 \\ 0 \end{bmatrix}$。

## 基于F统计量的检验方法

执行线性约束检验最经典和直观的方法是比较两个模型的拟合优度:一个是不施加任何约束的模型,另一个是强制施加了原假设中约束的模型。这个比较通过它们的{{{残差平方和}}} (Sum of Squared Residuals, SSR) 来实现。

步骤如下:

1. 估计无约束模型 (Unrestricted Model) 首先,我们对原始的多元回归模型 $Y = X\beta + u$ 进行{{{普通最小二乘法}}} (OLS) 估计,得到估计系数向量 $\hat{\beta}_{U}$。然后计算该模型的残差平方和,记为 $SSR_U$。这是模型在不受任何约束的情况下能达到的“最优”拟合程度。

2. 估计有约束模型 (Restricted Model) 接着,我们强行将原假设 $H_0: R\beta = r$ 中的约束条件代入原始模型,从而得到一个新的、被约束的模型。例如,若约束为 $\beta_1 = \beta_2$,我们将原始模型改写为 $Y = \beta_0 + \beta_1(X_1 + X_2) + \beta_3 X_3 + \dots + u$,然后对这个新模型进行OLS估计。 对这个有约束的模型进行OLS估计后,我们计算其残差平方和,记为 $SSR_R$。

3. 构建F统计量 基本逻辑: * 根据OLS的性质,对模型施加约束(除非约束恰好在无约束估计中已经完全满足)会降低模型的拟合优度,因此必然有 $SSR_R \ge SSR_U$。 * 如果原假设 $H_0$ 为真,那么这些约束是符合数据真实规律的,施加它们对模型拟合度的影响应该很小,即 $SSR_R$ 和 $SSR_U$ 的差距应该很小。 * 反之,如果原假设 $H_0$ 为伪,那么这些约束是错误的,强加它们会显著降低模型的拟合优度,导致 $SSR_R$ 远大于 $SSR_U$。

F统计量就是用来衡量 $SSR_R$ 相对于 $SSR_U$ 的“显著”增大的程度。其计算公式为: $$ F = \frac{(SSR_R - SSR_U)/q}{(SSR_U)/(n - k - 1)} $$ 公式各部分的含义: * $SSR_R$:有约束模型的残差平方和。 * $SSR_U$:无约束模型的残差平方和。 * $q$:约束的个数,即 $R$ 矩阵的行数。这是F统计量的第一{{{自由度}}}(分子自由度)。 * $n$:样本容量。 * $k$:无约束模型中自变量的个数。 * $n-k-1$:无约束模型的残差自由度。这是F统计量的第二自由度(分母自由度)。

4. 做出决策 在原假设 $H_0$ 成立以及满足高斯-马尔可夫假定的条件下,该F统计量服从自由度为 $(q, n-k-1)$ 的{{{F分布}}}。 * 决策规则:给定一个{{{显著性水平}}} $\alpha$(如 0.05),我们从F分布表中查找到对应的临界值 $F_c = F_{\alpha, q, n-k-1}$。 * 如果计算出的 $F > F_c$,我们拒绝原假设 $H_0$。这意味着数据提供了足够的证据表明线性约束不成立。 * 如果计算出的 $F \le F_c$,我们不拒绝 (fail to reject) 原假设 $H_0$。这表明数据没有提供足够的证据来推翻该线性约束。 * {{{P值}}}方法:我们也可以计算出当前F统计量对应的p值。如果p值小于显著性水平 $\alpha$,则拒绝原假设。

## 与其他检验的关系

1. 与t检验的关系:当检验的线性约束仅有一个时 ($q=1$),例如 $H_0: \beta_j=c$,该F检验等价于一个t检验。此时,可以证明计算出的 $F$ 统计量严格等于对应t检验的t统计量的平方,即 $F = t^2$。因此,F检验可以看作是t检验向多个线性约束的推广。

2. 与整体F检验的关系:模型整体显著性的F检验是检验所有斜率系数是否同时为零,即 $H_0: \beta_1 = \beta_2 = \dots = \beta_k = 0$。这可以看作是线性约束检验的一个特例,其中 $q=k$。此时,有约束模型为 $Y_i = \beta_0 + u_i$,其残差平方和 $SSR_R$ 就是因变量 $Y$ 的{{{总平方和}}} (TSS)。代入F统计量公式即可得到我们熟悉的整体F检验统计量。

## 瓦尔德检验 (Wald Test)

瓦尔德检验是另一种执行线性约束检验的方法,它在{{{大样本}}}条件下与F检验等价。与F检验不同,瓦尔德检验仅需要估计无约束模型

它的基本思想是直接检验在无约束估计下,待检验的线性组合 $R\hat{\beta}$ 在统计上是否显著地偏离其假设值 $r$。 其统计量(一般形式)为: $$ W = (R\hat{\beta} - r)'[R(\text{Var}(\hat{\beta}))R']^{-1}(R\hat{\beta} - r) $$ 其中 $\text{Var}(\hat{\beta})$ 是系数估计量 $\hat{\beta}$ 的{{{方差-协方差矩阵}}}。在经典线性模型假设下,可以证明 $F = W/q$。因此,在这些条件下,F检验和瓦尔德检验是等价的,会得出完全相同的结论。瓦尔德检验的优势在于其适用性更广,可以用于许多非线性模型和基于{{{最大似然估计}}}的场景。