知经 KNOWECON · 卓越的经济金融统计数学学习平台

OLS估计量的无偏性证明

# OLS估计量的无偏性证明 (Proof of Unbiasedness of OLS Estimators)

无偏性 (Unbiasedness) 是评价一个{{{统计估计量}}}优良性的重要标准之一。对于{{{普通最小二乘法}}} (Ordinary Least Squares, OLS),其估计量 $\hat{\beta}$ 的无偏性是指,在多次重复抽样中,这些估计值的{{{期望}}} (Expectation) 或平均值,会精确地等于我们想要估计的未知的{{{总体参数}}} (population parameter) $\beta$。用数学语言表达即为 $E(\hat{\beta}) = \beta$。

本词条将详细阐述并证明{{{OLS估计量}}}的无偏性。这个证明是{{{计量经济学}}}理论的基石,它依赖于一系列关于{{{回归模型}}}及其{{{误差项}}}的关键假设。

## 证明所需的核心假设

为了证明OLS估计量的无偏性,我们并不需要全部的{{{高斯-马尔可夫假设}}} (Gauss-Markov Assumptions)。具体来说,我们只需要以下四个核心假设(有时被称为OLS假设1至4)。

一. {{{模型线性}}} (Linearity in Parameters): 总体模型是参数的{{{线性函数}}}。 $$ y = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + \dots + \beta_k x_k + u $$ 使用{{{矩阵}}}形式,这个模型可以更简洁地表示为: $$ \mathbf{y} = \mathbf{X}\beta + \mathbf{u} $$ 其中,$\mathbf{y}$ 是一个 $n \times 1$ 的被解释变量向量,$\mathbf{X}$ 是一个 $n \times (k+1)$ 的解释变量矩阵,$\beta$ 是一个 $(k+1) \times 1$ 的未知参数向量,而 $\mathbf{u}$ 是一个 $n \times 1$ 的误差项向量。

二. {{{随机抽样}}} (Random Sampling): 我们拥有的数据集 $\{(y_i, X_{i1}, \dots, X_{ik})\}_{i=1}^n$ 是从总体中随机抽取的一个样本,{{{样本容量}}}为 $n$。

三. {{{无完全共线性}}} (No Perfect Multicollinearity): 在样本的解释变量中,不存在任何一个变量是其他变量的精确线性组合。在矩阵表示中,这意味着矩阵 $\mathbf{X}$ 是{{{列满秩}}} (full column rank),即 $rank(\mathbf{X}) = k+1$。这个假设保证了矩阵 $(\mathbf{X}'\mathbf{X})$ 是{{{可逆的}}} (invertible),从而使得OLS估计量有唯一解。

四. {{{零条件均值}}} (Zero Conditional Mean): 给定解释变量 $\mathbf{X}$ 的值,误差项 $\mathbf{u}$ 的期望为零。 $$ E(\mathbf{u} | \mathbf{X}) = \mathbf{0} $$ 这个假设是无偏性证明中最关键的一环。它意味着解释变量与误差项之间不存在系统性的关联。满足这一条件的解释变量被称为{{{外生变量}}} (Exogenous Variables)。该假设也蕴含了两个重要的推论: 1. 误差项的无条件期望为零:$E(\mathbf{u}) = E[E(\mathbf{u}|\mathbf{X})] = E[\mathbf{0}] = \mathbf{0}$。 2. 解释变量与误差项不相关:$E(\mathbf{X}'\mathbf{u}) = \mathbf{0}$。

## 无偏性的数学证明

证明的目标是表明 $E(\hat{\beta}) = \beta$。证明过程如下:

第一步:写出OLS估计量的公式 OLS方法通过最小化{{{残差平方和}}} (Sum of Squared Residuals) 得到参数估计量 $\hat{\beta}$。其{{{闭式解}}}(矩阵形式)为: $$ \hat{\beta} = (\mathbf{X}'\mathbf{X})^{-1}\mathbf{X}'\mathbf{y} $$ 这个公式是后续所有推导的起点。

第二步:代入真实的总体模型 我们将真实的总体关系式 $\mathbf{y} = \mathbf{X}\beta + \mathbf{u}$(假设1)代入到 $\hat{\beta}$ 的公式中: $$ \hat{\beta} = (\mathbf{X}'\mathbf{X})^{-1}\mathbf{X}'(\mathbf{X}\beta + \mathbf{u}) $$

第三步:进行代数展开与化简 利用矩阵乘法的分配律,我们将上式展开: $$ \hat{\beta} = (\mathbf{X}'\mathbf{X})^{-1}\mathbf{X}'(\mathbf{X}\beta) + (\mathbf{X}'\mathbf{X})^{-1}\mathbf{X}'\mathbf{u} $$ 由于 $(\mathbf{X}'\mathbf{X})^{-1}(\mathbf{X}'\mathbf{X})$ 等于一个{{{单位矩阵}}} $\mathbf{I}$,上式可以被化简为: $$ \hat{\beta} = \mathbf{I}\beta + (\mathbf{X}'\mathbf{X})^{-1}\mathbf{X}'\mathbf{u} $$ $$ \hat{\beta} = \beta + (\mathbf{X}'\mathbf{X})^{-1}\mathbf{X}'\mathbf{u} $$ 这个表达式非常重要。它表明,OLS估计量 $\hat{\beta}$ 等于真实的参数 $\beta$ 加上一个由解释变量和误差项构成的{{{抽样误差}}}项 $(\mathbf{X}'\mathbf{X})^{-1}\mathbf{X}'\mathbf{u}$。

第四步:对等式两边取期望 为了检验无偏性,我们对上式两边同时取{{{期望}}} (Expectation) 运算: $$ E(\hat{\beta}) = E[\beta + (\mathbf{X}'\mathbf{X})^{-1}\mathbf{X}'\mathbf{u}] $$ 根据期望的线性性质,$E(A+B) = E(A) + E(B)$,我们可以得到: $$ E(\hat{\beta}) = E(\beta) + E[(\mathbf{X}'\mathbf{X})^{-1}\mathbf{X}'\mathbf{u}] $$

第五步:处理期望项 我们分别处理右侧的两个期望项: 1. $E(\beta)$: 由于 $\beta$ 是一个未知的常数向量(总体参数),而不是一个随机变量,所以它的期望就是其本身。 $$ E(\beta) = \beta $$ 2. $E[(\mathbf{X}'\mathbf{X})^{-1}\mathbf{X}'\mathbf{u}]$: 这是证明的关键。我们使用{{{迭代期望定律}}} (Law of Iterated Expectations) 和 零条件均值假设 (假设4)。我们先在给定的 $\mathbf{X}$ 下求期望: $$ E[(\mathbf{X}'\mathbf{X})^{-1}\mathbf{X}'\mathbf{u} \mid \mathbf{X}] $$ 在以 $\mathbf{X}$ 为条件时,任何关于 $\mathbf{X}$ 的函数(如 $(\mathbf{X}'\mathbf{X})^{-1}\mathbf{X}'$)都可以被视为常数并从期望运算中提出: $$ E[(\mathbf{X}'\mathbf{X})^{-1}\mathbf{X}'\mathbf{u} \mid \mathbf{X}] = (\mathbf{X}'\mathbf{X})^{-1}\mathbf{X}' E(\mathbf{u} \mid \mathbf{X}) $$ 根据零条件均值假设 (假设4),我们有 $E(\mathbf{u} | \mathbf{X}) = \mathbf{0}$。因此: $$ (\mathbf{X}'\mathbf{X})^{-1}\mathbf{X}' E(\mathbf{u} \mid \mathbf{X}) = (\mathbf{X}'\mathbf{X})^{-1}\mathbf{X}' \cdot \mathbf{0} = \mathbf{0} $$ 根据迭代期望定律,$E(W) = E[E(W|Z)]$,我们得到: $$ E[(\mathbf{X}'\mathbf{X})^{-1}\mathbf{X}'\mathbf{u}] = E[E[(\mathbf{X}'\mathbf{X})^{-1}\mathbf{X}'\mathbf{u} \mid \mathbf{X}]] = E[\mathbf{0}] = \mathbf{0} $$

第六步:得出最终结论 将第五步的结果代回到第四步的等式中: $$ E(\hat{\beta}) = \beta + \mathbf{0} $$ $$ E(\hat{\beta}) = \beta $$ 至此,我们成功证明了在假设1-4成立的条件下,OLS估计量 $\hat{\beta}$ 是真实参数 $\beta$ 的一个{{{无偏估计量}}}。

## 结论与启示

无偏性的意义在于,尽管任何一次特定抽样得到的估计值 $\hat{\beta}$ 几乎不可能恰好等于真实的 $\beta$,但OLS估计程序本身在平均意义上是“正确”的,它不会系统性地高估或低估真实的参数值。

这个证明过程也突显了 零条件均值假设($E(\mathbf{u} | \mathbf{X}) = \mathbf{0}$) 的至关重要性。如果这个假设不成立,例如存在{{{遗漏变量偏误}}} (Omitted Variable Bias)、{{{样本选择偏误}}} (Sample Selection Bias) 或解释变量与误差项存在{{{同期相关}}} (Contemporaneous Correlation) 等问题,那么 $E[(\mathbf{X}'\mathbf{X})^{-1}\mathbf{X}'\mathbf{u}] \neq \mathbf{0}$,这将导致 $E(\hat{\beta}) \neq \beta$。在这种情况下,OLS估计量将是{{{有偏的}}} (biased) 和{{{不一致的}}} (inconsistent),从而得出错误的统计推断。因此,在进行实证研究时,检验和确保零条件均值假设的合理性是应用OLS方法的首要任务。