← 返回

茆诗松统计学核心速通讲义 - 8.4一元线性回归 - 问题1

版权声明:本讲义为Knowecon制作,受版权保护。未经授权,禁止复制、传播。仅供Knowecon小小班学员学习使用。

问题 假设回归直线过原点,考虑一元线性回归模型:
\[ y_i = \beta x_i + \varepsilon_i, \quad i=1,2,\cdots,n \]
其中 $E(\varepsilon_i)=0$$\operatorname{Var}(\varepsilon_i)=\sigma^2$,诸观测值相互独立。 (1) 求 $\beta$ 的最小二乘估计和 $\sigma^2$ 的无偏估计; (2) 对给定的 $x_0$,求其对应的因变量均值估计 $\hat{y}_0$ 的方差 $\operatorname{Var}(\hat{y}_0)$。 ## 答案 (1) 由最小二乘原理,令
\[ Q = \sum_{i=1}^{n} \left( y_i - \beta x_i \right)^2, \]
$\beta$ 求导并令导数为零,得到正规方程:
\[ \left. \frac{\partial Q}{\partial \beta} \right|_{\hat{\beta}} = -2 \sum_{i=1}^{n} \left( y_i - \hat{\beta} x_i \right) x_i = 0. \]
解得 $\beta$ 的最小二乘估计为
\[ \hat{\beta} = \frac{ \sum_{i=1}^{n} x_i y_i }{ \sum_{i=1}^{n} x_i^2 }. \]
由于
\[ E( y_i ) = \beta x_i, \]
所以 [ E( \hat{\beta} ) = \frac{ \sum_{i=1}^{n} x_i E( y_i ) }{ \sum_{i=1}^{n} x_i^2 } = \frac{ \sum_{i=1}^{n} x_i \beta x_i }{ \sum_{i=1}^{n}

Content truncated. Please enter passkey to view full content.

Knowecon Chat

$