# Levene's Test (Levene 检验)
Levene's Test 是一种{{{推论统计}}}方法,用于检验两个或多个组的{{{方差}}}是否相等。这个检验的主要目的,是验证某些参数统计检验(如{{{t检验}}}和{{{方差分析 (ANOVA)}}})的一个关键前提假设——{{{方差齐性}}} (Homogeneity of Variance),也被称为{{{同方差性}}} (Homoscedasticity)。
当比较两个或多个组的{{{平均数}}}时,许多标准的统计方法(例如,Student's t-test 或 ANOVA)都假设每个组的观测数据是从具有相同方差的总体中抽取的。如果这个假设不成立(即存在{{{异方差性}}} (Heteroscedasticity)),那么这些检验的结果可能是不可靠的,其 I 类错误的概率可能会被夸大。Levene's Test 正是用来在进行主要分析之前,评估这一假设是否成立的诊断工具。
该检验由 Howard Levene 于1960年提出。其一个显著的优点是,它对样本数据是否服从{{{正态分布}}}并不像其他方差齐性检验(如{{{Bartlett's test}}})那样敏感,因此具有更好的{{{稳健性}}}。
## 检验的原理与假设
Levene's Test 的核心思想是将对“方差是否相等”的检验,转化为对“离差绝对值的均值是否相等”的检验。具体来说,它通过计算每个数据点与其所在组的中心位置的偏差,然后对这些偏差的绝对值进行标准的方差分析(ANOVA)来实现。
### 假设的设立
在进行 Levene's Test 时,我们建立如下的{{{原假设}}} ($H_0$) 和{{{备择假设}}} ($H_1$):
* 原假设 ($H_0$):所有 $k$ 个组的总体方差是相等的。 $$ H_0: \sigma_1^2 = \sigma_2^2 = \dots = \sigma_k^2 $$ 其中 $\sigma_i^2$ 是第 $i$ 组的总体方差。
* 备择假设 ($H_1$):至少有两个组的总体方差不相等。 $$ H_1: \exists i, j \text{ s.t. } i \neq j \text{ and } \sigma_i^2 \neq \sigma_j^2 $$
我们通过检验计算出的{{{p-value}}}来决定是否拒绝原假设。
## 检验的计算步骤
Levene's Test 的检验统计量,记为 $W$,其计算过程如下:
假设我们有 $k$ 个组,第 $i$ 组 ($i = 1, 2, \dots, k$) 有 $N_i$ 个观测值,总观测值为 $N = \sum_{i=1}^{k} N_i$。让 $y_{ij}$ 表示第 $i$ 组中的第 $j$ 个观测值。
步骤 1:计算离差
对于每个观测值 $y_{ij}$,计算它与其所在组的中心位置的离差的绝对值。我们将这个新的转化后的值记为 $Z_{ij}$。 $$ Z_{ij} = |y_{ij} - \tilde{y}_i| $$ 这里的 $\tilde{y}_i$ 是第 $i$ 组的中心位置的估计值。根据对中心位置选择的不同,Levene's Test 有几种变体:
* 基于均值的检验 (Mean-based):这是 Levene 最初提出的版本,使用组的{{{算术平均数}}}作为中心位置。 $$ Z_{ij} = |y_{ij} - \bar{y}_{i\cdot}|, \quad \text{其中 } \bar{y}_{i\cdot} = \frac{1}{N_i} \sum_{j=1}^{N_i} y_{ij} $$ 这个版本在数据对称分布时表现良好,但对{{{偏态分布}}}和{{{异常值}}}敏感。
* 基于中位数的检验 (Median-based):这是 Brown 和 Forsythe 在1974年提出的改进版本,也常被称为 Brown-Forsythe 检验。它使用组的{{{中位数}}}作为中心位置。 $$ Z_{ij} = |y_{ij} - \text{median}(y_i)| $$ 由于中位数对异常值和偏态分布不敏感,这个版本被认为是最稳健和最常用的。大多数统计软件默认执行此版本。
* 基于截尾均值的检验 (Trimmed-mean-based):同样由 Brown 和 Forsythe 提出,它使用组的{{{截尾均值}}}(去掉一定比例的最大值和最小值后的均值)作为中心位置。这是在均值和中位数之间的一种折衷。 $$ Z_{ij} = |y_{ij} - \text{trimmed\_mean}(y_i)| $$
步骤 2:对离差值进行方差分析
对新生成的变量 $Z_{ij}$ 执行一个标准的单因素方差分析(ANOVA)。Levene's Test 的检验统计量 $W$ 就是这个 ANOVA 产生的 F 统计量。
$W$ 统计量的计算公式为: $$ W = \frac{(N-k)}{(k-1)} \frac{\sum_{i=1}^{k} N_i (\bar{Z}_{i\cdot} - \bar{Z}_{\cdot\cdot})^2}{\sum_{i=1}^{k} \sum_{j=1}^{N_i} (Z_{ij} - \bar{Z}_{i\cdot})^2} $$ 其中: * $k$ 是组的数量。 * $N$ 是总样本量。 * $N_i$ 是第 $i$ 组的样本量。 * $Z_{ij}$ 是根据步骤 1 计算的离差绝对值。 * $\bar{Z}_{i\cdot}$ 是第 $i$ 组的 $Z_{ij}$ 值的均值。 * $\bar{Z}_{\cdot\cdot}$ 是所有 $Z_{ij}$ 值的总均值。
步骤 3:做出统计决策
计算出的 $W$ 统计量近似服从一个自由度为 $(k-1)$ 和 $(N-k)$ 的 {{{F-分布}}}。我们可以将 $W$ 值与相应 F 分布的临界值进行比较,或者更常见地,计算出对应的 p-value。
## 结果的解读与后续步骤
Levene's Test 的结果解读依赖于 p-value 和预先设定的{{{显著性水平}}} $\alpha$(通常为 0.05)。
* 如果 p-value > $\alpha$:我们 无法拒绝原假设 ($H_0$)。这意味着没有足够的统计证据表明各组的方差不相等。因此,我们可以认为满足方差齐性假设,并可以继续使用那些要求此假设的参数检验(如标准 ANOVA)。
* 如果 p-value ≤ $\alpha$:我们 拒绝原假设 ($H_0$)。这意味着有显著的证据表明至少有一组的方差与其他组不同,即存在异方差性。
### 当方差齐性假设被违反时该怎么办?
如果 Levene's Test 的结果是显著的(即 p-value ≤ $\alpha$),这意味着方差齐性的前提不成立。此时,研究者应考虑以下几种方案:
1. 使用不假设方差齐性的检验方法:这是最直接和推荐的做法。 * 对于两组比较,可以使用 {{{Welch's t-test}}} 来替代 Student's t-test。 * 对于两组以上的比较,可以使用 {{{Welch's ANOVA}}} 或 Brown-Forsythe F-test 来替代标准 ANOVA。
2. 对数据进行变换:可以对因变量进行数学变换(如对数变换、平方根变换、倒数变换),以稳定方差,使其接近齐性。变换后,需要重新进行 Levene's Test 检查方差是否变得齐性。
3. 使用非参数检验:如果数据不仅方差不齐,还严重偏离正态分布,可以考虑使用不依赖于分布假设的{{{非参数检验}}}。例如,用 {{{Kruskal-Wallis test}}} 作为 ANOVA 的替代方法。然而,需要注意的是,Kruskal-Wallis 检验检验的是“分布位置”是否相同,而不仅仅是中位数。
## 与其他检验的比较
* Levene's Test vs. Bartlett's Test:{{{Bartlett's test}}} 是另一种检验方差齐性的方法。然而,Bartlett's Test 对数据是否服从正态分布非常敏感。如果数据不符合正态分布,Bartlett's Test 可能会错误地拒绝方差齐性的原假设(即出现“假阳性”)。相比之下,Levene's Test (特别是基于中位数的版本) 对偏离正态分布的情况更加稳健,因此在实践中应用更广泛。
* Levene's Test vs. F-test of equality of variances:当只有两个组时,可以使用 F-test(两样本方差比检验)来检验方差齐性。然而,与 Bartlett's Test 类似,它也对正态性假设非常敏感,因此一般不推荐使用,除非有很强的理由相信数据确实来自正态分布。