T-критерий Уэлча

t-критерий Уэлча — тест, основанный на распределении Стьюдента и предназначенный для проверки статистической гипотезы о равенстве математических ожиданий случайных величин, имеющих необязательно равные известные дисперсии. Является модификацией t-критерия Стьюдента. Назван в честь британского статистика Бернарда Льюиса Уэлча.

Предпосылки

Для применения двухвыборочного t-критерия Стьюдента необходимо, чтобы истинные дисперсии были равны. В случае t-критерия Уэлча истинные дисперсии уже могут быть не равны, но предпосылка о нормальном распределении средних сохраняется.

Вычисление статистики

Пусть даны две независимые выборки нормально распределённых случайных величин:

X 1 , . . . , X n x N ( μ x , σ x 2 ) {\displaystyle X_{1},...,X_{n_{x}}\sim {\mathcal {N}}(\mu _{x},\sigma _{x}^{2})}

Y 1 , . . . , Y n y N ( μ y , σ y 2 ) {\displaystyle Y_{1},...,Y_{n_{y}}\sim {\mathcal {N}}(\mu _{y},\sigma _{y}^{2})}

Проверяем следующую нулевую гипотезу о равенстве математический ожиданий:

H 0 : μ x = μ y {\displaystyle H_{0}:\mu _{x}=\mu _{y}}

Пусть нулевая гипотеза верна. Тогда E ( X ¯ Y ¯ ) = 0 {\displaystyle E({\overline {X}}-{\overline {Y}})=0} и V a r ( X ¯ Y ¯ ) = σ x 2 n x + σ y 2 n y {\displaystyle Var({\overline {X}}-{\overline {Y}})={\dfrac {\sigma _{x}^{2}}{n_{x}}}+{\dfrac {\sigma _{y}^{2}}{n_{y}}}} . Пусть σ ^ x 2 = i = 1 n x ( X i X ¯ ) 2 n x 1 {\displaystyle {\hat {\sigma }}_{x}^{2}=\sum _{i=1}^{n_{x}}{\dfrac {(X_{i}-{\overline {X}})^{2}}{n_{x}-1}}} и σ ^ y 2 = i = 1 n y ( Y i Y ¯ ) 2 n y 1 {\displaystyle {\hat {\sigma }}_{y}^{2}=\sum _{i=1}^{n_{y}}{\dfrac {(Y_{i}-{\overline {Y}})^{2}}{n_{y}-1}}}  — несмещенные оценки дисперсий σ x 2 {\displaystyle \sigma _{x}^{2}} и σ y 2 {\displaystyle \sigma _{y}^{2}} соответственно. Рассчитаем следующую статистику:

t = X ¯ Y ¯ V a r ^ ( X ¯ Y ¯ ) = X ¯ Y ¯ V a r ^ ( X ¯ ) + V a r ^ ( Y ¯ ) = X ¯ Y ¯ σ ^ x 2 n x + σ ^ y 2 n y {\displaystyle t={\dfrac {{\bar {X}}-{\bar {Y}}}{\sqrt {{\widehat {Var}}({\bar {X}}-{\bar {Y}})}}}={\dfrac {{\bar {X}}-{\bar {Y}}}{\sqrt {{\widehat {Var}}({\bar {X}})+{\widehat {Var}}({\bar {Y}})}}}={\dfrac {{\bar {X}}-{\bar {Y}}}{\sqrt {{\dfrac {{\hat {\sigma }}_{x}^{2}}{n_{x}}}+{\dfrac {{\hat {\sigma }}_{y}^{2}}{n_{y}}}}}}}

Сделаем следующее преобразование:

t = X ¯ Y ¯ σ ^ x 2 n x + σ ^ y 2 n y = X ¯ Y ¯ σ x 2 n x + σ y 2 n y σ x 2 n x + σ y 2 n y σ ^ x 2 n x + σ ^ y 2 n y {\displaystyle t={\dfrac {{\bar {X}}-{\bar {Y}}}{\sqrt {{\dfrac {{\hat {\sigma }}_{x}^{2}}{n_{x}}}+{\dfrac {{\hat {\sigma }}_{y}^{2}}{n_{y}}}}}}={\dfrac {{\bar {X}}-{\bar {Y}}}{\sqrt {{\dfrac {\sigma _{x}^{2}}{n_{x}}}+{\dfrac {\sigma _{y}^{2}}{n_{y}}}}}}\cdot {\dfrac {\sqrt {{\dfrac {\sigma _{x}^{2}}{n_{x}}}+{\dfrac {\sigma _{y}^{2}}{n_{y}}}}}{\sqrt {{\dfrac {{\hat {\sigma }}_{x}^{2}}{n_{x}}}+{\dfrac {{\hat {\sigma }}_{y}^{2}}{n_{y}}}}}}}

Распределение первой статистики является стандартным нормальным распределением:

X ¯ Y ¯ σ x 2 n x + σ y 2 n y N ( 0 , 1 ) {\displaystyle {\dfrac {{\bar {X}}-{\bar {Y}}}{\sqrt {{\dfrac {\sigma _{x}^{2}}{n_{x}}}+{\dfrac {\sigma _{y}^{2}}{n_{y}}}}}}\sim {\mathcal {N}}(0,1)}

Рассмотрим вторую статистику и для дальнейших вычислений назовем её S {\displaystyle S} :

S = σ x 2 n x + σ y 2 n y σ ^ x 2 n x + σ ^ y 2 n y {\displaystyle S={\dfrac {{\dfrac {\sigma _{x}^{2}}{n_{x}}}+{\dfrac {\sigma _{y}^{2}}{n_{y}}}}{{\dfrac {{\hat {\sigma }}_{x}^{2}}{n_{x}}}+{\dfrac {{\hat {\sigma }}_{y}^{2}}{n_{y}}}}}}

Статистика S {\displaystyle S} напоминает случайную величину с распределением хи-квадрат, поделенную на степень свободы, но таковой не является. Пусть Z χ d 2 {\displaystyle Z\sim \chi _{d}^{2}} является случайной величиной с распределением хи-квадрат с d {\displaystyle d} степенями свободы. Тогда Z d 0 {\displaystyle {\dfrac {Z}{d}}\geqslant 0} , равно как и S 0 {\displaystyle S\geqslant 0} . Теперь заметим, что E ( S ) = 1 {\displaystyle E(S)=1} (так как мы используем несмещенные оценки дисперсий), а E ( Z d ) = E ( Z ) d = d d = 1 {\displaystyle E\left({\dfrac {Z}{d}}\right)={\dfrac {E(Z)}{d}}={\dfrac {d}{d}}=1} .

Раз мы хотим, чтобы S {\displaystyle S} была максимально похожа на Z d χ d 2 d {\displaystyle {\dfrac {Z}{d}}\sim {\dfrac {\chi _{d}^{2}}{d}}} , то приравняем дисперсии данных случайных величин:

V a r ( S ) = V a r ( Z d ) = 2 d {\displaystyle Var(S)=Var\left({\dfrac {Z}{d}}\right)={\dfrac {2}{d}}}

Рассчитаем дисперсию случайной величины S {\displaystyle S} :

V a r ( S ) = 1 ( σ x 2 n x + σ y 2 n y ) 2 ( 1 n x 2 V a r ( σ ^ x 2 ) + 1 n y 2 V a r ( σ ^ y 2 ) ) = 1 ( σ x 2 n x + σ y 2 n y ) 2 ( 2 ( σ x 2 ) 2 n x 2 ( n x 1 ) + 2 ( σ y 2 ) 2 n y 2 ( n y 1 ) ) = 2 d {\displaystyle Var(S)={\dfrac {1}{\left({\dfrac {\sigma _{x}^{2}}{n_{x}}}+{\dfrac {\sigma _{y}^{2}}{n_{y}}}\right)^{2}}}\left({\dfrac {1}{n_{x}^{2}}}Var({\hat {\sigma }}_{x}^{2})+{\dfrac {1}{n_{y}^{2}}}Var({\hat {\sigma }}_{y}^{2})\right)={\dfrac {1}{\left({\dfrac {\sigma _{x}^{2}}{n_{x}}}+{\dfrac {\sigma _{y}^{2}}{n_{y}}}\right)^{2}}}\left({\dfrac {2(\sigma _{x}^{2})^{2}}{n_{x}^{2}(n_{x}-1)}}+{\dfrac {2(\sigma _{y}^{2})^{2}}{n_{y}^{2}(n_{y}-1)}}\right)={\dfrac {2}{d}}}

Отсюда:

d = ( σ x 2 n x + σ y 2 n y ) 2 σ x 4 n x 2 ( n x 1 ) + σ y 4 n y 2 ( n y 1 ) {\displaystyle d={\dfrac {\left({\dfrac {\sigma _{x}^{2}}{n_{x}}}+{\dfrac {\sigma _{y}^{2}}{n_{y}}}\right)^{2}}{{\dfrac {\sigma _{x}^{4}}{n_{x}^{2}(n_{x}-1)}}+{\dfrac {\sigma _{y}^{4}}{n_{y}^{2}(n_{y}-1)}}}}}

В конечном итоге имеем при справедливости нулевой гипотезы:

t a p p r o x . t d {\displaystyle t{\stackrel {approx.}{\sim }}t_{d}} ,

где d {\displaystyle d} находится как:

d = ( σ x 2 n x + σ y 2 n y ) 2 σ x 4 n x 2 ( n x 1 ) + σ y 4 n y 2 ( n y 1 ) {\displaystyle d={\dfrac {\left({\dfrac {\sigma _{x}^{2}}{n_{x}}}+{\dfrac {\sigma _{y}^{2}}{n_{y}}}\right)^{2}}{{\dfrac {\sigma _{x}^{4}}{n_{x}^{2}(n_{x}-1)}}+{\dfrac {\sigma _{y}^{4}}{n_{y}^{2}(n_{y}-1)}}}}}

При достаточно больших объёмах выборок мы можем воспользоваться нормальной аппроксимацией:

t = X ¯ Y ¯ σ ^ x 2 n x + σ ^ y 2 n y n x , n y N ( 0 , 1 ) {\displaystyle t={\dfrac {{\bar {X}}-{\bar {Y}}}{\sqrt {{\dfrac {{\hat {\sigma }}_{x}^{2}}{n_{x}}}+{\dfrac {{\hat {\sigma }}_{y}^{2}}{n_{y}}}}}}{\xrightarrow[{n_{x},n_{y}\rightarrow \infty }]{}}{\mathcal {N}}(0,1)}

Двухвыборочный t-критерий Уэлча для независимых выборок

Пусть даны две независимые выборки нормально распределённых случайных величин:

X 1 , . . . , X n x N ( μ x , σ x 2 ) {\displaystyle X_{1},...,X_{n_{x}}\sim {\mathcal {N}}(\mu _{x},\sigma _{x}^{2})}

Y 1 , . . . , Y n y N ( μ y , σ y 2 ) {\displaystyle Y_{1},...,Y_{n_{y}}\sim {\mathcal {N}}(\mu _{y},\sigma _{y}^{2})}

При нулевой гипотезе H 0 : μ x = μ y {\displaystyle H_{0}:\mu _{x}=\mu _{y}} мы рассчитываем следующую статистику:

t = X ¯ Y ¯ σ ^ x 2 n x + σ ^ y 2 n y {\displaystyle t={\dfrac {{\bar {X}}-{\bar {Y}}}{\sqrt {{\dfrac {{\hat {\sigma }}_{x}^{2}}{n_{x}}}+{\dfrac {{\hat {\sigma }}_{y}^{2}}{n_{y}}}}}}}

Пусть альтернативная гипотеза H 1 : μ x μ y {\displaystyle H_{1}:\mu _{x}\neq \mu _{y}} .

При справедливости нулевой гипотезы распределение t {\displaystyle t} будет приблизительно являться распределением Стьюдента с d {\displaystyle d} степенями свободы:

t a p p r o x . t d {\displaystyle t{\stackrel {approx.}{\sim }}t_{d}} ,

где d {\displaystyle d} находится как:

d = ( σ x 2 n x + σ y 2 n y ) 2 σ x 4 n x 2 ( n x 1 ) + σ y 4 n y 2 ( n y 1 ) {\displaystyle d={\dfrac {\left({\dfrac {\sigma _{x}^{2}}{n_{x}}}+{\dfrac {\sigma _{y}^{2}}{n_{y}}}\right)^{2}}{{\dfrac {\sigma _{x}^{4}}{n_{x}^{2}(n_{x}-1)}}+{\dfrac {\sigma _{y}^{4}}{n_{y}^{2}(n_{y}-1)}}}}}

Следовательно, при превышении значения наблюдаемой статистики по абсолютной величине критического значения данного распределения (при заданном уровне значимости) нулевая гипотеза отвергается.

Пример

В следующих примерах будем сравнивать t-критерий Стьюдента и t-критерий Уэлча. Выборки сгенерированы модулем numpy.random для языка программирования Python.

Для всех трех примеров математические ожидания будут равны μ x = 20 {\displaystyle \mu _{x}=20} и μ y = 22 {\displaystyle \mu _{y}=22} соответственно.

В первом примере истинные дисперсии равны ( σ x 2 = σ y 2 = 4 {\displaystyle \sigma _{x}^{2}=\sigma _{y}^{2}=4} ) и объёмы выборок равны ( n x = n y = 15 {\displaystyle n_{x}=n_{y}=15} ). Обозначим за S X {\displaystyle S_{X}} и S Y {\displaystyle S_{Y}} как соответствующие случайные выборки:

S X = { 19.17 , 21.41 , 23.83 , 15.72 , 21.44 , 20.93 , 21.53 , 21.76 , 21.62 , 18.11 , 19.74 , 18.74 , 17.12 , 21.30 , 21.97 } S Y = { 19.71 , 22.77 , 22.85 , 26.21 , 21.60 , 21.50 , 25.43 , 21.45 , 24.69 , 22.69 , 20.21 , 26.24 , 21.43 , 22.49 , 20.76 } {\displaystyle {\begin{aligned}S_{X}&=\{19.17,21.41,23.83,15.72,21.44,20.93,21.53,21.76,21.62,18.11,19.74,18.74,17.12,21.30,21.97\}\\S_{Y}&=\{19.71,22.77,22.85,26.21,21.60,21.50,25.43,21.45,24.69,22.69,20.21,26.24,21.43,22.49,20.76\}\end{aligned}}}

Во втором примере истинные дисперсии неравны ( σ x 2 = 16 {\displaystyle \sigma _{x}^{2}=16} , σ y 2 = 1 {\displaystyle \sigma _{y}^{2}=1} ) и неравные объёмы у выборок ( n x = 10 {\displaystyle n_{x}=10} , n y = 20 {\displaystyle n_{y}=20} ). У меньшей выборки большая дисперсия:

S X = { 18.33 , 22.82 , 27.66 , 11.43 , 22.88 , 21.87 , 23.07 , 23.53 , 23.24 , 16.21 } S Y = { 21.87 , 21.37 , 20.56 , 22.65 , 22.98 , 20.86 , 22.39 , 22.43 , 24.11 , 21.80 , 21.75 , 23.71 , 21.73 , 23.35 , 22.34 , 21.10 , 24.12 , 21.71 , 22.24 , 21.38 } {\displaystyle {\begin{aligned}S_{X}&=\{18.33,22.82,27.66,11.43,22.88,21.87,23.07,23.53,23.24,16.21\}\\S_{Y}&=\{21.87,21.37,20.56,22.65,22.98,20.86,22.39,22.43,24.11,21.80,21.75,23.71,21.73,23.35,22.34,21.10,24.12,21.71,22.24,21.38\}\end{aligned}}}

В третьем примере истинные дисперсии неравны ( σ x 2 = 1 {\displaystyle \sigma _{x}^{2}=1} , σ y 2 = 16 {\displaystyle \sigma _{y}^{2}=16} ) и неравные объёмы у выборок ( n x = 10 {\displaystyle n_{x}=10} , n y = 20 {\displaystyle n_{y}=20} ). У большей выборки большая дисперсия:

S X = { 19.58 , 20.71 , 21.92 , 17.86 , 20.72 , 20.47 , 20.77 , 20.88 , 20.81 , 19.05 } S Y = { 21.48 , 19.48 , 16.25 , 24.61 , 25.94 , 17.42 , 23.55 , 23.71 , 30.43 , 21.21 , 21.01 , 28.86 , 20.91 , 27.39 , 23.37 , 18.42 , 30.47 , 20.86 , 22.97 , 19.52 } {\displaystyle {\begin{aligned}S_{X}&=\{19.58,20.71,21.92,17.86,20.72,20.47,20.77,20.88,20.81,19.05\}\\S_{Y}&=\{21.48,19.48,16.25,24.61,25.94,17.42,23.55,23.71,30.43,21.21,21.01,28.86,20.91,27.39,23.37,18.42,30.47,20.86,22.97,19.52\}\end{aligned}}}
Выборка S X {\displaystyle S_{X}} Выборка S Y {\displaystyle S_{Y}} t-критерий Стьюдента t-критерий Уэлча
Пример n x {\displaystyle n_{x}} X ¯ {\displaystyle {\overline {X}}} σ ^ x 2 {\displaystyle {\hat {\sigma }}_{x}^{2}} n y {\displaystyle n_{y}} Y ¯ {\displaystyle {\overline {Y}}} σ ^ y 2 {\displaystyle {\hat {\sigma }}_{y}^{2}} t {\displaystyle t} d {\displaystyle d} p {\displaystyle p} -value p s i m {\displaystyle p_{\mathrm {sim} }} -value t {\displaystyle t} d {\displaystyle d} p {\displaystyle p} -value p s i m {\displaystyle p_{\mathrm {sim} }} -value
1 15 20.29 4.61 15 22.67 4.35 -3.07 28 0.005 0.005 −3.07 28.0 0.005 0.004
2 10 21.10 21.01 20 22.22 1.04 −1.06 28 0.299 0.465 −0.76 9.57 0.464 0.459
3 10 20.27 1.31 20 22.89 16.69 −1.97 28 0.059 0.015 −2.66 23.28 0.014 0.018

Для равных дисперсий и равных объёмов выборок t-критерий Стьюдента и t-критерий Уэлча выдали примерно одинаковый результат (пример 1). Для неравных дисперсий t-критерий Уэлча точнее оценивает истинное распределение статистики, чем t-критерий Стьюдента ( p {\displaystyle p} -value для t-критерия Уэлча ближе к моделированной p s i m {\displaystyle p_{\mathrm {sim} }} -value, чем для t-критерия Стьюдента).

Если неизвестно, равны ли дисперсии двух генеральных совокупностей, крайне не рекомендуется проводить пре-тесты для определения равенства дисперсий, а лучше сразу использовать t-критерий Уэлча.[1]

Реализация в различных ПО

Язык программирования / ПО Функция Примечание
LibreOffice TTEST(Data1; Data2; Mode; Type) Подробнее[2]
MATLAB ttest2(data1, data2, 'Vartype', 'unequal') Подробнее[3]
Microsoft Excel до 2010 TTEST(array1, array2, tails, type) Подробнее[4]
Microsoft Excel 2010 and позднее T.TEST(array1, array2, tails, type) или ТТЕСТ(массив1;массив2;хвосты;тип) Подробнее[5][6]
Python scipy.stats.ttest_ind(a, b, equal_var=False) Подробнее[7]
R t.test(data1, data2, alternative="two.sided", var.equal=FALSE) Подробнее[8]
Haskell Statistics.Test.StudentT.welchTTest SamplesDiffer data1 data2 Подробнее[9]
Julia UnequalVarianceTTest(data1, data2) Подробнее[10]
Stata ttest varname1 == varname2, welch Подробнее[11]
Google Sheets TTEST(range1, range2, tails, type) Подробнее[12]

Литература

B. L. Welch The Generalization of `Student’s' Problem when Several Different Population Variances are Involved // Vol. 34, No. 1/2 (Jan., 1947), pp. 28-35

Примечания

  1. The unequal variance t-test is an underused alternative to Student’s t-test and the Mann-Whitney U test| Oxford Academic  (неопр.). Дата обращения: 31 мая 2020. Архивировано 10 августа 2020 года.
  2. Statistical Functions Part Five - LibreOffice Help  (неопр.). Дата обращения: 31 мая 2020. Архивировано 28 февраля 2014 года.
  3. Two-sample t-test - MATLAB ttest2 - MathWorks United Kingdom  (неопр.). Дата обращения: 31 мая 2020. Архивировано 5 августа 2016 года.
  4. Архивированная копия  (неопр.). Дата обращения: 31 мая 2020. Архивировано 21 марта 2014 года.
  5. T.TEST function - Office Support  (неопр.). Дата обращения: 31 мая 2020. Архивировано 3 марта 2014 года.
  6. ТТЕСТ (функция ТТЕСТ) - Служба поддержки Office
  7. scipy.stats.ttest_ind — SciPy v1.5.2 Reference Guide  (неопр.). Дата обращения: 31 мая 2020. Архивировано 23 октября 2013 года.
  8. R: Student's t-Test  (неопр.). Дата обращения: 31 мая 2020. Архивировано 29 ноября 2016 года.
  9. Statistics.Test.StudentT  (неопр.). Дата обращения: 31 мая 2020. Архивировано 13 июня 2021 года.
  10. Welcome to Read the Docs — HypothesisTests.jl latest documentation  (неопр.). Дата обращения: 31 мая 2020. Архивировано 29 марта 2016 года.
  11. Stata 16 help for ttest  (неопр.). Дата обращения: 31 мая 2020. Архивировано 7 января 2010 года.
  12. T.TEST - Docs Editors Help  (неопр.). Дата обращения: 31 мая 2020. Архивировано 16 апреля 2021 года.