Czy hipoteza zerowa wpływa na błąd standardowy?

Nov 25 2020

Poniżej $H_0:P_1=P_2$ standardowy błąd występuje często $P$wartość, która jest obliczana z oszacowania zbiorczego. Dlaczego jest$\sigma$wartość nie obliczona w podobny sposób w następnym? Tam pod null$H_0:\sigma_1=\sigma_2$ dlaczego to nie jest podstawiane w formule błędu standardowego?

Odpowiedzi

1 ChristophHanck Nov 26 2020 at 18:27

Krótko mówiąc: uważam, że tytuł twojego pytania może wydawać się mylący dla niektórych czytelników, ale mimo to odpowiedź może brzmieć „tak”, na ewentualnie nieco zmodyfikowane pytanie:

„Czy możliwe jest użycie wartości parametrów określonych w hipotezie zerowej w celu uzyskania prawidłowego oszacowania błędu standardowego?”.

Drugi zrzut ekranu (jeśli to możliwe, staraj się ich unikać i składaj tekst w TeX-ie, aby witryna była łatwiejsza do przeszukiwania) nadal jest „niekompletna”, ponieważ ostatni SE nadal zależy od nieznanych ilości, a mianowicie. $\sigma_1$ i $\sigma_2$.

W związku z tym, $S.E.(s_1-s_2)$ trzeba będzie zastąpić jakimś jego estymatorem, nazwij to $\widehat{S.E.}(s_1-s_2)$, aby uzyskać statystykę testową , zadzwoń do niej$\hat{Z}$ (przypomnijmy, że statystycy nazywają statystykę czymś, co faktycznie możemy obliczyć, co nie zależy od niewiadomych).

Jeśli ten estymator jest zgodny dla $S.E.(s_1-s_2)$otrzymujemy, za pomocą lematu Slutzky'ego , $$ \hat{Z}=\frac{s_1-s_2}{\widehat{S.E.}(s_1-s_2)}=\underbrace{\underbrace{\frac{s_1-s_2}{S.E.(s_1-s_2)}}_{=Z\to_dN(0,1)}\cdot\underbrace{\frac{S.E.(s_1-s_2)}{\widehat{S.E.}(s_1-s_2)}}_{\to_p1}}_{=Z\to_dN(0,1)} $$

Teraz możesz zrobić dwie rzeczy:

  1. Zastąpić $\sigma_j^2$, $j=1,2$, w $S.E.(s_1-s_2)$ z $s_j^2$. Daje to spójny estymator$S.E.(s_1-s_2)$ gdy wartość null jest prawdą lub nie.
  2. Oszacuj wspólną wartość $s^2$ z pełnej próbki i podłącz ją do obu $\sigma_j^2$, $j=1,2$, w $S.E.(s_1-s_2)$ (oszacowanie zbiorcze).

Dla 2., jeśli wartość null jest prawdziwa, powyższy wynik w drugim członie powyższego ekranu jest nadal aktualny i nic się nie zmienia, ponieważ oszacowanie wspólnej wartości było poprawne, ponieważ obie populacje mają to samo odchylenie standardowe. W związku z tym statystyka testowa będzie nadal zachowywała się jak normalna zmienna losowa w dużych próbach, jeśli wartość null jest prawdziwa, tak że możemy zastosować normalne wartości krytyczne, aby podjąć decyzję testową.

Teraz, jeśli wartość null jest fałszywa, czego „chcemy” od naszej statystyki testowej $\hat{Z}$? Chcemy, aby był on jak najczęściej większy niż krytyczne wartości testu („duża moc”).

Teraz licznik, jeśli wartość null jest fałszywa, z pewnością przy wystarczającej ilości danych stanie się różna od zera $\sigma_1\neq\sigma_2$ i stąd tak będzie $s_1$ i $s_2$. W mianowniku$\sigma_j$ nie będą już konsekwentnie szacowane przez estymator zbiorczy $s^2$. Mimo to można oczekiwać, że estymator ten będzie dążył do pewnej skończonej wartości, powiedzmy$s^2\to \tilde{\sigma}^2$. Ponieważ jednak dzielimy przez$n_1$ i $n_2$, $\widehat{S.E.}(s_1-s_2)$ stanie się bardzo mały wraz ze wzrostem wielkości próbki, a co za tym idzie $\hat{Z}$ stanie się duży, tak że nadal będziemy często poprawnie odrzucać wartość zerową.

W związku z tym każdą procedurę można uzasadnić asymptotycznymi podstawami. To, co jest lepsze w skończonych próbkach, to inna sprawa (do której często odnoszą się badania symulacyjne).

Oto ilustracja (kod poniżej), że oba warianty pasują do teoretycznej dystrybucji zerowej (i są zbliżone do $Z$ wersja, którą możemy obliczyć dla ilustracji, gdy znamy prawdziwe wartości w symulacji) pod wartością null.

Poprzez zabawy z prawdziwych wartości sigma1i sigma2można również zilustrować, że testy również mają moc, czyli mają różne dystrybucje niż średnia normalne, jeśli zerowa jest fałszywa

Kod:

Zhat <- function(x1, x2){
  n1 <- length(x1)
  n2 <- length(x2)
  s1 <- sd(x1)
  s2 <- sd(x2)
  s <- sd(c(x1,x2)) # pooled estimate
  Zhat <- (s1-s2)/sqrt(s1^2/(2*n1)+s2^2/(2*n2))
  Zhat.pooled <- (s1-s2)/sqrt(s^2*(1/(2*n1)+1/(2*n2)))
  Z <- (s1-s2)/sqrt(sigma1^2/(2*n1)+sigma2^2/(2*n2)) # as we know true values in this illustration, we may plug them in, too
  return(list(Zhat, Zhat.pooled, Z))
}

sigma1 <- 1
sigma2 <- 1
n1 <- 40
n2 <- 60

MC.function <- function(sigma1, sigma2, n1, n2){
  x1 <- rnorm(n1, sd=sigma1)
  x2 <- rnorm(n2, sd=sigma2)
  Zhat(x1, x2)
}
MC <- replicate(10000, MC.function(sigma1, sigma2, n1, n2))

plot(density(unlist(MC[1,])), lwd=2, col="blue", main="simulated null distributions", ylim=)
lines(density(unlist(MC[2,])), lwd=2, col="salmon")
lines(density(unlist(MC[3,])), lwd=2, col="green")
x <- seq(-4,4,by=0.1)
lines(x, dnorm(x), lwd=2, col="brown")

PS: Zasadniczo ten sam pomysł jest omawiany w tych wątkach: test T dla rozkładu Bernoulliego - dane próbki czy populacji do obliczeń SE? Które oszacowanie wariancji użyć w teście Walda?