L'hypothèse nulle affecte-t-elle l'erreur standard?

Ici sous $H_0:P_1=P_2$ l'erreur standard devient courante $P$valeur qui est calculée à partir d'une estimation groupée. Pourquoi est-ce que$\sigma$valeur non calculée de la même manière dans la suivante? Là sous nul$H_0:\sigma_1=\sigma_2$ pourquoi cela n'est pas substitué dans la formule d'erreur standard?

Réponses
En un mot: je pense que le titre de votre question peut sembler déroutant pour certains lecteurs, mais la réponse peut néanmoins être "oui", à une question éventuellement légèrement modifiée:
"Est-il possible d'utiliser les valeurs de paramètres spécifiées dans l'hypothèse nulle pour fournir une estimation valide d'une erreur standard?".
La deuxième capture d'écran (si possible, essayez d'éviter cela et composez le texte dans TeX pour rendre le site plus consultable) est toujours "incomplète" en ce que le dernier SE dépend toujours de quantités inconnues, à savoir. $\sigma_1$ et $\sigma_2$.
Par conséquent, $S.E.(s_1-s_2)$ devra être remplacé par un estimateur de celui-ci, appelez-le $\widehat{S.E.}(s_1-s_2)$, pour obtenir une statistique de test , appelez-la$\hat{Z}$ (rappelez-vous que les statisticiens appellent une statistique quelque chose que nous pouvons réellement calculer, qui ne dépend pas d'inconnues).
Si cet estimateur est cohérent pour $S.E.(s_1-s_2)$on obtient, par le lemme de Slutzky , $$ \hat{Z}=\frac{s_1-s_2}{\widehat{S.E.}(s_1-s_2)}=\underbrace{\underbrace{\frac{s_1-s_2}{S.E.(s_1-s_2)}}_{=Z\to_dN(0,1)}\cdot\underbrace{\frac{S.E.(s_1-s_2)}{\widehat{S.E.}(s_1-s_2)}}_{\to_p1}}_{=Z\to_dN(0,1)} $$
Maintenant, vous pouvez faire deux choses:
- Remplacer $\sigma_j^2$, $j=1,2$, dans $S.E.(s_1-s_2)$ avec $s_j^2$. Cela se traduira par un estimateur cohérent de$S.E.(s_1-s_2)$ les deux lorsque la valeur null est vraie ou non.
- Estimer une valeur commune $s^2$ à partir de l'échantillon complet et branchez-le pour les deux $\sigma_j^2$, $j=1,2$, dans $S.E.(s_1-s_2)$ (une estimation «groupée»).
Pour 2., si la valeur nulle est vraie, le résultat ci-dessus dans le deuxième terme de l'affichage ci-dessus tient toujours et rien ne change, car l'estimation d'une valeur commune était correcte car les deux populations partagent le même écart type. Par conséquent, la statistique de test se comportera toujours comme une variable aléatoire normale dans de grands échantillons si la valeur nulle est vraie, de sorte que nous pouvons utiliser les valeurs critiques normales pour arriver à une décision de test.
Maintenant, si la valeur nulle est fausse, que "voulons-nous" de notre statistique de test $\hat{Z}$? Nous voulons qu'elle soit plus grande que les valeurs critiques du test le plus souvent possible («haute puissance»).
Maintenant, le numérateur, si la valeur nulle est fausse, deviendra sûrement, avec suffisamment de données, différent de zéro comme $\sigma_1\neq\sigma_2$ et par conséquent il en sera de même $s_1$ et $s_2$. Au dénominateur, le$\sigma_j$ ne sera plus systématiquement estimée par l'estimateur groupé $s^2$. Pourtant, on peut s'attendre à ce que cet estimateur tende vers une valeur finie, disons$s^2\to \tilde{\sigma}^2$. Puisque nous divisons cependant par$n_1$ et $n_2$, $\widehat{S.E.}(s_1-s_2)$ deviendra très petit à mesure que la taille de l'échantillon augmente, et par conséquent $\hat{Z}$ deviendra grand, de sorte que nous rejetterons encore souvent correctement la valeur nulle.
Par conséquent, l'une ou l'autre procédure peut être justifiée par des motifs asymptotiques. Ce qui est meilleur dans les échantillons finis est une autre question (qui est souvent abordée via des études de simulation).
Voici une illustration (code ci-dessous) que les deux variantes correspondent à la distribution nulle théorique (et sont proches de la $Z$ version que nous pouvons calculer à titre d'illustration lorsque nous connaissons les vraies valeurs dans une simulation) sous la valeur nulle.
En jouant avec les valeurs vraies sigma1
et sigma2
vous pouvez également illustrer que les tests ont également tous de la puissance, c'est-à-dire qu'ils ont des distributions différentes de la normale standard si le nul est faux

Code:
Zhat <- function(x1, x2){
n1 <- length(x1)
n2 <- length(x2)
s1 <- sd(x1)
s2 <- sd(x2)
s <- sd(c(x1,x2)) # pooled estimate
Zhat <- (s1-s2)/sqrt(s1^2/(2*n1)+s2^2/(2*n2))
Zhat.pooled <- (s1-s2)/sqrt(s^2*(1/(2*n1)+1/(2*n2)))
Z <- (s1-s2)/sqrt(sigma1^2/(2*n1)+sigma2^2/(2*n2)) # as we know true values in this illustration, we may plug them in, too
return(list(Zhat, Zhat.pooled, Z))
}
sigma1 <- 1
sigma2 <- 1
n1 <- 40
n2 <- 60
MC.function <- function(sigma1, sigma2, n1, n2){
x1 <- rnorm(n1, sd=sigma1)
x2 <- rnorm(n2, sd=sigma2)
Zhat(x1, x2)
}
MC <- replicate(10000, MC.function(sigma1, sigma2, n1, n2))
plot(density(unlist(MC[1,])), lwd=2, col="blue", main="simulated null distributions", ylim=)
lines(density(unlist(MC[2,])), lwd=2, col="salmon")
lines(density(unlist(MC[3,])), lwd=2, col="green")
x <- seq(-4,4,by=0.1)
lines(x, dnorm(x), lwd=2, col="brown")
PS: Fondamentalement, la même idée est discutée ces fils: T-test pour la distribution de Bernoulli - Données d'échantillon ou de population pour le calcul SE? Quelle estimation de variance utiliser pour un test de Wald?