Différence de proportions à deux échantillons: pourquoi l'estimation de l'erreur standard n'est-elle pas un problème de normalité?
Tout d'abord, cela semble être une question très courante, mais je vous promets que j'ai cherché pendant longtemps dans d'autres articles similaires et que je n'ai pas tout à fait trouvé une solution qui semble apporter une réponse. ( Ceci et cela sont très proches, mais je ne pense pas non plus qu'il y réponde tout à fait!).
Je serai très complet pour expliquer ma confusion, en la comparant d'abord au cas de proportion à un échantillon. Nous pourrions tester si la vraie proportion$p$ équivaut à une certaine valeur $c$.
$H_0: p = c.$
$H_A: p \neq c.$
Pour $np$ et $n(1-p)$ suffisamment grand, l'approximation binomiale de la normale nous donne $\hat{p} \sim N(p, p(1-p)/n)$. Ainsi, lorsque nous calculons la statistique de test,$Z := \frac{\hat{p} - c}{\sqrt{c(1-c)/n}}.$Sous l'hypothèse nulle, cela est distribué comme une norme standard. Surtout, nous n’estimons pas l’erreur type - elle est déterminée par l’hypothèse nulle!
Maintenant, nous considérons plutôt le cas à deux échantillons, où nous voulons exécuter un test d'hypothèse sur la différence de proportions.
$H_0: p_1 - p_2 = 0.$
$H_A: p_1 - p_2 \neq 0.$
La même approximation binomiale nous donne $\hat{p}_i \sim N(p_i, p_i(1-p_i)/n_i)$, $i=1,2$. Puis si$\tilde{p}$ est la proportion mise en commun ($\hat{p} = (x_1 + x_2)/(n_1+n_2)$), Je sais que notre statistique de test est donnée par $Z := \frac{\hat{p}_1 - \hat{p}_2}{\sqrt{\tilde{p}(1-\tilde{p})(1/n_1 + 1/n_2)}}.$
C'est la partie cruciale que je ne suis pas. Dans le cas à un échantillon, nous n'avons pas estimé l'erreur standard - elle était déterminée par la valeur nulle. Par conséquent, il est logique de citer la norme standard. Dans le cas de deux échantillons, nous ne devons estimer l'erreur - type, en utilisant notre proportion mis en commun! Donc, fondamentalement, ne devrions-nous pas avoir à faire une sorte d'ajustement pour refléter cela? (Ie, comme ce que nous faisons avec un test t).
Alors, comment puis-je expliquer cela? Pourquoi pouvons-nous encore citer la normale standard, même si nous utilisons une estimation basée sur des données pour son erreur standard?
Bien que la question soit analogue à celle d'un test t, je comprends pourquoi nous ne pouvons pas simplement utiliser un test t (nous n'avons pas les autres hypothèses remplies). Ma meilleure tentative de réponse à ce jour est simplement:
"Oui, nous estimons l'erreur standard, mais cette approximation est simplement engloutie par notre approximation normale d'origine du binôme, parce que cela ne fonctionne de toute façon qu'à des degrés de liberté élevés"?
Y a-t-il une meilleure explication à cela? Il se sent intuitive que certains ajustement serait nécessaire, mais nous ne faisons pas.
Pour une brève explication de la raison pour laquelle les deux liens que j'ai cités semblaient ne pas couvrir tout cela ...
La réponse de @glen_b est très bonne et explique clairement pourquoi les hypothèses théoriques requises pour un test t ne tiendraient pas ici. Cependant, je ne vois pas cela expliquer ce problème exact. Il mentionne à la fois des tests de proportion à un et deux échantillons, et ma confusion est qu'ils ne se sentent pas identiques sur ce front. Mais cela aide à éclairer ma meilleure estimation ci-dessus, à savoir que pour des tailles d'échantillon suffisamment grandes pour notre approximation de normalité, l'estimation de l'erreur standard n'est fondamentalement pas pertinente.
De même, @ whuber montre très clairement (avec des graphiques) comment la distribution Student -t ne se rapproche pas mieux de notre statistique de test (pour une taille d'échantillon modérée) que la simple normale standard.
Donc, je comprends pourquoi la distribution student-t n'est pas un meilleur choix ici. Mais ma confusion persistante est simplement: même si l'étudiant n'est pas la bonne solution, quelle est la meilleure façon de décrire pourquoi nous ne fournissons aucune sorte d'ajustement ici? Je vois le cas d'un échantillon et de deux échantillons décrits de manière équivalente - "c'est normal parce que la variance est déterminée par la moyenne". Mais les cas semblent très différents - dans l'un, nous estimons l'erreur standard, dans l'autre, nous ne le faisons pas. La réponse est-elle simplement "une fois que nous approchons déjà la différence de proportion binomiale avec une normale, l'estimation de l'erreur standard est triviale par rapport à cette approximation, nous pouvons donc l'ignorer"?
Réponses
Comme dans la réponse à laquelle vous créez un lien, vous utilisez à nouveau le théorème de Slutsky , en particulier la troisième forme (ratio) sur le lien Wikipédia.
Si vous écrivez $Z_n$ comme $X_n/Y_n$ où
$$X_n = \frac{\hat{p}_1 - \hat{p}_2}{\sqrt{p_0(1-p_0)(1/n_1 + 1/n_2)}}$$
$$Y_n = \frac{\sqrt{\tilde{p}(1-\tilde{p})}}{\sqrt{p_0(1-p_0)}}$$
où $p_0$ est la proportion de population commune sous la valeur nulle et $n_1$ et $n_2$ augmenter proportionnellement * (ou, alternativement en laissant $n$ être le plus petit de $n_1$ et $n_2$ à la place) alors le théorème devrait s'appliquer, et $Y_n$ converge vers $1$, de sorte que $n\to\infty$ la séquence $Z_n$ converge vers la même distribution $X_n$ fait (c'est-à-dire à la distribution normale standard).
* cette partie pourrait être formalisée, de plusieurs manières similaires possibles, reliant une séquence de $n_1$ et $n_2$ valeurs à $n$ tout en les tenant en proportion