¿Afecta la hipótesis nula al error estándar?
Aquí debajo $H_0:P_1=P_2$ el error estándar se vuelve común $P$valor que se calcula a partir de una estimación combinada. Porque es el$\sigma$valor no calculado de manera similar en el siguiente? Allí bajo nulo$H_0:\sigma_1=\sigma_2$ ¿por qué no se sustituye en la fórmula de error estándar?
Respuestas
En pocas palabras: creo que el título de su pregunta puede parecer confuso para algunos lectores, pero la respuesta puede ser "sí", a una pregunta posiblemente ligeramente modificada:
"¿Es posible utilizar los valores de los parámetros especificados en la hipótesis nula para proporcionar una estimación válida de un error estándar?".
La segunda captura de pantalla (si es posible, intente evitarlos y componga el texto en TeX para hacer que el sitio sea más fácil de buscar) todavía está "incompleta" en el sentido de que el último SE aún depende de cantidades desconocidas, a saber. $\sigma_1$ y $\sigma_2$.
Por lo tanto, $S.E.(s_1-s_2)$ tendrá que ser reemplazado por algún estimador del mismo, llámelo $\widehat{S.E.}(s_1-s_2)$, para obtener una estadística de prueba , llámelo$\hat{Z}$ (recuerde que los estadísticos llaman a una estadística algo que realmente podemos calcular, que no depende de incógnitas).
Si ese estimador es consistente para $S.E.(s_1-s_2)$obtenemos, por el lema de Slutzky , $$ \hat{Z}=\frac{s_1-s_2}{\widehat{S.E.}(s_1-s_2)}=\underbrace{\underbrace{\frac{s_1-s_2}{S.E.(s_1-s_2)}}_{=Z\to_dN(0,1)}\cdot\underbrace{\frac{S.E.(s_1-s_2)}{\widehat{S.E.}(s_1-s_2)}}_{\to_p1}}_{=Z\to_dN(0,1)} $$
Ahora, puedes hacer dos cosas:
- Reemplazar $\sigma_j^2$, $j=1,2$, en $S.E.(s_1-s_2)$ con $s_j^2$. Eso resultará en un estimador consistente de$S.E.(s_1-s_2)$ ambos cuando el nulo es verdadero o no.
- Estimar un valor común $s^2$ de la muestra completa y conéctelo para ambos $\sigma_j^2$, $j=1,2$, en $S.E.(s_1-s_2)$ (una estimación "agrupada").
Para 2., si el nulo es verdadero, el resultado anterior en el segundo término de la pantalla anterior aún se mantiene y nada cambia, ya que estimar un valor común fue correcto ya que ambas poblaciones comparten la misma desviación estándar. Por lo tanto, el estadístico de prueba seguirá comportándose como una variable aleatoria normal en muestras grandes si el valor nulo es verdadero, de modo que podemos emplear los valores críticos normales para llegar a una decisión de prueba.
Ahora, si el valor nulo es falso, ¿qué "queremos" de nuestra estadística de prueba? $\hat{Z}$? Queremos que sea mayor que los valores críticos de la prueba con la mayor frecuencia posible ("alta potencia").
Ahora, el numerador, si el nulo es falso, seguramente se convertirá, con suficientes datos, en distinto de cero como $\sigma_1\neq\sigma_2$ y por lo tanto así será $s_1$ y $s_2$. En el denominador, el$\sigma_j$ el estimador agrupado ya no estimará de forma coherente $s^2$. Aún así, se puede esperar que ese estimador tienda a algún valor finito, digamos,$s^2\to \tilde{\sigma}^2$. Dado que sin embargo dividimos por$n_1$ y $n_2$, $\widehat{S.E.}(s_1-s_2)$ se volverá muy pequeño a medida que aumenta el tamaño de la muestra, y por lo tanto $\hat{Z}$ se volverá grande, por lo que a menudo seguiremos rechazando correctamente el valor nulo.
Por tanto, cualquiera de los procedimientos puede justificarse por motivos asintóticos. Cuál es mejor en muestras finitas es otra cuestión (que a menudo se aborda mediante estudios de simulación).
Aquí hay una ilustración (código a continuación) de que ambas variantes coinciden con la distribución nula teórica (y están cerca de la $Z$ versión que podemos calcular como ilustración cuando conocemos los valores verdaderos en una simulación) bajo el nulo.
Al jugar un poco con los valores verdaderos sigma1y sigma2asimismo se puede ilustrar que las pruebas también todos tienen el poder, es decir, tienen diferentes distribuciones que la normal estándar, si la hipótesis nula es falsa
Código:
Zhat <- function(x1, x2){
n1 <- length(x1)
n2 <- length(x2)
s1 <- sd(x1)
s2 <- sd(x2)
s <- sd(c(x1,x2)) # pooled estimate
Zhat <- (s1-s2)/sqrt(s1^2/(2*n1)+s2^2/(2*n2))
Zhat.pooled <- (s1-s2)/sqrt(s^2*(1/(2*n1)+1/(2*n2)))
Z <- (s1-s2)/sqrt(sigma1^2/(2*n1)+sigma2^2/(2*n2)) # as we know true values in this illustration, we may plug them in, too
return(list(Zhat, Zhat.pooled, Z))
}
sigma1 <- 1
sigma2 <- 1
n1 <- 40
n2 <- 60
MC.function <- function(sigma1, sigma2, n1, n2){
x1 <- rnorm(n1, sd=sigma1)
x2 <- rnorm(n2, sd=sigma2)
Zhat(x1, x2)
}
MC <- replicate(10000, MC.function(sigma1, sigma2, n1, n2))
plot(density(unlist(MC[1,])), lwd=2, col="blue", main="simulated null distributions", ylim=)
lines(density(unlist(MC[2,])), lwd=2, col="salmon")
lines(density(unlist(MC[3,])), lwd=2, col="green")
x <- seq(-4,4,by=0.1)
lines(x, dnorm(x), lwd=2, col="brown")
PD: Básicamente, se discute la misma idea en estos hilos: prueba T para distribución de Bernoulli: ¿datos de muestra o población para el cálculo de EE? ¿Qué estimación de la varianza usar para una prueba de Wald?