Definición de la extremado de la estadística de prueba y definición $p$-valor para una prueba de dos caras
Nuestra definición de etiqueta del $p$-valor dice
En la prueba de hipótesis frecuentista, el $p$-valor es la probabilidad de un resultado tan extremo (o más) que el resultado observado, bajo el supuesto de que la hipótesis nula es verdadera.
Pero, ¿cómo definimos lo que es más extremo ? En "Un diálogo entre un maestro y un estudiante reflexivo" , @whuber muestra que el extremo se puede definir con la razón de probabilidad en$H_0$ vs. $H_1$ (o $H_A$ en la notación original), $LR=\frac{P(data|H_1)}{P(data|H_0)}$. Cuanto mayor sea el LR, más extremo será el resultado. Hasta aquí todo bien.
En el ejemplo de @ whuber, $H_0$es unilateral , y también lo es$H_1$. Entonces no es tan difícil encontrar qué regiones de valores del estadístico de prueba producen los LR más grandes. Por tanto, tenemos pocos problemas conceptuales para encontrar el$p$-valor; simplemente integramos el área bajo la distribución nula para todos los valores posibles del estadístico de prueba que son igual o más extremos (tienen LR igual o mayor) que el valor observado.
Sin embargo, no está tan claro cuándo$H_1$es de dos caras , como en una de dos caras$t$-prueba. Mientras que la cola izquierda de la distribución nula produciría los LR más grandes para una alternativa a la izquierda del valor hipotético en$H_0$, la cola izquierda no sería en absoluto extrema para una alternativa a la derecha de$H_0$; de hecho, sería la cola opuesta la que sería extrema. El problema es que ambas alternativas pertenecen a$H_1$.
P: ¿Cómo lidiamos con tal situación? ¿Cuál es la forma basada en principios de definir la extremada cuando los niveles contradictorios de LR pueden surgir en diferentes instancias dentro de$H_1$?
PD: anteriormente hice una pregunta relacionada sobre si$p$-El valor siempre depende de la alternativa. Aprendí que usando la definición moderna (post Fisher) de la$p$-valor, lo hace.
Respuestas
Además de los escenarios en las pruebas bilaterales, esta cuestión surge de una forma menos evitable en los ensayos clínicos secuenciales grupales.
En una prueba secuencial grupal hay un conjunto de tiempos de análisis y un límite de detención que especifica los umbrales en cada análisis para que la prueba se detenga. Al calcular$p$-valores o intervalos de confianza es necesario especificar un orden de los posibles resultados. Por ejemplo, si se detiene en el tiempo 2 de 4 con un$Z$-puntaje de 3, ¿cómo se compara eso con detenerse en el momento 3 con un $Z$-puntaje de 2.5?
Entre los ordenamientos realmente propuestos se encuentran
- ordenando por la magnitud de la diferencia
- ordenar por tiempo, de modo que cualquier parada en un momento anterior sea más extrema que cualquier parada en un momento posterior
Estas son elecciones genuinas; diferentes personas pueden elegir legítimamente diferentes pedidos. Ordenar por la magnitud de la diferencia tiende a conducir a intervalos de confianza más estrechos, valores p más precisos y menos sesgo, pero aumenta la sensibilidad del análisis a los momentos (no observables) en los que se habrían producido análisis futuros de un ensayo interrumpido.
( Referencia : curso corto de Kittleson y Gillen)
Definición del carácter extremo del estadístico de prueba y definición del valor p para una prueba de dos caras ...
Sugeriría que una perspectiva apropiada aquí es que, cuando uno tiene la estadística "correcta", la estadística en sí le dice lo que significa "extrema" para el problema de prueba en cuestión: unilateral o bilateral. Por tanto, la pregunta más básica es cuál es la estadística "correcta". Los problemas de prueba son casos especiales de problemas de optimización: desea maximizar la potencia sujeta a restricciones de tamaño. Entonces esto significa definir el concepto de solución "correcto".
Por ejemplo, encontrar la prueba más poderosa para el problema de prueba con una alternativa simple nula versus simple es un caso especial de un programa lineal: $$ \sup_{0 \leq \phi \leq 1, \, \\ \\ \int \phi(\omega) f_0(\omega) d\mu \leq \alpha} \int \phi(\omega) f_1(\omega) d\mu. $$ Es un hecho general que una solución $\phi^*$porque cualquier programa de este tipo toma la forma $$ \phi^* = \begin{cases} 1 & \text{if } f_1 \geq k f_0 \\ 0 & \text{if } f_1 \geq k f_0, \end{cases} $$ para algunos $k$. En el contexto de un problema de prueba, una interpretación natural es entonces que uno rechaza cuando el estadístico de razón de verosimilitud$\frac{f_1}{f_0}$ Es mas grande que $k$.
(Se sugiere en los comentarios que el umbral $k$se interpreta como el "precio sombra" de la restricción de tamaño. Aparentemente, esta terminología está tomada de la economía.$k$es el multiplicador de Kuhn-Tucker-Lagrange del problema. Para soluciones interiores, normalmente se diría que si$\alpha$--- el presupuesto, en problemas económicos --- se relaja por $\epsilon$, la potencia de la prueba aumenta en $k \epsilon$. Esta interpretación, sin embargo, no es válida para los programas lineales en general).
De manera similar, encontrar una prueba más poderosa de nulo compuesto versus alternativa simple equivale a resolver un programa lineal. La solución al programa dual correspondiente nos dice que el estadístico más poderoso es un estadístico de razón de verosimilitud con respecto al anterior bayesiano menos favorable en el nulo. (El caso nulo simple es un caso especial, con prior trivial).
Las pruebas con alternativas unilaterales para modelos con propiedad de razón de verosimilitud monótona (MLR) son, por supuesto, otro ejemplo. MLR significa que el modelo admite una clasificación de razones de probabilidad que es invariante con respecto a los datos$\omega$. Entonces, la prueba de razón de verosimilitud es una prueba muy poderosa, casi por suposición.
Para alternativas de dos caras, p. Ej. $\Gamma_0 = \{\gamma_0\}$ y $\Gamma_1 = (-\infty,\gamma_0)\cup (\gamma_0, \infty)$ para densidades normales parametrizadas por media $\gamma \in \mathbb{R}$, la prueba más poderosa no existe en general. Por lo tanto, la estadística correcta debe determinarse mediante algún otro criterio, por ejemplo, se puede buscar una prueba local más poderosa .
Una prueba $\phi^*$ es una prueba localmente más poderosa si para cualquier otra prueba $\phi$, existe un barrio abierto $N_{\gamma_0, \phi}$ de la hipótesis nula tal que $\phi^*$ tiene una potencia uniformemente mayor que $\phi$ en $N_{\gamma_0, \phi}$. La correspondiente condición de optimalidad de primer orden da el criterio $$ \phi^* = \begin{cases} 1 & \text{if } \frac{\partial^2}{\partial \gamma^2}f_{\gamma_0} \geq k_1 \frac{\partial}{\partial \gamma} f_{\gamma_0} + k_2 f_{\gamma_0} \\ 0 & \text{if } \frac{\partial^2}{\partial \gamma^2}f_{\gamma_0} < k_1 \frac{\partial}{\partial \gamma} f_{\gamma_0} + k_2 f_{\gamma_0} \end{cases} $$ para algunos $k_1$ y $k_2$. Sustituyendo la densidad normal en las expresiones anteriores, tenemos que$\phi^*$ rechaza cuando $|x- \gamma_0|$ es grande --- una prueba de dos caras.