Définition de l'extrême de la statistique de test et définition $p$-valeur pour un test bilatéral
Notre définition de balise du $p$-valeur dit
Dans les tests d'hypothèses fréquentistes, le $p$-valeur est la probabilité d'un résultat aussi extrême (ou plus) que le résultat observé, sous l'hypothèse que l'hypothèse nulle est vraie.
Mais comment définir ce qui est plus extrême ? Dans "Un dialogue entre un enseignant et un élève réfléchi" , @whuber montre que l' extrême peut être défini par rapport au rapport de vraisemblance sous$H_0$ contre. $H_1$ (ou $H_A$ dans la notation originale), $LR=\frac{P(data|H_1)}{P(data|H_0)}$. Plus le LR est grand, plus le résultat est extrême. Jusqu'ici tout va bien.
Dans l'exemple de @ whuber, $H_0$est unilatéral , tout comme$H_1$. Ensuite, il n'est pas si difficile de trouver quelles régions de valeurs de la statistique de test produisent les plus grands LR. Ainsi, nous avons peu de difficulté conceptuelle à trouver le$p$-valeur; nous intégrons simplement l'aire sous la distribution nulle pour toutes les valeurs possibles de la statistique de test qui sont égales ou plus extrêmes (ont un LR égal ou supérieur) à la valeur observée.
Cependant, il n'est pas si clair quand$H_1$est recto - verso , comme dans un recto-verso$t$-tester. Alors que la queue gauche de la distribution nulle produirait les plus grands LR pour une alternative à la gauche de la valeur hypothétique dans$H_0$, la queue gauche ne serait pas du tout extrême pour une alternative à la droite de$H_0$; en fait, ce serait la queue opposée qui serait extrême. Le problème est que les deux alternatives appartiennent à$H_1$.
Q: Comment gérons-nous une telle situation? Quelle est la manière raisonnée de définir l'extrême lorsque des niveaux contradictoires de LR peuvent survenir dans différents cas$H_1$?
PS J'ai déjà posé une question connexe de savoir si$p$-valeur dépend toujours de l'alternative. J'ai appris qu'en utilisant la définition moderne (post Fisher) du$p$-valeur, c'est le cas.
Réponses
Outre les scénarios de tests bilatéraux, cette question se pose de manière moins évitable dans les essais cliniques séquentiels de groupe.
Dans un essai séquentiel de groupe, il existe un ensemble de temps d'analyse et une limite d'arrêt spécifiant des seuils à chaque analyse pour l'arrêt de l'essai. En calculant$p$-valeurs ou intervalles de confiance, il est nécessaire de spécifier un ordre des résultats possibles. Par exemple, si vous vous arrêtez au temps 2 sur 4 avec un$Z$-score de 3, comment cela se compare-t-il à l'arrêt au temps 3 avec un $Z$-un score de 2,5?
Parmi les commandes réellement proposées, on trouve
- ordre par l'ampleur de la différence
- ordre par heure, de sorte que tout arrêt à une heure antérieure soit plus extrême que tout arrêt à une heure ultérieure
Ce sont de véritables choix; différentes personnes pourraient légitimement choisir des commandes différentes. Le classement en fonction de l'ampleur de la différence a tendance à conduire à des intervalles de confiance plus étroits, à des valeurs p plus précises et à moins de biais, mais il augmente la sensibilité de l'analyse aux moments (non observables) auxquels les analyses futures d'un essai arrêté auraient eu lieu.
( Référence : cours abrégé de Kittleson et Gillen)
Définition de l'extrême de la statistique de test et définition de la valeur p pour un test bilatéral ...
Je suggérerais qu'une perspective appropriée ici est que, quand on a la «bonne» statistique, la statistique elle-même vous dit ce que «l'extrême» signifie pour le problème de test en cours - unilatéral ou bilatéral. La question la plus fondamentale est donc de savoir quelle est la «bonne» statistique. Les problèmes de test sont des cas particuliers de problèmes d'optimisation - vous voulez maximiser la puissance soumise à des contraintes de taille. Cela signifie donc définir le concept de «bonne» solution.
Par exemple, trouver le test le plus puissant pour le problème de test avec une alternative simple à null ou simple est un cas particulier d'un programme linéaire: $$ \sup_{0 \leq \phi \leq 1, \, \\ \\ \int \phi(\omega) f_0(\omega) d\mu \leq \alpha} \int \phi(\omega) f_1(\omega) d\mu. $$ C'est un fait général qu'une solution $\phi^*$car un tel programme prend la forme $$ \phi^* = \begin{cases} 1 & \text{if } f_1 \geq k f_0 \\ 0 & \text{if } f_1 \geq k f_0, \end{cases} $$ pour certains $k$. Dans le contexte d'un problème de test, une interprétation naturelle est alors que l'on rejette lorsque la statistique du rapport de vraisemblance$\frac{f_1}{f_0}$ est plus grand que $k$.
(Il est suggéré dans les commentaires que le seuil $k$est interprété comme le «prix fictif» de la contrainte de taille. Apparemment, cette terminologie est empruntée à l'économie.$k$est le multiplicateur de Kuhn-Tucker-Lagrange du problème. Pour les solutions intérieures, on dirait généralement que si$\alpha$--- le budget, en cas de problèmes économiques --- est assoupli par $\epsilon$, la puissance du test augmente de $k \epsilon$. Cette interprétation, cependant, ne vaut pas vraiment pour les programmes linéaires en général.)
De même, trouver le test le plus puissant de l'alternative composite nulle par rapport à une alternative simple revient à résoudre un programme linéaire. La solution du programme dual correspondant nous indique que la statistique la plus puissante est une statistique de rapport de vraisemblance par rapport au prior bayésien le moins favorable sur la valeur nulle. (Le cas nul simple est un cas particulier, avec un a priori trivial.)
Les tests avec des alternatives unilatérales pour les modèles avec une propriété de rapport de vraisemblance monotone (MLR) sont bien sûr un autre exemple. MLR signifie que le modèle admet un classement des rapports de vraisemblance qui est invariant par rapport aux données$\omega$. Le test du rapport de vraisemblance est donc le test le plus puissant, presque par hypothèse.
Pour les alternatives bilatérales, par ex. $\Gamma_0 = \{\gamma_0\}$ et $\Gamma_1 = (-\infty,\gamma_0)\cup (\gamma_0, \infty)$ pour des densités normales paramétrées par la moyenne $\gamma \in \mathbb{R}$, le test le plus puissant n'existe pas en général. Par conséquent, la bonne statistique doit être déterminée par un autre critère - par exemple, on peut plutôt rechercher un test localement plus puissant .
Un examen $\phi^*$ est un test localement le plus puissant si pour tout autre test $\phi$, il existe un quartier ouvert $N_{\gamma_0, \phi}$ de l'hypothèse nulle telle que $\phi^*$ a une puissance uniformément plus élevée que $\phi$ sur $N_{\gamma_0, \phi}$. La condition d'optimalité correspondante du premier ordre donne le critère $$ \phi^* = \begin{cases} 1 & \text{if } \frac{\partial^2}{\partial \gamma^2}f_{\gamma_0} \geq k_1 \frac{\partial}{\partial \gamma} f_{\gamma_0} + k_2 f_{\gamma_0} \\ 0 & \text{if } \frac{\partial^2}{\partial \gamma^2}f_{\gamma_0} < k_1 \frac{\partial}{\partial \gamma} f_{\gamma_0} + k_2 f_{\gamma_0} \end{cases} $$ pour certains $k_1$ et $k_2$. En remplaçant la densité normale dans les expressions ci-dessus, nous avons que$\phi^*$ rejette quand $|x- \gamma_0|$ est grand --- un test bilatéral.