Definizione di estremi della statistica del test e definizione $p$-valore per un test bilaterale

Aug 19 2020

La nostra definizione di tag di $p$-valore dice

Nel test di ipotesi frequentista, il $p$-valore è la probabilità di un risultato estremo (o maggiore) del risultato osservato, assumendo che l'ipotesi nulla sia vera.

Ma come definire ciò che è più estremo ? In "A Dialog Between a Teacher and a Thoughtful Student" , @whuber mostra che l' estremo può essere definito rispetto al rapporto di verosimiglianza in$H_0$ vs. $H_1$ (o $H_A$ nella notazione originale), $LR=\frac{P(data|H_1)}{P(data|H_0)}$. Più grande è l'LR, più estremo sarà il risultato. Fin qui tutto bene.

Nell'esempio di @ whuber, $H_0$è unilaterale , e così è$H_1$. Quindi non è così difficile trovare quali regioni di valori della statistica test producono gli LR più grandi. Quindi abbiamo pochi problemi concettuali nel trovare il file$p$-valore; integriamo semplicemente l'area sotto la distribuzione nulla per tutti i possibili valori della statistica del test che sono ugualmente o più estremi (hanno LR uguale o maggiore) del valore osservato.

Tuttavia, non è così chiaro quando$H_1$è a due lati , ad esempio a due lati$t$-test. Mentre la coda sinistra della distribuzione nulla produrrebbe gli LR più grandi per un'alternativa alla sinistra del valore ipotizzato in$H_0$, la coda sinistra non sarebbe affatto estrema per un'alternativa alla destra di$H_0$; in effetti, sarebbe la coda opposta che sarebbe estrema. Il problema è che entrambe le alternative appartengono$H_1$.

D: Come affrontiamo una situazione del genere? Qual è il modo di principio di definire l'estremità quando livelli contraddittori di LR possono sorgere in diversi casi all'interno$H_1$?

PS In precedenza ho posto una domanda correlata se$p$-il valore dipende sempre dall'alternativa. L'ho imparato usando la definizione moderna (post Fisher) di$p$-valore, lo fa.

Risposte

1 ThomasLumley Aug 19 2020 at 07:45

Oltre agli scenari nei test bilaterali, questa domanda si pone in un modo meno evitabile negli studi clinici sequenziali di gruppo.

In una prova sequenziale di gruppo sono presenti una serie di tempi di analisi e un limite di arresto che specifica le soglie a ciascuna analisi per l'arresto della prova. Nel calcolo$p$-valori o intervalli di confidenza è necessario specificare un ordinamento dei possibili risultati. Ad esempio, se ti fermi al tempo 2 su 4 con a$Z$-punteggio di 3, come si confronta con l'arresto al tempo 3 con a $Z$-punteggio di 2,5?

Tra gli ordinamenti attualmente proposti ci sono

  • ordinamento in base all'entità della differenza
  • ordinare in base al tempo, in modo che qualsiasi arresto in un momento precedente sia più estremo di qualsiasi arresto in un momento successivo

Queste sono scelte genuine; persone diverse potrebbero legittimamente scegliere ordini diversi. L'ordinamento in base all'entità della differenza tende a portare a intervalli di confidenza più stretti, valori p più accurati e meno bias, ma aumenta la sensibilità dell'analisi ai tempi (non osservabili) in cui si sarebbero verificate le analisi future di uno studio interrotto.

( Riferimento : corso breve di Kittleson e Gillen)

1 Michael Sep 10 2020 at 01:17

Definizione dell'estremità della statistica del test e definizione del valore p per un test bilaterale ...

Vorrei suggerire che una prospettiva appropriata qui sia che, quando si ha la statistica "giusta", la statistica stessa ti dice cosa significa "estrema" per il problema del test in questione - unilaterale o bilaterale. La domanda più basilare è quindi quale sia la statistica "giusta". I problemi di test sono casi speciali di problemi di ottimizzazione: si desidera massimizzare la potenza soggetta a vincoli di dimensione. Quindi questo significa definire il concetto di soluzione "giusta".

Ad esempio, trovare il test più potente per il problema del test con una semplice alternativa nulla rispetto a semplice è un caso speciale di un programma lineare: $$ \sup_{0 \leq \phi \leq 1, \, \\ \\ \int \phi(\omega) f_0(\omega) d\mu \leq \alpha} \int \phi(\omega) f_1(\omega) d\mu. $$ È un fatto generale che una soluzione $\phi^*$poiché qualsiasi programma di questo tipo assume la forma $$ \phi^* = \begin{cases} 1 & \text{if } f_1 \geq k f_0 \\ 0 & \text{if } f_1 \geq k f_0, \end{cases} $$ per alcuni $k$. Nel contesto di un problema di test, un'interpretazione naturale è quindi quella che si rifiuta quando la statistica del rapporto di verosimiglianza$\frac{f_1}{f_0}$ è maggiore di $k$.

(Si suggerisce nei commenti che la soglia $k$viene interpretato come il "prezzo ombra" del vincolo di dimensione. Apparentemente questa terminologia è presa in prestito dall'economia.$k$è il moltiplicatore di Kuhn-Tucker-Lagrange del problema. Per le soluzioni interne, in genere si direbbe che se$\alpha$--- il budget, nei problemi economici --- è rilassato $\epsilon$, la potenza del test aumenta di $k \epsilon$. Questa interpretazione, tuttavia, non vale per i programmi lineari in generale.)

Allo stesso modo, trovare un test più potente di null composito rispetto a un'alternativa semplice equivale a risolvere un programma lineare. La soluzione al programma duale corrispondente ci dice che la statistica più potente è una statistica del rapporto di verosimiglianza rispetto alla precedente bayesiana meno favorevole sullo zero. (Il semplice caso nullo è un caso speciale, con banale precedente.)

I test con alternative unilaterali per i modelli con proprietà monotone verosimiglianza (MLR) sono ovviamente un altro esempio. MLR significa che il modello ammette una classifica dei rapporti di verosimiglianza invariante rispetto ai dati$\omega$. Quindi il test del rapporto di verosimiglianza è un test molto potente, quasi per ipotesi.

Per alternative a due lati, ad es $\Gamma_0 = \{\gamma_0\}$ e $\Gamma_1 = (-\infty,\gamma_0)\cup (\gamma_0, \infty)$ per densità normali parametrizzate dalla media $\gamma \in \mathbb{R}$, il test più potente non esiste in generale. Pertanto la statistica corretta deve essere determinata da qualche altro criterio --- ad esempio, si può invece cercare un test localmente più potente .

Un test $\phi^*$ è un test localmente più potente se per qualsiasi altro test $\phi$, esiste un quartiere aperto $N_{\gamma_0, \phi}$ dell'ipotesi nulla tale che $\phi^*$ ha una potenza uniformemente superiore a $\phi$ sopra $N_{\gamma_0, \phi}$. La corrispondente condizione di ottimalità del primo ordine fornisce il criterio $$ \phi^* = \begin{cases} 1 & \text{if } \frac{\partial^2}{\partial \gamma^2}f_{\gamma_0} \geq k_1 \frac{\partial}{\partial \gamma} f_{\gamma_0} + k_2 f_{\gamma_0} \\ 0 & \text{if } \frac{\partial^2}{\partial \gamma^2}f_{\gamma_0} < k_1 \frac{\partial}{\partial \gamma} f_{\gamma_0} + k_2 f_{\gamma_0} \end{cases} $$ per alcuni $k_1$ e $k_2$. Sostituendo la densità normale nelle espressioni precedenti, abbiamo quello$\phi^*$ rifiuta quando $|x- \gamma_0|$ è grande --- un test bilaterale.