Usando effetti casuali per regolare il livello di confusione a livello di cluster?

Aug 19 2020

Esiste un utilizzo di intercettazioni casuali per regolare la confusione a livello di cluster non osservata, come ad esempio sostenuto qui:

Gli effetti casuali sono variabili di confusione?

In che modo gli effetti casuali si adattano alla confusione in un modello?

Sulla base di questi consigli ed esempi tratti dalla letteratura in uno spirito simile, si potrebbe immaginare che gli effetti casuali possano essere utilizzati per la regolazione in un DAG come questo, dove c'è un confondente inosservato a livello di cluster :

Ad esempio, immagina uno studio clinico in cui gli ospedali differiscono nella loro propensione ad arruolare pazienti ad alto rischio (più probabilità di sperimentare l'esito avverso) e anche nella loro propensione a somministrare il trattamento in studio, a causa di una caratteristica strutturale non osservata.

D'altra parte , un presupposto fondamentale dei modelli a effetti casuali è che il predittore (qui: Trattamento) non è correlato con le intercettazioni casuali, vedere ad esempio Verbeek (2008):

"... potrebbe essere così $𝛼_i$ [effetti casuali] e $x_{it}$[predittore] sono correlati, nel qual caso l'approccio degli effetti casuali, ignorando questa correlazione, porta a stimatori incoerenti. Abbiamo visto un esempio di questo in precedenza, dove$𝛼_i$inclusa la qualità della gestione ed è stato ritenuto correlato con gli altri input inclusi nella funzione di produzione. Il problema della correlazione tra i singoli effetti$𝛼_i$ e le variabili esplicative in $x_{it}$ può essere gestito utilizzando l'approccio degli effetti fissi, che essenzialmente elimina il $𝛼_i$ dal modello, eliminando così tutti i problemi che possono causare. "

o Setodji e Shwartz (2013):

"... basano la loro scelta del tipo di modello sul fatto che variabili omesse invarianti nel tempo non osservate, che vengono catturate in $\phi_j$[effetti casuali], non sono correlati con il principale predittore di interesse. Se non correlati (un'ipotesi che può essere valutata utilizzando il test di Hausman), i modelli a effetti casuali sono appropriati; in caso contrario, vengono utilizzati modelli ad effetto fisso. "

Se, per definizione, un fattore di confondimento è correlato all'esposizione, e i modelli a effetti casuali presumono non correlazione tra effetti casuali ed esposizione, come possono essere utilizzati gli effetti casuali per aggiustare il fattore di confusione?

Riferimenti

  • Verbeek, M. (2008). Una guida all'econometria moderna. John Wiley & Sons.
  • Setodji, CM e Shwartz, M. (2013). Modelli a effetti fissi o casuali: quali sono i principali problemi di inferenza? Assistenza medica, 51 (1), 25-27.

Risposte

5 RobertLong Aug 19 2020 at 21:59

Il problema delle ipotesi è che esistono per essere violate. È raro, se non impossibile, negli studi osservazionali che 2 variabili abbiano una correlazione pari a zero. La correlazione è prevista, anche se è dovuta solo a campionamento casuale e non a fattori di confusione oa qualche altro meccanismo causale. Le domande interessanti sono: fino a che punto un'ipotesi è voluta e quanto è robusto un particolare modello a tali violazioni. Il primo punto è soggettivo e quest'ultimo può essere abbastanza difficile da stabilire in tutti i modelli tranne che semplici. Come al solito la simulazione può essere tua amica, quindi diamo un'occhiata usando il tuo esempio:

Qui simuleremo i dati in modo che il confondente Xsia altamente correlato con l'esposizione E, con correlazioni comprese tra 0,5 e 0,95

set.seed(15)
N <- 100
n.sim <- 100
simvec.E <- numeric(n.sim)
rhos <- seq(0.5, 0.95, by = 0.05)
simvec.rho <- numeric(length(rhos))

for (j in 1:length(rhos)) {

  Sigma = matrix(c(1, rhos[j], rhos[j], 1), byrow = TRUE, nrow = 2)

  for(i in 1:n.sim) {
    dt <- data.frame(mvrnorm(N, mu = c(0,0), Sigma = Sigma, empirical = TRUE))  

    # put them on a bigger scale, so it's easy to create the group factor
    dt1 <- dt + 5
    dt1 <- dt1 * 10
  
    X <- as.integer(dt1$X1) E <- dt1$X2

    Y <- E + X + rnorm(N)  # so we expect estimate for E that we want to recover is 1
  
    X <- as.factor(X) 
    lmm <- lmer(Y ~ E + (1|X))
    simvec.E[i] <- summary(lmm)$coef[2]
  }
  simvec.rho[j] <- mean(simvec.E)
}

ggplot(data.frame(rho = rhos, E = simvec.rho), aes(x = rho, y = E)) + geom_line()

Questo produce:

Quindi, sì, c'è qualche bias introdotto quando la correlazione diventa grande, ma a correlazioni inferiori a 0,85 circa, questo è abbastanza trascurabile. In altre parole, il modello misto sembra abbastanza robusto. Si noti che il modo in cui ho simulato il fattore di raggruppamento qui porta a dimensioni dei cluster piuttosto piccole. L'aumento Nporterà a cluster più grandi, anche se questo richiede più tempo per funzionare, ovviamente. Con N <- 1000ottengo:

che è un notevole miglioramento. Ovviamente potremmo anche esaminare gli errori standard e altre dimensioni / design del campione, pendenze casuali ecc., Ma lo lascerò per un altro giorno.

Con dati reali in cui è sorto questo problema, vorrei sempre confrontare un modello a effetti fissi oltre a effetti casuali.

Student Oct 09 2020 at 23:45

Un modello a effetti casuali non controlla l' eterogeneità invariante non osservata a livello di unità ($\alpha_i$nel tuo estratto da Verbeek). Se la tua intenzione è fare affermazioni causali dal modello e hai motivi per crederlo$\alpha_i$è correlato con la variabile causale di interesse, il tuo modello sarà rifiutato dalla comunità scientifica perché non è la migliore evidenza possibile sulla questione. Perché? Perché se puoi eseguire un modello a effetti casuali, significa che hai più osservazioni per la stessa unità. In una situazione del genere, puoi facilmente adattarti$\alpha_i$ e quindi non hai prodotto le migliori prove possibili per la domanda in esame.

Per correggere le idee, supponi che i tuoi modelli siano: $y_{it} = \beta_0 + B_1 X_{it} + \beta_2 D_{it} + \alpha_i + \epsilon_{it}$

Assumilo $i$ rappresenta l'unità e $t$ rappresenta il periodo di tempo, $y_{it}$ è il risultato osservato per l'unità $i$ alla volta $t$, $X_{it}$ è un vettore di covariate, $D_{it}$ è la variabile causale, che varia nel tempo per alcune unità, e $\alpha_i$è l'eterogeneità non osservata invariante nel tempo. La quantità che ci interessa stimare è$\beta_2$, che è l'effetto del trattamento. Inoltre, presumilo$\alpha_i$ è correlato con $D_{it}$. Una soluzione semplice per$\alpha_i$ è prendere la differenza tra due osservazioni per ciascuna unità e usarla per stimare il modello (questa volta senza $\alpha_i$, che viene differenziato).

$\Delta y_{it} = B_1 \Delta X_{it} + \beta_2 \Delta D_{it} + \Delta \epsilon_{it}$

Ora possiamo stimare costantemente $\beta_2$ supponendo che non abbiamo alcun condizionamento confondente non misurato su $X$. Il costo per la prima differenziazione è la perdita di osservazioni ma otteniamo che il guadagno supera di gran lunga il costo.