Usando efeitos aleatórios para ajustar a confusão no nível do cluster?

Aug 19 2020

Há um uso de interceptações aleatórias para ajustar a confusão não observada no nível do cluster, como, por exemplo, argumentado aqui:

Os efeitos aleatórios estão confundindo as variáveis?

Como os efeitos aleatórios se ajustam para confusão em um modelo?

Com base neste conselho e exemplos da literatura em um espírito semelhante, seria de se imaginar que efeitos aleatórios podem ser usados ​​para ajuste em um DAG como este, onde há um fator de confusão não observado no nível do cluster :

Por exemplo, imagine um estudo clínico em que os hospitais diferem em sua propensão a inscrever pacientes de alto risco (mais probabilidade de experimentar o resultado adverso) e também em sua propensão a dar o tratamento em estudo, devido a uma característica estrutural não observada.

Por outro lado , uma suposição básica dos modelos de efeitos aleatórios é que o preditor (aqui: Tratamento) não está correlacionado com as interceptações aleatórias, ver por exemplo Verbeek (2008):

"... pode ser o caso de $𝛼_i$ [efeitos aleatórios] e $x_{it}$[preditor] são correlacionados, caso em que a abordagem de efeitos aleatórios, ignorando essa correlação, leva a estimadores inconsistentes. Vimos um exemplo disso anteriormente, onde$𝛼_i$incluiu a qualidade da gestão e foi considerada correlacionada com os outros insumos incluídos na função de produção. O problema da correlação entre os efeitos individuais$𝛼_i$ e as variáveis ​​explicativas em $x_{it}$ pode ser tratada usando a abordagem de efeitos fixos, que essencialmente elimina o $𝛼_i$ do modelo e, assim, elimina quaisquer problemas que possam causar. "

ou Setodji e Shwartz (2013):

"... baseie sua escolha do tipo de modelo em variáveis ​​omitidas invariantes no tempo não observadas, que são capturadas em $\phi_j$[efeitos aleatórios], não estão correlacionados com o principal preditor de interesse. Se não correlacionados (uma suposição que pode ser avaliada usando o teste de Hausman), os modelos de efeito aleatório são apropriados; caso contrário, modelos de efeito fixo são usados. "

Se, por definição, um fator de confusão está correlacionado com a exposição, e os modelos de efeitos aleatórios assumem a não correlação dos efeitos aleatórios e da exposição, como os efeitos aleatórios podem ser usados ​​para ajustar o fator de confusão?

Referências

  • Verbeek, M. (2008). Um guia para a econometria moderna. John Wiley & Sons.
  • Setodji, CM, & Shwartz, M. (2013). Modelos de efeito fixo ou efeito aleatório: quais são os principais problemas de inferência ?. Assistência médica, 51 (1), 25-27.

Respostas

5 RobertLong Aug 19 2020 at 21:59

O que acontece com as suposições é que elas existem para serem violadas. É raro, senão impossível em estudos observacionais, que 2 variáveis ​​tenham uma correlação de zero. A correlação é esperada, mesmo que seja apenas devido à amostragem aleatória e não confundir ou algum outro mecanismo causal. As questões interessantes são: em que medida uma suposição é volumosa e quão robusto é um modelo específico para tais violações. O primeiro ponto é subjetivo e o último pode ser bastante difícil de estabelecer em todos os modelos, exceto os simples. Como de costume, a simulação pode ser sua amiga, então vamos dar uma olhada usando seu exemplo:

Aqui, simularemos os dados de modo que o confundidor Xseja altamente correlacionado com a exposição E, com correlações variando de 0,5 a 0,95

set.seed(15)
N <- 100
n.sim <- 100
simvec.E <- numeric(n.sim)
rhos <- seq(0.5, 0.95, by = 0.05)
simvec.rho <- numeric(length(rhos))

for (j in 1:length(rhos)) {

  Sigma = matrix(c(1, rhos[j], rhos[j], 1), byrow = TRUE, nrow = 2)

  for(i in 1:n.sim) {
    dt <- data.frame(mvrnorm(N, mu = c(0,0), Sigma = Sigma, empirical = TRUE))  

    # put them on a bigger scale, so it's easy to create the group factor
    dt1 <- dt + 5
    dt1 <- dt1 * 10
  
    X <- as.integer(dt1$X1) E <- dt1$X2

    Y <- E + X + rnorm(N)  # so we expect estimate for E that we want to recover is 1
  
    X <- as.factor(X) 
    lmm <- lmer(Y ~ E + (1|X))
    simvec.E[i] <- summary(lmm)$coef[2]
  }
  simvec.rho[j] <- mean(simvec.E)
}

ggplot(data.frame(rho = rhos, E = simvec.rho), aes(x = rho, y = E)) + geom_line()

Isso produz:

Então, sim, existe algum viés introduzido quando a correlação se torna grande, mas em correlações abaixo de 0,85 ou mais, isso é bastante desprezível. Em outras palavras, o modelo misto parece bastante robusto. Observe que a maneira como simulei o fator de agrupamento aqui leva a tamanhos de cluster bem pequenos. O aumento Nlevará a clusters maiores, embora isso leve mais tempo para ser executado, é claro. Com N <- 1000eu recebo:

o que é uma melhoria considerável. É claro que também poderíamos olhar para os erros padrão e outros tamanhos / designs de amostra, inclinações aleatórias etc., mas deixarei isso para outro dia.

Com dados reais onde esse problema surgiu, eu sempre gostaria de comparar um modelo de efeitos fixos, bem como efeitos aleatórios.

Student Oct 09 2020 at 23:45

Um modelo de efeitos aleatórios não controla para heterogeneidade de nível de unidade invariante não observada ($\alpha_i$em seu excerto de Verbeek). Se sua intenção é fazer alegações causais do modelo e você tem razões para acreditar que$\alpha_i$estiver correlacionado com a variável causal de interesse, seu modelo será rejeitado pela comunidade científica por não ser a melhor evidência possível sobre o assunto. Por quê? Porque se você pode executar um modelo de efeitos aleatórios, isso implica que você tem várias observações para a mesma unidade. Em tal situação, você pode facilmente ajustar para$\alpha_i$ e, portanto, você não produziu a melhor evidência possível para a questão em questão.

Para corrigir ideias, suponha que seus modelos sejam: $y_{it} = \beta_0 + B_1 X_{it} + \beta_2 D_{it} + \alpha_i + \epsilon_{it}$

Assuma isso $i$ representa a unidade e $t$ representa o período de tempo, $y_{it}$ é o resultado observado para a unidade $i$ no tempo $t$, $X_{it}$ é um vetor de covariáveis, $D_{it}$ é a variável causal, que varia ao longo do tempo para algumas unidades, e $\alpha_i$é a heterogeneidade não observada invariável no tempo. A quantidade que estamos interessados ​​em estimar é$\beta_2$, que é o efeito do tratamento. Além disso, assuma que$\alpha_i$ está correlacionado com $D_{it}$. Uma solução fácil para$\alpha_i$ é pegar a diferença entre duas observações para cada unidade e usá-la para estimar o modelo (desta vez sem $\alpha_i$, que é diferenciado).

$\Delta y_{it} = B_1 \Delta X_{it} + \beta_2 \Delta D_{it} + \Delta \epsilon_{it}$

Agora, podemos estimar de forma consistente $\beta_2$ assumindo que não temos uma condição de confusão não medida $X$. O custo para a primeira diferenciação é a perda de observações, mas obtemos que o ganho supera em muito o custo.