¿Utiliza efectos aleatorios para ajustar la confusión a nivel de grupo?

Aug 19 2020

Hay un uso de intercepciones aleatorias para ajustar la confusión a nivel de clúster no observada, como, por ejemplo, se argumenta aquí:

¿Son los efectos aleatorios las variables de confusión?

¿Cómo se ajustan los efectos aleatorios a la confusión en un modelo?

Con base en estos consejos y ejemplos de la literatura con un espíritu similar, uno podría imaginar que los efectos aleatorios se pueden usar para el ajuste en un DAG como este, donde hay un factor de confusión no observado a nivel de grupo :

Por ejemplo, imagine un estudio clínico donde los hospitales difieren en su propensión a inscribir pacientes de alto riesgo (más probabilidades de experimentar el resultado adverso) y también en su propensión a administrar el tratamiento en estudio, debido a una característica estructural no observada.

Por otro lado , un supuesto fundamental de los modelos de efectos aleatorios es que el predictor (aquí: Tratamiento) no está correlacionado con las intersecciones aleatorias, ver por ejemplo Verbeek (2008):

"... puede ser el caso que $𝛼_i$ [efectos aleatorios] y $x_{it}$[predictor] están correlacionados, en cuyo caso el enfoque de efectos aleatorios, ignorando esta correlación, conduce a estimadores inconsistentes. Vimos un ejemplo de esto anteriormente, donde$𝛼_i$incluía la calidad de la gestión y se argumentó que estaba correlacionada con los otros insumos incluidos en la función de producción. El problema de la correlación entre los efectos individuales$𝛼_i$ y las variables explicativas en $x_{it}$ puede manejarse utilizando el enfoque de efectos fijos, que esencialmente elimina la $𝛼_i$ del modelo, y así elimina los problemas que puedan ocasionar ".

o Setodji y Shwartz (2013):

"... basar su elección del tipo de modelo en si las variables omitidas invariantes en el tiempo no observadas, que se capturan en $\phi_j$[efectos aleatorios], no están correlacionados con el principal predictor de interés. Si no están correlacionados (un supuesto que se puede evaluar mediante la prueba de Hausman), los modelos de efectos aleatorios son apropiados; de lo contrario, se utilizan modelos de efectos fijos ".

Si, por definición, un factor de confusión se correlaciona con la exposición, y los modelos de efectos aleatorios asumen la falta de correlación entre los efectos aleatorios y la exposición, ¿cómo se pueden utilizar los efectos aleatorios para ajustar la confusión?

Referencias

  • Verbeek, M. (2008). Una guía de econometría moderna. John Wiley & Sons.
  • Setodji, CM y Shwartz, M. (2013). Modelos de efectos fijos o de efectos aleatorios: ¿cuáles son los problemas de inferencia clave? Atención médica, 51 (1), 25-27.

Respuestas

5 RobertLong Aug 19 2020 at 21:59

Lo que pasa con las suposiciones es que están ahí para ser violadas. Es raro, si no imposible, en estudios observacionales que 2 variables tengan una correlación de cero. Se espera una correlación, incluso si se debe solo a un muestreo aleatorio y no a factores de confusión o algún otro mecanismo causal. Las preguntas interesantes son: ¿hasta qué punto se ha vuelto un supuesto y qué tan robusto es un modelo particular para tales violaciones? El primer punto es subjetivo y el segundo puede ser bastante difícil de establecer en todos los modelos excepto en los simples. Como de costumbre, la simulación puede ser su amiga, así que echemos un vistazo usando su ejemplo:

Aquí simularemos los datos para que el factor de confusión Xesté altamente correlacionado con la exposición E, con correlaciones que van de 0.5 a 0.95

set.seed(15)
N <- 100
n.sim <- 100
simvec.E <- numeric(n.sim)
rhos <- seq(0.5, 0.95, by = 0.05)
simvec.rho <- numeric(length(rhos))

for (j in 1:length(rhos)) {

  Sigma = matrix(c(1, rhos[j], rhos[j], 1), byrow = TRUE, nrow = 2)

  for(i in 1:n.sim) {
    dt <- data.frame(mvrnorm(N, mu = c(0,0), Sigma = Sigma, empirical = TRUE))  

    # put them on a bigger scale, so it's easy to create the group factor
    dt1 <- dt + 5
    dt1 <- dt1 * 10
  
    X <- as.integer(dt1$X1) E <- dt1$X2

    Y <- E + X + rnorm(N)  # so we expect estimate for E that we want to recover is 1
  
    X <- as.factor(X) 
    lmm <- lmer(Y ~ E + (1|X))
    simvec.E[i] <- summary(lmm)$coef[2]
  }
  simvec.rho[j] <- mean(simvec.E)
}

ggplot(data.frame(rho = rhos, E = simvec.rho), aes(x = rho, y = E)) + geom_line()

Esto produce:

Entonces, sí, se introduce algún sesgo cuando la correlación se vuelve grande, pero en correlaciones por debajo de 0,85 aproximadamente, esto es bastante insignificante. En otras palabras, el modelo mixto parece bastante robusto. Tenga en cuenta que la forma en que simulé el factor de agrupación aquí conduce a tamaños de grupos bastante pequeños. El aumento Nconducirá a clústeres más grandes, aunque, por supuesto, esto lleva más tiempo en ejecutarse. Con N <- 1000yo obtengo:

que es una mejora considerable. Por supuesto, también podríamos mirar los errores estándar y otros tamaños / diseños de muestra, pendientes aleatorias, etc. pero lo dejo para otro día.

Con datos reales donde surgió este problema, siempre me gustaría comparar un modelo de efectos fijos y efectos aleatorios.

Student Oct 09 2020 at 23:45

Un modelo de efectos aleatorios no controla la heterogeneidad invariante no observada a nivel de unidad ($\alpha_i$en su extracto de Verbeek). Si su intención es hacer afirmaciones causales del modelo y tiene razones para creer que$\alpha_i$está correlacionado con la variable causal de interés, su modelo será rechazado por la comunidad científica porque no es la mejor evidencia posible sobre el tema. ¿Por qué? Porque si puede ejecutar un modelo de efectos aleatorios, implica que tiene varias observaciones para la misma unidad. En tal situación, puede ajustar fácilmente$\alpha_i$ y por lo tanto no presentó la mejor evidencia posible para la pregunta en cuestión.

Para arreglar ideas, asuma que sus modelos son: $y_{it} = \beta_0 + B_1 X_{it} + \beta_2 D_{it} + \alpha_i + \epsilon_{it}$

Asumir que $i$ representa la unidad y $t$ representa el período de tiempo, $y_{it}$ es el resultado observado para la unidad $i$ en el momento $t$, $X_{it}$ es un vector de covariables, $D_{it}$ es la variable causal, que varía con el tiempo para algunas unidades, y $\alpha_i$es la heterogeneidad no observada invariante en el tiempo. La cantidad que estamos interesados ​​en estimar es$\beta_2$, que es el efecto del tratamiento. Además, suponga que$\alpha_i$ está correlacionado con $D_{it}$. Una solución fácil para$\alpha_i$ es tomar la diferencia entre dos observaciones para cada unidad y usarla para estimar el modelo (esta vez sin $\alpha_i$, que se diferencia).

$\Delta y_{it} = B_1 \Delta X_{it} + \beta_2 \Delta D_{it} + \Delta \epsilon_{it}$

Ahora, podemos estimar constantemente $\beta_2$ asumiendo que no tenemos ninguna confusión no medida condicionada a $X$. El costo de la primera diferenciación es la pérdida de observaciones, pero obtenemos que la ganancia supera con creces el costo.