Utiliser des effets aléatoires pour ajuster la confusion au niveau du cluster?

Aug 19 2020

Il y a une utilisation d'interceptions aléatoires pour ajuster la confusion au niveau du cluster non observée, comme par exemple expliqué ici:

Les effets aléatoires sont-ils des variables confondantes?

Comment les effets aléatoires s'ajustent-ils à la confusion dans un modèle?

Sur la base de ces conseils et d'exemples tirés de la littérature dans un esprit similaire, on pourrait imaginer que des effets aléatoires peuvent être utilisés pour l'ajustement dans un DAG comme celui-ci, où il existe un facteur de confusion non observé au niveau du cluster :

Par exemple, imaginez une étude clinique où les hôpitaux diffèrent dans leur propension à recruter des patients à haut risque (plus susceptibles de subir le résultat indésirable) et également dans leur propension à administrer le traitement à l'étude, en raison d'une caractéristique structurelle non observée.

D'autre part , une hypothèse de base des modèles à effets aléatoires est que le prédicteur (ici: Traitement) n'est pas corrélé avec les interceptions aléatoires, voir par exemple Verbeek (2008):

"... il se peut que $𝛼_i$ [effets aléatoires] et $x_{it}$[prédicteur] sont corrélés, auquel cas l'approche des effets aléatoires, ignorant cette corrélation, conduit à des estimateurs incohérents. Nous en avons vu un exemple précédemment, où$𝛼_i$incluait la qualité de la gestion et était en corrélation avec les autres intrants inclus dans la fonction de production. Le problème de la corrélation entre les effets individuels$𝛼_i$ et les variables explicatives dans $x_{it}$ peut être géré en utilisant l'approche des effets fixes, qui élimine essentiellement les $𝛼_i$ du modèle, et élimine ainsi tous les problèmes qu’ils pourraient causer. »

ou Setodji et Shwartz (2013):

"... basent leur choix de type de modèle sur la question de savoir si des variables non observées invariantes dans le temps, qui sont capturées dans $\phi_j$[effets aléatoires], ne sont pas corrélés avec le principal prédicteur d'intérêt. S'ils ne sont pas corrélés (hypothèse qui peut être évaluée à l'aide du test de Hausman), les modèles à effets aléatoires sont appropriés; sinon, des modèles à effets fixes sont utilisés. "

Si, par définition, un facteur de confusion est corrélé à l'exposition et que les modèles à effets aléatoires supposent que les effets aléatoires et l'exposition ne sont pas corrélés, comment les effets aléatoires peuvent-ils alors être utilisés pour corriger la confusion?

Références

  • Verbeek, M. (2008). Un guide d'économétrie moderne. John Wiley et fils.
  • Setodji, CM et Shwartz, M. (2013). Modèles à effets fixes ou à effets aléatoires: quels sont les principaux problèmes d'inférence?. Soins médicaux, 51 (1), 25-27.

Réponses

5 RobertLong Aug 19 2020 at 21:59

Le problème avec les hypothèses, c'est qu'elles sont là pour être violées. Il est rare, voire impossible dans les études observationnelles, que 2 variables aient une corrélation de zéro. Une corrélation est attendue, même si elle est uniquement due à un échantillonnage aléatoire et non à la confusion ou à un autre mécanisme causal. Les questions intéressantes sont les suivantes: dans quelle mesure une hypothèse est-elle fondée et dans quelle mesure un modèle particulier est-il robuste face à de telles violations. Le premier point est subjectif et ce dernier peut être assez difficile à établir dans tous les modèles sauf simples. Comme d'habitude, la simulation peut être votre ami, alors jetons un coup d'œil en utilisant votre exemple:

Ici, nous simulerons les données afin que le facteur de confusion Xsoit fortement corrélé à l'exposition E, avec des corrélations allant de 0,5 à 0,95

set.seed(15)
N <- 100
n.sim <- 100
simvec.E <- numeric(n.sim)
rhos <- seq(0.5, 0.95, by = 0.05)
simvec.rho <- numeric(length(rhos))

for (j in 1:length(rhos)) {

  Sigma = matrix(c(1, rhos[j], rhos[j], 1), byrow = TRUE, nrow = 2)

  for(i in 1:n.sim) {
    dt <- data.frame(mvrnorm(N, mu = c(0,0), Sigma = Sigma, empirical = TRUE))  

    # put them on a bigger scale, so it's easy to create the group factor
    dt1 <- dt + 5
    dt1 <- dt1 * 10
  
    X <- as.integer(dt1$X1) E <- dt1$X2

    Y <- E + X + rnorm(N)  # so we expect estimate for E that we want to recover is 1
  
    X <- as.factor(X) 
    lmm <- lmer(Y ~ E + (1|X))
    simvec.E[i] <- summary(lmm)$coef[2]
  }
  simvec.rho[j] <- mean(simvec.E)
}

ggplot(data.frame(rho = rhos, E = simvec.rho), aes(x = rho, y = E)) + geom_line()

Cela produit:

Donc, oui, il y a un biais introduit lorsque la corrélation devient grande, mais à des corrélations inférieures à 0,85 ou plus, c'est assez négligeable. En d'autres termes, le modèle mixte semble assez robuste. Notez que la façon dont j'ai simulé le facteur de regroupement ici conduit à des tailles de cluster assez petites. L'augmentation Nconduira à des grappes plus grandes, bien que cela prenne plus de temps à fonctionner bien sûr. Avec N <- 1000je reçois:

ce qui est une amélioration considérable. Bien sûr, nous pourrions également examiner les erreurs standard, et d'autres tailles / conceptions d'échantillon, des pentes aléatoires, etc., mais je laisserai cela pour un autre jour.

Avec des données réelles où ce problème se pose, je voudrais toujours comparer un modèle à effets fixes ainsi que des effets aléatoires.

Student Oct 09 2020 at 23:45

Un modèle à effets aléatoires ne contrôle pas l' hétérogénéité invariante non observée au niveau de l'unité ($\alpha_i$dans votre extrait de Verbeek). Si votre intention est de faire des affirmations causales à partir du modèle et que vous avez des raisons de croire que$\alpha_i$est corrélée à la variable causale d'intérêt, votre modèle sera rejeté par la communauté scientifique car ce n'est pas la meilleure preuve possible sur la question. Pourquoi? Parce que si vous pouvez exécuter un modèle à effets aléatoires, cela signifie que vous avez plusieurs observations pour la même unité. Dans une telle situation, vous pouvez facilement vous adapter$\alpha_i$ et ainsi vous n'avez pas produit la meilleure preuve possible pour la question en question.

Pour corriger les idées, supposez que vos modèles sont: $y_{it} = \beta_0 + B_1 X_{it} + \beta_2 D_{it} + \alpha_i + \epsilon_{it}$

Suppose que $i$ représente l'unité et $t$ représente la période, $y_{it}$ est le résultat observé pour l'unité $i$ au moment $t$, $X_{it}$ est un vecteur de covariables, $D_{it}$ est la variable causale, qui varie dans le temps pour certaines unités, et $\alpha_i$est l'hétérogénéité non observée invariante dans le temps. La quantité que nous souhaitons estimer est$\beta_2$, qui est l'effet du traitement. De plus, supposons que$\alpha_i$ est corrélé avec $D_{it}$. Une solution simple pour$\alpha_i$ est de prendre la différence entre deux observations pour chaque unité et de l'utiliser pour estimer le modèle (cette fois sans $\alpha_i$, qui est différenciée).

$\Delta y_{it} = B_1 \Delta X_{it} + \beta_2 \Delta D_{it} + \Delta \epsilon_{it}$

Maintenant, nous pouvons estimer de manière cohérente $\beta_2$ en supposant que nous n'avons aucune condition de confusion non mesurée $X$. Le coût de la première différenciation est la perte d'observations, mais nous obtenons que le gain dépasse de loin le coût.