¿Cómo se ha calculado este posterior vía marginación?
Estoy leyendo un artículo, y tiene un modelo generativo muy simple, que está representado por esto

Sin embargo, calculan la P posterior (A | X) de una manera que no entiendo. No parece una reformulación de la regla de Bayes, pero tal vez me equivoque. Soy un novato de la probabilidad, así que podría serlo.

Asimismo, luego calculan el P(W|X) posterior

He estudiado sobre la marginación y no puedo juntar las piezas. Del mismo modo, estoy familiarizado con la regla de Bayes, pero no puedo ver cómo se utiliza aquí. ¿Alguien puede ayudarme con una explicación?
¡Gracias!
Respuestas
Comenzamos con la regla de Bayes, pero usamos un símbolo de proporcionalidad ($\propto$), en lugar de una igualdad ($=$). (La constante de proporcionalidad es, por supuesto,$\mathsf P(X=x)^{-1}$.)
$$\begin{align}\mathsf P(A\mid X=x)&=\mathsf P(X=x,A)/\mathsf P(X=x)\\[1ex]&\propto \mathsf P(X=x,A)\end{align}$$
A continuación, por Ley de Probabilidad Total.
$$\begin{align}\mathsf P(A\mid X=x)&\propto\sum_{W}\mathsf P(X=x,W,A)\end{align}$$
El resto es factorización del DAG y distribución del factor común.
$$\begin{align}\mathsf P(A\mid X=x)&\propto\sum_{W}\mathsf P(X=x\mid W)\mathsf P(W\mid A)\mathsf P(A)\\[1ex]&\propto\mathsf P(A)\sum_{W}\mathsf P(X=x\mid W)\mathsf P(W\mid A)\end{align}$$
Y de la misma manera
$$\begin{align}\mathsf P(W\mid X=x)&=\mathsf P(X=x,W)/\mathsf P(X=x)\\&\propto \mathsf P(X=x,W)\\&\propto \sum_A\mathsf P(X=x,W,A)\\&\propto\sum_A\mathsf P(X=x\mid W)\mathsf P(W\mid A)\mathsf P(A)\end{align}$$