Come è stato calcolato questo posteriore attraverso l'emarginazione?
Sto leggendo un documento, e ha un modello generativo molto semplice, che è rappresentato da questo

Però calcolano la P(A|X) posteriore in un modo che non capisco. Non sembra una riformulazione della regola di Bayes, ma forse mi sbaglio. Sono un probabile niubbo, quindi potrei esserlo.

Allo stesso modo, poi calcolano il posteriore P(W|X)

Ho studiato sull'emarginazione e non riesco a mettere insieme i pezzi. Allo stesso modo, ho familiarità con la regola di Bayes, ma non riesco a vedere come viene utilizzata qui. Qualcuno può aiutarmi con una spiegazione?
Grazie!
Risposte
Iniziamo con la regola di Bayes, ma usiamo un simbolo di proporzionalità ($\propto$), piuttosto che un'uguaglianza ($=$). (La costante di proporzionalità è, ovviamente,$\mathsf P(X=x)^{-1}$.)
$$\begin{align}\mathsf P(A\mid X=x)&=\mathsf P(X=x,A)/\mathsf P(X=x)\\[1ex]&\propto \mathsf P(X=x,A)\end{align}$$
Successivamente, per legge di totale probabilità.
$$\begin{align}\mathsf P(A\mid X=x)&\propto\sum_{W}\mathsf P(X=x,W,A)\end{align}$$
Il resto è fattorizzazione dal DAG e distribuzione del fattore comune.
$$\begin{align}\mathsf P(A\mid X=x)&\propto\sum_{W}\mathsf P(X=x\mid W)\mathsf P(W\mid A)\mathsf P(A)\\[1ex]&\propto\mathsf P(A)\sum_{W}\mathsf P(X=x\mid W)\mathsf P(W\mid A)\end{align}$$
E allo stesso modo
$$\begin{align}\mathsf P(W\mid X=x)&=\mathsf P(X=x,W)/\mathsf P(X=x)\\&\propto \mathsf P(X=x,W)\\&\propto \sum_A\mathsf P(X=x,W,A)\\&\propto\sum_A\mathsf P(X=x\mid W)\mathsf P(W\mid A)\mathsf P(A)\end{align}$$