¿Cómo se ha calculado este posterior vía marginación?

Aug 20 2020

Estoy leyendo un artículo, y tiene un modelo generativo muy simple, que está representado por esto

.

Sin embargo, calculan la P posterior (A | X) de una manera que no entiendo. No parece una reformulación de la regla de Bayes, pero tal vez me equivoque. Soy un novato de la probabilidad, así que podría serlo.

. Están marginando sobre W, pero no entiendo cómo esto produce la parte posterior. ¿Cómo obtuvieron esta fórmula? ¿Como funciona?

Asimismo, luego calculan el P(W|X) posterior

. Esto se ve similar pero idéntico, porque ahora están marginando a A, incluido p(A), mientras que antes, cuando se marginaba a W, no había p(W) involucrada. ¿Es este el mismo método?

He estudiado sobre la marginación y no puedo juntar las piezas. Del mismo modo, estoy familiarizado con la regla de Bayes, pero no puedo ver cómo se utiliza aquí. ¿Alguien puede ayudarme con una explicación?

¡Gracias!

Respuestas

2 GrahamKemp Aug 20 2020 at 09:24

Comenzamos con la regla de Bayes, pero usamos un símbolo de proporcionalidad ($\propto$), en lugar de una igualdad ($=$). (La constante de proporcionalidad es, por supuesto,$\mathsf P(X=x)^{-1}$.)

$$\begin{align}\mathsf P(A\mid X=x)&=\mathsf P(X=x,A)/\mathsf P(X=x)\\[1ex]&\propto \mathsf P(X=x,A)\end{align}$$

A continuación, por Ley de Probabilidad Total.

$$\begin{align}\mathsf P(A\mid X=x)&\propto\sum_{W}\mathsf P(X=x,W,A)\end{align}$$

El resto es factorización del DAG y distribución del factor común.

$$\begin{align}\mathsf P(A\mid X=x)&\propto\sum_{W}\mathsf P(X=x\mid W)\mathsf P(W\mid A)\mathsf P(A)\\[1ex]&\propto\mathsf P(A)\sum_{W}\mathsf P(X=x\mid W)\mathsf P(W\mid A)\end{align}$$


Y de la misma manera

$$\begin{align}\mathsf P(W\mid X=x)&=\mathsf P(X=x,W)/\mathsf P(X=x)\\&\propto \mathsf P(X=x,W)\\&\propto \sum_A\mathsf P(X=x,W,A)\\&\propto\sum_A\mathsf P(X=x\mid W)\mathsf P(W\mid A)\mathsf P(A)\end{align}$$