¿Por qué la distribución posterior es la misma que la función de verosimilitud cuando se utiliza una distribución previa uniforme en el análisis bayesiano?
Mientras estudiaba el análisis bayesiano, me dijeron que la distribución posterior es la misma que la función de verosimilitud si usamos una distribución previa uniforme. Tengo algunas dificultades para entender por qué es así. Estoy haciendo referencia a una conferencia en Internet y el enlace es el siguiente:
http://www.sumsar.net/blog/2017/02/introduction-to-bayesian-data-analysis-part-one/
El conferencista muestra el teorema de Bayes para mostrar el cálculo de [pior * probabilidad] realizado en el video, pero no puedo encontrar cuándo se hace [pior * probabilidad] en el video. ¿Que me estoy perdiendo aqui?
Respuestas
El posterior es anterior$\,\times\,$probabilidad$\,\times\,$constante; la densidad uniforme es simplemente una constante y se absorbe en el otro término constante.
Tomemos como ejemplo explícito el anterior $\mathrm{uniform}(0,1)$; entonces, dado que el pdf anterior es$f(\theta) = 1$, previo$\,\times\,$probabilidad = 1$\,\times\,$probabilidad = probabilidad.
La intuición, creo, es que con el anterior empujas la distribución de los valores de los parámetros del modelo (es decir, el posterior) en la dirección que crees que es más probable. Con un a priori uniforme le da igual peso a todos los valores posibles, es decir, no está empujando en ninguna dirección. En consecuencia, lo anterior no tiene ningún efecto y se acaba con la probabilidad.