Transformación de la distribución previa en inferencia para el parámetro N binomial

Dec 14 2020

Estoy luchando con la pregunta 6 de los Ejercicios del Capítulo 3 (página 80) de Análisis de datos bayesianos de Andrew Gelman.

http://www.stat.columbia.edu/~gelman/book/BDA3.pdf

Tenemos datos Y modelados como datos binomiales independientes, con ambos $N$ y $θ$ desconocido, según el artículo de Raftery de 1988 "Inferencia para el parámetro binomial N: un enfoque jerárquico de Bayes".

$Y∼Bin(N,θ)$ y

$N∼Poisson(μ)$, dónde $λ=μθ$

La distribución previa (no informativa) de $λ,θ$ es $p(λ,θ) \propto λ^{-1}$

La pregunta 6 (a) le pide que transforme para determinar$p(N,θ)$.

Es similar a la siguiente pregunta, pero no he podido usarla para llegar a la respuesta.

Enfoque bayesiano: inferir la N y $\theta$ valores de una distribución binomial

Respuestas

1 Pohoua Dec 14 2020 at 17:21

Esto es lo que obtuve (no estoy muy seguro). Creo que en ese ejercicio$N$se supone que sigue una distribución de Poisson con expectativa aleatoria$\mu$. La distribución conjunta (inadecuada) de$\mu, \theta$ se define en la transformación $(\lambda = \mu \theta, \theta)$ por $$p(\mu, \lambda) \propto 1/\lambda .$$ Para obtener la distribución conjunta de $(\mu, \theta)$ necesitarías usar el hecho de que $$p(\mu, \theta) = p(\lambda, \theta) \mid\det\frac{\partial(\lambda, \theta)}{\partial(\mu, \theta)}\mid$$

Aquí, $\mid\det\frac{\partial(\lambda, \theta)}{\partial(\mu, \theta)}\mid = \theta$ tal que la distribución inadecuada de $(\mu, \theta)$ es $p(\mu, \theta) \propto 1 / \mu$ entonces el prior es: $$\begin{array}{lcl} p(\mu) &\propto & 1 / \mu\\ N & \sim & \mathcal{P}(\mu) \\ \theta & \sim & \mathcal{U}([0, 1]) \end{array}$$