Transformación de la distribución previa en inferencia para el parámetro N binomial
Estoy luchando con la pregunta 6 de los Ejercicios del Capítulo 3 (página 80) de Análisis de datos bayesianos de Andrew Gelman.
http://www.stat.columbia.edu/~gelman/book/BDA3.pdf
Tenemos datos Y modelados como datos binomiales independientes, con ambos $N$ y $θ$ desconocido, según el artículo de Raftery de 1988 "Inferencia para el parámetro binomial N: un enfoque jerárquico de Bayes".
$Y∼Bin(N,θ)$ y
$N∼Poisson(μ)$, dónde $λ=μθ$
La distribución previa (no informativa) de $λ,θ$ es $p(λ,θ) \propto λ^{-1}$
La pregunta 6 (a) le pide que transforme para determinar$p(N,θ)$.
Es similar a la siguiente pregunta, pero no he podido usarla para llegar a la respuesta.
Enfoque bayesiano: inferir la N y $\theta$ valores de una distribución binomial
Respuestas
Esto es lo que obtuve (no estoy muy seguro). Creo que en ese ejercicio$N$se supone que sigue una distribución de Poisson con expectativa aleatoria$\mu$. La distribución conjunta (inadecuada) de$\mu, \theta$ se define en la transformación $(\lambda = \mu \theta, \theta)$ por $$p(\mu, \lambda) \propto 1/\lambda .$$ Para obtener la distribución conjunta de $(\mu, \theta)$ necesitarías usar el hecho de que $$p(\mu, \theta) = p(\lambda, \theta) \mid\det\frac{\partial(\lambda, \theta)}{\partial(\mu, \theta)}\mid$$
Aquí, $\mid\det\frac{\partial(\lambda, \theta)}{\partial(\mu, \theta)}\mid = \theta$ tal que la distribución inadecuada de $(\mu, \theta)$ es $p(\mu, \theta) \propto 1 / \mu$ entonces el prior es: $$\begin{array}{lcl} p(\mu) &\propto & 1 / \mu\\ N & \sim & \mathcal{P}(\mu) \\ \theta & \sim & \mathcal{U}([0, 1]) \end{array}$$