Transformando a distribuição anterior em inferência para o parâmetro N binomial
Estou lutando com a pergunta 6 nos Exercícios do Capítulo 3 (página 80) de Análise de Dados Bayesiana de Andrew Gelman.
http://www.stat.columbia.edu/~gelman/book/BDA3.pdf
Temos os dados Y modelados como dados binomiais independentes, com ambos $N$ e $θ$ desconhecido, de acordo com o artigo de Raftery de 1988 "Inferência para o parâmetro N binomial: Uma abordagem Bayes hierárquica".
$Y∼Bin(N,θ)$ e
$N∼Poisson(μ)$, Onde $λ=μθ$
A distribuição anterior (não informativa) de $λ,θ$ é $p(λ,θ) \propto λ^{-1}$
A questão 6 (a) pede que você transforme para determinar$p(N,θ)$.
É semelhante à seguinte pergunta, mas não consegui usar isso para chegar à resposta.
Abordagem Bayesiana: inferindo o N e $\theta$ valores de uma distribuição binomial
Respostas
Aqui está o que eu tenho (não tenho muita certeza sobre isso). Eu acho que nesse exercício,$N$deve seguir uma distribuição de Poisson com expectativa aleatória$\mu$. A distribuição conjunta (imprópria) de$\mu, \theta$ é definido na transformação $(\lambda = \mu \theta, \theta)$ de $$p(\mu, \lambda) \propto 1/\lambda .$$ A fim de obter a distribuição conjunta de $(\mu, \theta)$ você precisaria usar o fato de que $$p(\mu, \theta) = p(\lambda, \theta) \mid\det\frac{\partial(\lambda, \theta)}{\partial(\mu, \theta)}\mid$$
Aqui, $\mid\det\frac{\partial(\lambda, \theta)}{\partial(\mu, \theta)}\mid = \theta$ de modo que a distribuição inadequada de $(\mu, \theta)$ é $p(\mu, \theta) \propto 1 / \mu$ então o prior é: $$\begin{array}{lcl} p(\mu) &\propto & 1 / \mu\\ N & \sim & \mathcal{P}(\mu) \\ \theta & \sim & \mathcal{U}([0, 1]) \end{array}$$