Transformation de la distribution antérieure en inférence pour le paramètre binomial N
J'ai du mal avec la question 6 dans les Exercices du chapitre 3 (page 80) de l'analyse des données bayésiennes par Andrew Gelman.
http://www.stat.columbia.edu/~gelman/book/BDA3.pdf
Nous avons des données Y modélisées comme des données binomiales indépendantes, avec les deux $N$ et $θ$ inconnu, selon l'article de Raftery en 1988 "Inférence pour le paramètre binomial N: une approche hiérarchique de Bayes".
$Y∼Bin(N,θ)$ et
$N∼Poisson(μ)$, où $λ=μθ$
La distribution antérieure (non informative) de $λ,θ$ est $p(λ,θ) \propto λ^{-1}$
La question 6 (a) vous demande de transformer pour déterminer$p(N,θ)$.
C'est similaire à la question suivante, mais je n'ai pas pu l'utiliser pour obtenir la réponse.
Approche bayésienne: inférer le N et $\theta$ valeurs d'une distribution binomiale
Réponses
Voici ce que j'ai obtenu (je n'en suis pas très sûr). Je pense que dans cet exercice,$N$est censé suivre une distribution de Poisson avec espérance aléatoire$\mu$. La distribution conjointe (incorrecte) de$\mu, \theta$ est défini sur la transformation $(\lambda = \mu \theta, \theta)$ par $$p(\mu, \lambda) \propto 1/\lambda .$$ Afin d'obtenir la distribution conjointe de $(\mu, \theta)$ vous auriez besoin d'utiliser le fait que $$p(\mu, \theta) = p(\lambda, \theta) \mid\det\frac{\partial(\lambda, \theta)}{\partial(\mu, \theta)}\mid$$
Ici, $\mid\det\frac{\partial(\lambda, \theta)}{\partial(\mu, \theta)}\mid = \theta$ telle que la mauvaise distribution de $(\mu, \theta)$ est $p(\mu, \theta) \propto 1 / \mu$ donc le prieur est: $$\begin{array}{lcl} p(\mu) &\propto & 1 / \mu\\ N & \sim & \mathcal{P}(\mu) \\ \theta & \sim & \mathcal{U}([0, 1]) \end{array}$$