Transformation de la distribution antérieure en inférence pour le paramètre binomial N

Dec 14 2020

J'ai du mal avec la question 6 dans les Exercices du chapitre 3 (page 80) de l'analyse des données bayésiennes par Andrew Gelman.

http://www.stat.columbia.edu/~gelman/book/BDA3.pdf

Nous avons des données Y modélisées comme des données binomiales indépendantes, avec les deux $N$ et $θ$ inconnu, selon l'article de Raftery en 1988 "Inférence pour le paramètre binomial N: une approche hiérarchique de Bayes".

$Y∼Bin(N,θ)$ et

$N∼Poisson(μ)$, où $λ=μθ$

La distribution antérieure (non informative) de $λ,θ$ est $p(λ,θ) \propto λ^{-1}$

La question 6 (a) vous demande de transformer pour déterminer$p(N,θ)$.

C'est similaire à la question suivante, mais je n'ai pas pu l'utiliser pour obtenir la réponse.

Approche bayésienne: inférer le N et $\theta$ valeurs d'une distribution binomiale

Réponses

1 Pohoua Dec 14 2020 at 17:21

Voici ce que j'ai obtenu (je n'en suis pas très sûr). Je pense que dans cet exercice,$N$est censé suivre une distribution de Poisson avec espérance aléatoire$\mu$. La distribution conjointe (incorrecte) de$\mu, \theta$ est défini sur la transformation $(\lambda = \mu \theta, \theta)$ par $$p(\mu, \lambda) \propto 1/\lambda .$$ Afin d'obtenir la distribution conjointe de $(\mu, \theta)$ vous auriez besoin d'utiliser le fait que $$p(\mu, \theta) = p(\lambda, \theta) \mid\det\frac{\partial(\lambda, \theta)}{\partial(\mu, \theta)}\mid$$

Ici, $\mid\det\frac{\partial(\lambda, \theta)}{\partial(\mu, \theta)}\mid = \theta$ telle que la mauvaise distribution de $(\mu, \theta)$ est $p(\mu, \theta) \propto 1 / \mu$ donc le prieur est: $$\begin{array}{lcl} p(\mu) &\propto & 1 / \mu\\ N & \sim & \mathcal{P}(\mu) \\ \theta & \sim & \mathcal{U}([0, 1]) \end{array}$$