Si Z | Y ~ Bin (p, y) et Y ~ Poisson (L) alors Z ~ Poisson (p * L)? [dupliquer]
J'ai vérifié si cette question avait déjà reçu une réponse, mais à cause de la notation, c'est difficile à voir. Je lis un article qui définit les deux VR suivants$$ z \mid y \sim Binomial(\pi, y) \\ y \sim Poisson(\lambda) $$ conclut ensuite (par intégration et règle de Bayes) que $$ z \sim Poisson(\pi \cdot \lambda) \\ y - z \sim Poisson( (1 - \pi)\cdot \lambda) $$
J'ai essayé de travailler sur papier, mais comme je ne suis pas un statisticien qualifié, je ne sais pas où je me trompe. Si je veux dériver$z \sim Poisson(\pi\lambda)$, alors j'utilise la probabilité conditionnelle ie $$ p(z) = \int_y p(z, y) \,\, dy $$ où $p(z, y)$est la probabilité conjointe. En élargissant cela, j'ai$$p(z) = \int_y {y\choose z} \pi^z (1 - \pi)^{(y - z)} \frac{e^\lambda \lambda^y}{y!} \, \, dy $$ mais je suppose que je dois arriver à l'équation suivante d'une manière ou d'une autre $$p(z) = \frac{e^{\pi\lambda} (\pi\lambda)^{z}}{z!}$$mais je n'ai pas pu manipuler l'intégrale ci-dessus pour obtenir cette forme. Je ne sais pas si c'est même possible.
Réponses
Cela découle d'une théorie de distribution assez standard. Définir$Y_1 \sim \text{Poisson}(\pi \lambda)$ et $Y_2 \sim \text{Poisson}((1-\pi) \lambda)$ indépendamment, et laissez $Y = Y_1 + Y_2$ et $Z = Y_1$. Ensuite, les faits suivants sont rapidement dérivés:
$Y \sim \text{Poisson}(\lambda)$ (peut être vérifié en calculant la fonction de génération de moment).
$[Z \mid Y = y] \sim \text{Binomial}(\pi, y)$ car, en utilisant l'indépendance,
$$ f(z \mid y) = \frac{\Pr(Y_1 = z, Y_2 = y - z)}{\Pr(Y = y)} = \binom{y}{z} \pi^z (1 - \pi)^{y-z} $$
- Il est vrai par définition que $Y - Z = Y_2 \sim \text{Poisson}((1-\pi) \lambda)$ et cela $Z = Y_1 \sim \text{Poisson}(\pi \lambda)$, quels sont les résultats que vous vouliez.
Par conséquent, il existe $Z$ et $Y$ avec les propriétés que vous souhaitez, mais puisque la distribution conjointe est uniquement caractérisée par vos conditions pour $(Z,Y)$il s'ensuit que c'est vrai pour tous $Z$ et $Y$ satisfaisant vos conditions.
C'est un peu d'algèbre, mais voici mon essai
L'expression de la densité après avoir retiré les termes n'impliquant pas $y$ sont
$$ p(z) = \pi^z \exp(\lambda) \sum_{z \leq y} \binom{y}{z} (1-\pi)^{y-z} \dfrac{\lambda^y}{y!}$$
le $y!$ annule du coefficient binomial
$$ = \pi^z \dfrac{\exp(\lambda)}{z!} \sum_{{z \leq y}} (1-\pi)^{y-z} \dfrac{\lambda^y}{(y-z)!}$$
Et puisque l'index n'est que pour $0\leq y-z$, puis laissez $k=y-z$
$$ = \pi^z \dfrac{\exp(\lambda)}{z!} \sum_{k} (1-\pi)^{k} \dfrac{\lambda^{k+z}}{(k)!}$$
Simplifier davantage
$$ = (\lambda\pi)^z \dfrac{\exp(\lambda)}{z!} \sum_{k} (1-\pi)^{k} \dfrac{\lambda^{k}}{(k)!}$$
Vous remarquerez que la somme est l'expression de $\exp(\lambda - \lambda \pi)$
Et donc nous nous retrouvons avec
$$ p(z) = (\lambda \pi)^z \dfrac{\exp(-\pi\lambda)}{z!}$$
Ce que je crois signifie
$$z \sim \operatorname{Poisson}(\pi \lambda)$$
Obtenir $E(Z)$ et $Var(Z),$cela peut être considéré comme une somme aléatoire de variables aléatoires. En particulier,$Z$ est une somme d'un nombre aléatoire $Y$ de variables aléatoires de Bernoulli chacune avec probabilité de succès $\pi.$
Voici un histogramme de 100000 réalisations simulées de $Z,$ en utilisant $\lambda = 20, \pi = 0.4$ ainsi que les probabilités exactes (centres des cercles rouges) pour $\mathsf{Pois}(8).$
set.seed(2020)
lam = 20; pp = 0.4
y = rpois(10^5, lam)
z = rbinom(10^5, y, pp)
summary(z)
Min. 1st Qu. Median Mean 3rd Qu. Max.
0.000 6.000 8.000 8.001 10.000 22.000
mx = max(z); cutp = (-1:mx)+.5
hdr = "Histogram of Simulated Z with Density of POIS(8)"
hist(z, prob=T, br=cutp, col="skyblue2", main=hdr)
points(0:mx, dpois(0:mx, pp*lam), col="red")

Notes: (1) @aleshing a raison de dire qu'en raison de la discrétion, l'intégrale doit être traitée comme une somme.
(2) Dans le code R: Ne peut pas utiliser pi
pour$\pi$car c'est une constante réservée dans R. S'il y
arrive à retourner$0,$ rbinom
est programmé pour retourner $0.$
(3) Au cas où cela serait intéressant: le document du cours UNL sur la somme aléatoire de variables aléatoires .