Se Z | Y ~ Bin (p, y) e Y ~ Poisson (L) allora Z ~ Poisson (p * L)? [duplicare]
Ho verificato se a questa domanda fosse stata data una risposta prima, ma a causa della notazione è difficile da vedere. Sto leggendo un articolo che definisce i seguenti due camper$$ z \mid y \sim Binomial(\pi, y) \\ y \sim Poisson(\lambda) $$ poi conclude (per integrazione e regola di Bayes) che $$ z \sim Poisson(\pi \cdot \lambda) \\ y - z \sim Poisson( (1 - \pi)\cdot \lambda) $$
Ho provato a elaborarlo su carta, ma poiché non sono uno statistico esperto, non sono sicuro di dove sto sbagliando. Se voglio derivare$z \sim Poisson(\pi\lambda)$, quindi utilizzo la probabilità condizionale ie $$ p(z) = \int_y p(z, y) \,\, dy $$ dove $p(z, y)$è la probabilità congiunta. Espandendo questo, l'ho fatto$$p(z) = \int_y {y\choose z} \pi^z (1 - \pi)^{(y - z)} \frac{e^\lambda \lambda^y}{y!} \, \, dy $$ ma immagino di dover arrivare alla seguente equazione in qualche modo $$p(z) = \frac{e^{\pi\lambda} (\pi\lambda)^{z}}{z!}$$ma non sono stato in grado di manipolare l'integrale sopra per ottenere questo modulo. Non sono sicuro che sia possibile.
Risposte
Ciò deriva da una teoria della distribuzione abbastanza standard. Definire$Y_1 \sim \text{Poisson}(\pi \lambda)$ e $Y_2 \sim \text{Poisson}((1-\pi) \lambda)$ indipendentemente, e lascia $Y = Y_1 + Y_2$ e $Z = Y_1$. Quindi i seguenti fatti vengono rapidamente derivati:
$Y \sim \text{Poisson}(\lambda)$ (può essere verificato calcolando la funzione di generazione del momento).
$[Z \mid Y = y] \sim \text{Binomial}(\pi, y)$ perché, usando l'indipendenza,
$$ f(z \mid y) = \frac{\Pr(Y_1 = z, Y_2 = y - z)}{\Pr(Y = y)} = \binom{y}{z} \pi^z (1 - \pi)^{y-z} $$
- È vero per definizione che $Y - Z = Y_2 \sim \text{Poisson}((1-\pi) \lambda)$ e quello $Z = Y_1 \sim \text{Poisson}(\pi \lambda)$, quali sono i risultati che volevi.
Quindi, esistono $Z$ e $Y$ con le proprietà che desideri, ma poiché la distribuzione congiunta è caratterizzata in modo univoco dalle tue condizioni per $(Z,Y)$ne consegue che questo vale per tutti $Z$ e $Y$ soddisfacendo le tue condizioni.
È un po 'di algebra, ma ecco il mio tentativo
L'espressione della densità dopo aver tirato fuori i termini non coinvolge $y$ siamo
$$ p(z) = \pi^z \exp(\lambda) \sum_{z \leq y} \binom{y}{z} (1-\pi)^{y-z} \dfrac{\lambda^y}{y!}$$
Il $y!$ annulla dal coefficiente binomiale
$$ = \pi^z \dfrac{\exp(\lambda)}{z!} \sum_{{z \leq y}} (1-\pi)^{y-z} \dfrac{\lambda^y}{(y-z)!}$$
E poiché l'indice è solo per $0\leq y-z$, quindi lascia $k=y-z$
$$ = \pi^z \dfrac{\exp(\lambda)}{z!} \sum_{k} (1-\pi)^{k} \dfrac{\lambda^{k+z}}{(k)!}$$
Semplificare di più
$$ = (\lambda\pi)^z \dfrac{\exp(\lambda)}{z!} \sum_{k} (1-\pi)^{k} \dfrac{\lambda^{k}}{(k)!}$$
Noterai che la somma è l'espressione per $\exp(\lambda - \lambda \pi)$
E così finiamo con
$$ p(z) = (\lambda \pi)^z \dfrac{\exp(-\pi\lambda)}{z!}$$
Che credo significhi
$$z \sim \operatorname{Poisson}(\pi \lambda)$$
Ottenere $E(Z)$ e $Var(Z),$questo può essere visto come una somma casuale di variabili casuali. In particolare,$Z$ è la somma di un numero casuale $Y$ di variabili casuali di Bernoulli ciascuna con probabilità di successo $\pi.$
Ecco un istogramma di 100.000 realizzazioni simulate di $Z,$ utilizzando $\lambda = 20, \pi = 0.4$ insieme alle probabilità esatte (centri dei cerchi rossi) per $\mathsf{Pois}(8).$
set.seed(2020)
lam = 20; pp = 0.4
y = rpois(10^5, lam)
z = rbinom(10^5, y, pp)
summary(z)
Min. 1st Qu. Median Mean 3rd Qu. Max.
0.000 6.000 8.000 8.001 10.000 22.000
mx = max(z); cutp = (-1:mx)+.5
hdr = "Histogram of Simulated Z with Density of POIS(8)"
hist(z, prob=T, br=cutp, col="skyblue2", main=hdr)
points(0:mx, dpois(0:mx, pp*lam), col="red")

Note: (1) @aleshing è corretto che, a causa della discrezione, l'integrale dovrebbe essere trattato come una somma.
(2) Nel codice R: non è possibile utilizzare pi
per$\pi$perché è una costante riservata in R. Se y
capita di ritornare$0,$ rbinom
è programmato per tornare $0.$
(3) Nel caso sia di interesse: dispensa del corso UNL sulla somma casuale di variabili casuali .