Si Z | Y ~ Bin (p, y) y Y ~ Poisson (L) entonces Z ~ Poisson (p * L)? [duplicar]
Verifiqué si esta pregunta fue respondida antes, pero debido a la notación, es difícil de ver. Estoy leyendo un artículo que define las siguientes dos casas rodantes$$ z \mid y \sim Binomial(\pi, y) \\ y \sim Poisson(\lambda) $$ luego concluye (por integración y regla de Bayes) que $$ z \sim Poisson(\pi \cdot \lambda) \\ y - z \sim Poisson( (1 - \pi)\cdot \lambda) $$
Traté de resolverlo en papel, pero como no soy un estadístico capacitado, no estoy seguro de dónde me estoy equivocando. Si quiero derivar$z \sim Poisson(\pi\lambda)$, entonces uso la probabilidad condicional, es decir $$ p(z) = \int_y p(z, y) \,\, dy $$ dónde $p(z, y)$es la probabilidad conjunta. Ampliando esto, tengo$$p(z) = \int_y {y\choose z} \pi^z (1 - \pi)^{(y - z)} \frac{e^\lambda \lambda^y}{y!} \, \, dy $$ pero supongo que tengo que llegar a la siguiente ecuación de alguna manera $$p(z) = \frac{e^{\pi\lambda} (\pi\lambda)^{z}}{z!}$$pero no pude manipular la integral anterior para obtener esta forma. No estoy seguro de si eso es posible.
Respuestas
Esto se sigue de alguna teoría de distribución bastante estándar. Definir$Y_1 \sim \text{Poisson}(\pi \lambda)$ y $Y_2 \sim \text{Poisson}((1-\pi) \lambda)$ independientemente, y dejar $Y = Y_1 + Y_2$ y $Z = Y_1$. Entonces se derivan rápidamente los siguientes hechos:
$Y \sim \text{Poisson}(\lambda)$ (se puede comprobar calculando la función generadora de momentos).
$[Z \mid Y = y] \sim \text{Binomial}(\pi, y)$ porque, usando la independencia,
$$ f(z \mid y) = \frac{\Pr(Y_1 = z, Y_2 = y - z)}{\Pr(Y = y)} = \binom{y}{z} \pi^z (1 - \pi)^{y-z} $$
- Es cierto por definición que $Y - Z = Y_2 \sim \text{Poisson}((1-\pi) \lambda)$ y eso $Z = Y_1 \sim \text{Poisson}(\pi \lambda)$, que son los resultados que deseaba.
Por lo tanto, existen $Z$ y $Y$ con las propiedades que desea, pero dado que la distribución conjunta se caracteriza únicamente por sus condiciones para $(Z,Y)$se deduce que esto es cierto para todos $Z$ y $Y$ satisfaciendo sus condiciones.
Es un poco de álgebra, pero aquí está mi intento
La expresión de la densidad después de extraer los términos que no involucran $y$ son
$$ p(z) = \pi^z \exp(\lambda) \sum_{z \leq y} \binom{y}{z} (1-\pi)^{y-z} \dfrac{\lambda^y}{y!}$$
los $y!$ cancela del coeficiente binomial
$$ = \pi^z \dfrac{\exp(\lambda)}{z!} \sum_{{z \leq y}} (1-\pi)^{y-z} \dfrac{\lambda^y}{(y-z)!}$$
Y dado que el índice es solo para $0\leq y-z$, luego deja $k=y-z$
$$ = \pi^z \dfrac{\exp(\lambda)}{z!} \sum_{k} (1-\pi)^{k} \dfrac{\lambda^{k+z}}{(k)!}$$
Simplificando más
$$ = (\lambda\pi)^z \dfrac{\exp(\lambda)}{z!} \sum_{k} (1-\pi)^{k} \dfrac{\lambda^{k}}{(k)!}$$
Notarás que la suma es la expresión de $\exp(\lambda - \lambda \pi)$
Y así terminamos con
$$ p(z) = (\lambda \pi)^z \dfrac{\exp(-\pi\lambda)}{z!}$$
Lo que creo que significa
$$z \sim \operatorname{Poisson}(\pi \lambda)$$
Llegar $E(Z)$ y $Var(Z),$esto puede verse como una suma aleatoria de variables aleatorias. En particular,$Z$ es una suma de un número aleatorio $Y$ de variables aleatorias de Bernoulli, cada una con probabilidad de éxito $\pi.$
Aquí hay un histograma de 100.000 realizaciones simuladas de $Z,$ utilizando $\lambda = 20, \pi = 0.4$ junto con las probabilidades exactas (centros de círculos rojos) para $\mathsf{Pois}(8).$
set.seed(2020)
lam = 20; pp = 0.4
y = rpois(10^5, lam)
z = rbinom(10^5, y, pp)
summary(z)
Min. 1st Qu. Median Mean 3rd Qu. Max.
0.000 6.000 8.000 8.001 10.000 22.000
mx = max(z); cutp = (-1:mx)+.5
hdr = "Histogram of Simulated Z with Density of POIS(8)"
hist(z, prob=T, br=cutp, col="skyblue2", main=hdr)
points(0:mx, dpois(0:mx, pp*lam), col="red")

Notas: (1) @aleshing tiene razón en que, debido a la discreción, la integral debe tratarse como una suma.
(2) En código R: no se puede utilizar pi
para$\pi$porque es una constante reservada en R. Si y
vuelve$0,$ rbinom
está programado para regresar $0.$
(3) En caso de que sea de interés: Folleto del curso UNL sobre suma aleatoria de variables aleatorias .