Если Z | Y ~ Bin (p, y) и Y ~ Пуассон (L), то Z ~ Пуассон (p * L)? [дубликат]
Я проверил, был ли ответ на этот вопрос раньше, но из-за обозначений это трудно понять. Я читаю статью, в которой определяются следующие два RV$$ z \mid y \sim Binomial(\pi, y) \\ y \sim Poisson(\lambda) $$ затем заключает (путем интегрирования и правила Байеса), что $$ z \sim Poisson(\pi \cdot \lambda) \\ y - z \sim Poisson( (1 - \pi)\cdot \lambda) $$
Я попытался проработать это на бумаге, но поскольку я не обученный статистик, я не уверен, что ошибаюсь. Если я хочу получить$z \sim Poisson(\pi\lambda)$, то я использую условную вероятность, т.е. $$ p(z) = \int_y p(z, y) \,\, dy $$ где $p(z, y)$- совместная вероятность. Расширяя это, у меня есть$$p(z) = \int_y {y\choose z} \pi^z (1 - \pi)^{(y - z)} \frac{e^\lambda \lambda^y}{y!} \, \, dy $$ но я предполагаю, что мне нужно как-то добраться до следующего уравнения $$p(z) = \frac{e^{\pi\lambda} (\pi\lambda)^{z}}{z!}$$но я не мог манипулировать интегралом выше, чтобы получить эту форму. Не уверен, что это вообще возможно.
Ответы
Это следует из некоторой довольно стандартной теории распределения. Определить$Y_1 \sim \text{Poisson}(\pi \lambda)$ и $Y_2 \sim \text{Poisson}((1-\pi) \lambda)$ самостоятельно, и пусть $Y = Y_1 + Y_2$ и $Z = Y_1$. Тогда быстро выводятся следующие факты:
$Y \sim \text{Poisson}(\lambda)$ (можно проверить, вычислив функцию, производящую момент).
$[Z \mid Y = y] \sim \text{Binomial}(\pi, y)$ потому что, используя независимость,
$$ f(z \mid y) = \frac{\Pr(Y_1 = z, Y_2 = y - z)}{\Pr(Y = y)} = \binom{y}{z} \pi^z (1 - \pi)^{y-z} $$
- По определению верно, что $Y - Z = Y_2 \sim \text{Poisson}((1-\pi) \lambda)$ и это $Z = Y_1 \sim \text{Poisson}(\pi \lambda)$, которые вам нужны.
Следовательно, существуют $Z$ и $Y$ со свойствами, которые вы хотите, но поскольку совместное распределение уникально характеризуется вашими условиями для $(Z,Y)$следует, что это верно для всех $Z$ и $Y$ удовлетворение ваших условий.
Немного алгебры, но вот моя попытка
Выражение плотности после того, как вы вытащите термины, не включающие $y$ находятся
$$ p(z) = \pi^z \exp(\lambda) \sum_{z \leq y} \binom{y}{z} (1-\pi)^{y-z} \dfrac{\lambda^y}{y!}$$
В $y!$ отменяется из биномиального коэффициента
$$ = \pi^z \dfrac{\exp(\lambda)}{z!} \sum_{{z \leq y}} (1-\pi)^{y-z} \dfrac{\lambda^y}{(y-z)!}$$
А поскольку индекс предназначен только для $0\leq y-z$, тогда пусть $k=y-z$
$$ = \pi^z \dfrac{\exp(\lambda)}{z!} \sum_{k} (1-\pi)^{k} \dfrac{\lambda^{k+z}}{(k)!}$$
Упрощение больше
$$ = (\lambda\pi)^z \dfrac{\exp(\lambda)}{z!} \sum_{k} (1-\pi)^{k} \dfrac{\lambda^{k}}{(k)!}$$
Вы заметите, что сумма - это выражение для $\exp(\lambda - \lambda \pi)$
И так мы заканчиваем
$$ p(z) = (\lambda \pi)^z \dfrac{\exp(-\pi\lambda)}{z!}$$
Что, я считаю, означает
$$z \sim \operatorname{Poisson}(\pi \lambda)$$
Получить $E(Z)$ и $Var(Z),$это можно рассматривать как случайную сумму случайных величин. В частности,$Z$ это сумма случайного числа $Y$ случайных величин Бернулли, каждая с вероятностью успеха $\pi.$
Вот гистограмма 100 000 смоделированных реализаций $Z,$ с помощью $\lambda = 20, \pi = 0.4$ вместе с точными вероятностями (центры красных кружков) для $\mathsf{Pois}(8).$
set.seed(2020)
lam = 20; pp = 0.4
y = rpois(10^5, lam)
z = rbinom(10^5, y, pp)
summary(z)
Min. 1st Qu. Median Mean 3rd Qu. Max.
0.000 6.000 8.000 8.001 10.000 22.000
mx = max(z); cutp = (-1:mx)+.5
hdr = "Histogram of Simulated Z with Density of POIS(8)"
hist(z, prob=T, br=cutp, col="skyblue2", main=hdr)
points(0:mx, dpois(0:mx, pp*lam), col="red")

Примечания: (1) @aleshing правильно, что из-за дискретности интеграл следует рассматривать как сумму.
(2) В коде R: нельзя использовать pi
для$\pi$потому что это зарезервированная константа в R. Если y
произойдет возврат$0,$ rbinom
запрограммирован на возвращение $0.$
(3) Если это интересно: Раздаточный материал курса UNL по случайной сумме случайных величин .