ถ้า Z | Y ~ Bin (p, y) และ Y ~ Poisson (L) แล้ว Z ~ Poisson (p * L)? [ซ้ำ]
ฉันตรวจสอบว่าก่อนหน้านี้มีคำตอบหรือไม่ แต่เนื่องจากสัญกรณ์จึงมองเห็นได้ยาก ฉันกำลังอ่านบทความที่กำหนด RV สองรายการต่อไปนี้$$ z \mid y \sim Binomial(\pi, y) \\ y \sim Poisson(\lambda) $$ แล้วสรุป (โดยการรวมและกฎเบย์) ว่า $$ z \sim Poisson(\pi \cdot \lambda) \\ y - z \sim Poisson( (1 - \pi)\cdot \lambda) $$
ฉันลองทำมันบนกระดาษ แต่เนื่องจากฉันไม่ใช่นักสถิติที่ได้รับการฝึกฝนมาฉันจึงไม่แน่ใจว่าตัวเองทำอะไรผิด หากฉันต้องการได้รับ$z \sim Poisson(\pi\lambda)$จากนั้นฉันใช้ความน่าจะเป็นแบบมีเงื่อนไขคือ $$ p(z) = \int_y p(z, y) \,\, dy $$ ที่ไหน $p(z, y)$คือความน่าจะเป็นร่วมกัน ขยายสิ่งนี้ออกไปฉันมี$$p(z) = \int_y {y\choose z} \pi^z (1 - \pi)^{(y - z)} \frac{e^\lambda \lambda^y}{y!} \, \, dy $$ แต่ฉันเดาว่าฉันต้องได้สมการต่อไปนี้ $$p(z) = \frac{e^{\pi\lambda} (\pi\lambda)^{z}}{z!}$$แต่ฉันไม่สามารถจัดการอินทิกรัลด้านบนเพื่อรับแบบฟอร์มนี้ได้ ไม่แน่ใจว่าเป็นไปได้หรือไม่
คำตอบ
สิ่งนี้ตามมาจากทฤษฎีการแจกแจงมาตรฐานที่เป็นธรรม กำหนด$Y_1 \sim \text{Poisson}(\pi \lambda)$ และ $Y_2 \sim \text{Poisson}((1-\pi) \lambda)$ อิสระและปล่อยให้ $Y = Y_1 + Y_2$ และ $Z = Y_1$. จากนั้นข้อเท็จจริงต่อไปนี้จะได้รับอย่างรวดเร็ว:
$Y \sim \text{Poisson}(\lambda)$ (สามารถตรวจสอบได้โดยการคำนวณฟังก์ชันการสร้างโมเมนต์)
$[Z \mid Y = y] \sim \text{Binomial}(\pi, y)$ เพราะใช้ความเป็นอิสระ
$$ f(z \mid y) = \frac{\Pr(Y_1 = z, Y_2 = y - z)}{\Pr(Y = y)} = \binom{y}{z} \pi^z (1 - \pi)^{y-z} $$
- มันเป็นความจริงตามคำจำกัดความว่า $Y - Z = Y_2 \sim \text{Poisson}((1-\pi) \lambda)$ และนั่น $Z = Y_1 \sim \text{Poisson}(\pi \lambda)$ซึ่งเป็นผลลัพธ์ที่คุณต้องการ
ดังนั้นจึงมีอยู่ $Z$ และ $Y$ ด้วยคุณสมบัติที่คุณต้องการ แต่เนื่องจากการกระจายร่วมมีลักษณะเฉพาะตามเงื่อนไขของคุณ $(Z,Y)$ตามที่ว่านี้เป็นจริงสำหรับทุกคน $Z$ และ $Y$ ตรงตามเงื่อนไขของคุณ
มันเป็นพีชคณิตเล็กน้อย แต่นี่คือความพยายามของฉัน
การแสดงออกของความหนาแน่นหลังจากที่คุณดึงเงื่อนไขที่ไม่เกี่ยวข้องออกมา $y$ คือ
$$ p(z) = \pi^z \exp(\lambda) \sum_{z \leq y} \binom{y}{z} (1-\pi)^{y-z} \dfrac{\lambda^y}{y!}$$
$y!$ ยกเลิกจากค่าสัมประสิทธิ์ทวินาม
$$ = \pi^z \dfrac{\exp(\lambda)}{z!} \sum_{{z \leq y}} (1-\pi)^{y-z} \dfrac{\lambda^y}{(y-z)!}$$
และเนื่องจากดัชนีมีไว้สำหรับ $0\leq y-z$แล้วปล่อย $k=y-z$
$$ = \pi^z \dfrac{\exp(\lambda)}{z!} \sum_{k} (1-\pi)^{k} \dfrac{\lambda^{k+z}}{(k)!}$$
ทำให้ง่ายขึ้น
$$ = (\lambda\pi)^z \dfrac{\exp(\lambda)}{z!} \sum_{k} (1-\pi)^{k} \dfrac{\lambda^{k}}{(k)!}$$
คุณจะสังเกตเห็นผลรวมคือนิพจน์สำหรับ $\exp(\lambda - \lambda \pi)$
ดังนั้นเราจึงจบลงด้วย
$$ p(z) = (\lambda \pi)^z \dfrac{\exp(-\pi\lambda)}{z!}$$
ซึ่งฉันเชื่อว่าหมายถึง
$$z \sim \operatorname{Poisson}(\pi \lambda)$$
ที่จะได้รับ $E(Z)$ และ $Var(Z),$สิ่งนี้สามารถมองได้ว่าเป็นผลรวมสุ่มของตัวแปรสุ่ม โดยเฉพาะอย่างยิ่ง,$Z$ คือผลรวมของตัวเลขสุ่ม $Y$ ของตัวแปรสุ่มของ Bernoulli แต่ละตัวแปรมีโอกาสสำเร็จ $\pi.$
นี่คือฮิสโตแกรมของการจำลองการรับรู้ 100,000 ครั้ง $Z,$ โดยใช้ $\lambda = 20, \pi = 0.4$ พร้อมกับความน่าจะเป็นที่แน่นอน (จุดศูนย์กลางของวงกลมสีแดง) สำหรับ $\mathsf{Pois}(8).$
set.seed(2020)
lam = 20; pp = 0.4
y = rpois(10^5, lam)
z = rbinom(10^5, y, pp)
summary(z)
Min. 1st Qu. Median Mean 3rd Qu. Max.
0.000 6.000 8.000 8.001 10.000 22.000
mx = max(z); cutp = (-1:mx)+.5
hdr = "Histogram of Simulated Z with Density of POIS(8)"
hist(z, prob=T, br=cutp, col="skyblue2", main=hdr)
points(0:mx, dpois(0:mx, pp*lam), col="red")

หมายเหตุ: (1) @aleshing ถูกต้องซึ่งเนื่องจากความแตกต่างควรถือว่าอินทิกรัลเป็นผลรวม
(2) ในรหัส R: ไม่สามารถใช้pi
สำหรับ$\pi$เนื่องจากเป็นค่าคงที่สงวนไว้ใน R หากy
เกิดขึ้นเพื่อส่งกลับ$0,$ rbinom
ถูกตั้งโปรแกรมให้ส่งคืน $0.$
(3) ในกรณีที่มันเป็นที่น่าสนใจ: เอกสารประกอบการบรรยายหลักสูตร UNL ในผลรวมแบบสุ่มของตัวแปรสุ่ม