asymptotic normality สำหรับ MLE

Aug 18 2020

สมมติว่าภายใต้สมมติฐานที่เหมาะสม $$[I(\theta_0)]^{1/2}(\hat{\theta} - \theta) \xrightarrow{d} N(0, I_p),$$ ที่ไหน $\hat{\theta}$ คือตัวประมาณความเป็นไปได้สูงสุดของ $\theta$. $I(\theta_0) = I(\theta)|_{\theta=\theta_0}$ และ $I(\theta)$ เป็นข้อมูลการประมงของการกระจายตัวอย่าง

บันทึกประจำชั้นของฉันบอกว่า "$I(\theta_0)$ สามารถแทนที่ได้ด้วย $I(\hat{\theta}_0)$โดยถูกต้องตามทฤษฎีบทของ Slutsky ".

คำถามของฉันคือทำไมทฤษฎีบทของ Slutsky จึงปรับให้เป็นเช่นนั้น $$[I(\hat{\theta})]^{1/2}(\hat{\theta} - \theta) \xrightarrow{d} N(0, I_p)$$ ถูกต้อง?

หรือเราต้องสมมติว่า $\hat{\theta}$ มาบรรจบกับ $\theta$ ในความน่าจะเป็น?

คำตอบ

1 Sergio Aug 18 2020 at 22:51

ตามทฤษฎีบทของ Slutskyถ้า$X_n\overset{d}{\to}X$ และ $Y_n\overset{p}{\to}c$, ที่ไหน $c$ เป็นระยะคงที่แล้ว $X_nY_n\overset{d}{\to}X c$. ดังนั้นถ้า

  • $[I_n(\theta)]^{1/2}(\hat{\theta}_n - \theta) \xrightarrow{d} N(0, I_p)$ เช่น $n\to\infty$,
  • $[I_n(\hat\theta_n)]^{1/2}/[I_n(\theta)]^{1/2}\overset{p}{\to}1$ เช่น $n\to\infty$,

ที่ไหน $\theta$ คือพารามิเตอร์ที่ไม่รู้จัก $n$ คือขนาดตัวอย่างและ $\hat\theta_n$ เป็นลำดับของตัวประมาณค่า ML จากนั้น $$\frac{[I_n(\hat\theta_n)]^{1/2}}{[I_n(\theta)]^{1/2}}[I_n(\theta)]^{1/2}(\hat{\theta}_n - \theta) =[I_n(\hat\theta_n)]^{1/2}(\hat{\theta}_n - \theta)\overset{d}{\to} N(0,I_p)$$

ซึ่งหมายความว่าเมื่อ $n$ มีขนาดใหญ่พอการแจกแจงการสุ่มตัวอย่างของ MLE อยู่ในเกณฑ์ปกติ

1 Pohoua Aug 18 2020 at 15:55

คุณสามารถแสดงว่าถ้า $[I(θ_0)]^{1/2}(\hat{θ}−θ_0)\overset{d}{\longrightarrow} N(0, I_p)$แล้ว $\hat{\theta}\overset{P}{\longrightarrow} \theta_0$ดังนั้นคุณไม่จำเป็นต้องใช้สมมติฐานนี้