MLE için asimptotik normallik

Aug 18 2020

Uygun varsayımlar altında varsayalım, $$[I(\theta_0)]^{1/2}(\hat{\theta} - \theta) \xrightarrow{d} N(0, I_p),$$ nerede $\hat{\theta}$ maksimum olasılık tahmin edicisi $\theta$. $I(\theta_0) = I(\theta)|_{\theta=\theta_0}$ ve $I(\theta)$ numune dağılımının balıkçı bilgisidir.

Sınıf notum "$I(\theta_0)$ ile değiştirilebilir $I(\hat{\theta}_0)$, Slutsky teoremi ile doğrulanmıştır ".

Sorum şu ki, Slutsky teoremi bunu neden $$[I(\hat{\theta})]^{1/2}(\hat{\theta} - \theta) \xrightarrow{d} N(0, I_p)$$ doğru?

Yoksa bunu varsaymak zorunda mıyız $\hat{\theta}$ yakınsamak $\theta$ olasılıkla?

Yanıtlar

1 Sergio Aug 18 2020 at 22:51

By Slutsky teoremi , eğer$X_n\overset{d}{\to}X$ ve $Y_n\overset{p}{\to}c$, nerede $c$ sabit bir terimdir, o zaman $X_nY_n\overset{d}{\to}X c$. Öyleyse

  • $[I_n(\theta)]^{1/2}(\hat{\theta}_n - \theta) \xrightarrow{d} N(0, I_p)$ gibi $n\to\infty$,
  • $[I_n(\hat\theta_n)]^{1/2}/[I_n(\theta)]^{1/2}\overset{p}{\to}1$ gibi $n\to\infty$,

nerede $\theta$ bilinmeyen parametredir, $n$ örnek boyutu ve $\hat\theta_n$ ML tahmin edicilerinin bir dizisidir. $$\frac{[I_n(\hat\theta_n)]^{1/2}}{[I_n(\theta)]^{1/2}}[I_n(\theta)]^{1/2}(\hat{\theta}_n - \theta) =[I_n(\hat\theta_n)]^{1/2}(\hat{\theta}_n - \theta)\overset{d}{\to} N(0,I_p)$$

Bu, ne zaman $n$ yeterince büyükse, MLE'lerin örnekleme dağılımı yaklaşık olarak normaldir.

1 Pohoua Aug 18 2020 at 15:55

Bunu gösterebilirsin eğer $[I(θ_0)]^{1/2}(\hat{θ}−θ_0)\overset{d}{\longrightarrow} N(0, I_p)$, sonra $\hat{\theta}\overset{P}{\longrightarrow} \theta_0$, bu yüzden bu varsayıma ihtiyacınız yok.