MLE için asimptotik normallik
Uygun varsayımlar altında varsayalım, $$[I(\theta_0)]^{1/2}(\hat{\theta} - \theta) \xrightarrow{d} N(0, I_p),$$ nerede $\hat{\theta}$ maksimum olasılık tahmin edicisi $\theta$. $I(\theta_0) = I(\theta)|_{\theta=\theta_0}$ ve $I(\theta)$ numune dağılımının balıkçı bilgisidir.
Sınıf notum "$I(\theta_0)$ ile değiştirilebilir $I(\hat{\theta}_0)$, Slutsky teoremi ile doğrulanmıştır ".
Sorum şu ki, Slutsky teoremi bunu neden $$[I(\hat{\theta})]^{1/2}(\hat{\theta} - \theta) \xrightarrow{d} N(0, I_p)$$ doğru?
Yoksa bunu varsaymak zorunda mıyız $\hat{\theta}$ yakınsamak $\theta$ olasılıkla?
Yanıtlar
By Slutsky teoremi , eğer$X_n\overset{d}{\to}X$ ve $Y_n\overset{p}{\to}c$, nerede $c$ sabit bir terimdir, o zaman $X_nY_n\overset{d}{\to}X c$. Öyleyse
- $[I_n(\theta)]^{1/2}(\hat{\theta}_n - \theta) \xrightarrow{d} N(0, I_p)$ gibi $n\to\infty$,
- $[I_n(\hat\theta_n)]^{1/2}/[I_n(\theta)]^{1/2}\overset{p}{\to}1$ gibi $n\to\infty$,
nerede $\theta$ bilinmeyen parametredir, $n$ örnek boyutu ve $\hat\theta_n$ ML tahmin edicilerinin bir dizisidir. $$\frac{[I_n(\hat\theta_n)]^{1/2}}{[I_n(\theta)]^{1/2}}[I_n(\theta)]^{1/2}(\hat{\theta}_n - \theta) =[I_n(\hat\theta_n)]^{1/2}(\hat{\theta}_n - \theta)\overset{d}{\to} N(0,I_p)$$
Bu, ne zaman $n$ yeterince büyükse, MLE'lerin örnekleme dağılımı yaklaşık olarak normaldir.
Bunu gösterebilirsin eğer $[I(θ_0)]^{1/2}(\hat{θ}−θ_0)\overset{d}{\longrightarrow} N(0, I_p)$, sonra $\hat{\theta}\overset{P}{\longrightarrow} \theta_0$, bu yüzden bu varsayıma ihtiyacınız yok.