asymptotyczna normalność dla MLE
Załóżmy, że przy odpowiednich założeniach $$[I(\theta_0)]^{1/2}(\hat{\theta} - \theta) \xrightarrow{d} N(0, I_p),$$ gdzie $\hat{\theta}$ jest estymatorem największej wiarygodności $\theta$. $I(\theta_0) = I(\theta)|_{\theta=\theta_0}$ i $I(\theta)$ to informacja rybaka dotycząca dystrybucji próbek.
Moja notatka z zajęć mówi „$I(\theta_0)$ można zastąpić $I(\hat{\theta}_0)$, uzasadnione twierdzeniem Słuckiego ".
Moje pytanie brzmi, dlaczego twierdzenie Słuckiego tak to uzasadnia $$[I(\hat{\theta})]^{1/2}(\hat{\theta} - \theta) \xrightarrow{d} N(0, I_p)$$ jest poprawne?
Czy też musimy to założyć $\hat{\theta}$ zbiega się do $\theta$ prawdopodobne?
Odpowiedzi
Według twierdzenia Słuckiego , jeśli$X_n\overset{d}{\to}X$ i $Y_n\overset{p}{\to}c$, gdzie $c$ jest więc terminem stałym $X_nY_n\overset{d}{\to}X c$. Więc jeśli
- $[I_n(\theta)]^{1/2}(\hat{\theta}_n - \theta) \xrightarrow{d} N(0, I_p)$ tak jak $n\to\infty$,
- $[I_n(\hat\theta_n)]^{1/2}/[I_n(\theta)]^{1/2}\overset{p}{\to}1$ tak jak $n\to\infty$,
gdzie $\theta$ jest nieznanym parametrem, $n$ to wielkość próby, a $\hat\theta_n$ jest więc sekwencją estymatorów ML $$\frac{[I_n(\hat\theta_n)]^{1/2}}{[I_n(\theta)]^{1/2}}[I_n(\theta)]^{1/2}(\hat{\theta}_n - \theta) =[I_n(\hat\theta_n)]^{1/2}(\hat{\theta}_n - \theta)\overset{d}{\to} N(0,I_p)$$
Oznacza to, że kiedy $n$ jest wystarczająco duży, rozkład próbkowania MLE jest w przybliżeniu normalny.
Możesz to pokazać, jeśli $[I(θ_0)]^{1/2}(\hat{θ}−θ_0)\overset{d}{\longrightarrow} N(0, I_p)$, następnie $\hat{\theta}\overset{P}{\longrightarrow} \theta_0$, więc nie potrzebujesz tego założenia.