asymptotische Normalität für MLE

Aug 18 2020

Nehmen Sie unter geeigneten Annahmen an,$$[I(\theta_0)]^{1/2}(\hat{\theta} - \theta) \xrightarrow{d} N(0, I_p),$$wo$\hat{\theta}$ist Maximum-Likelihood-Schätzer von$\theta$.$I(\theta_0) = I(\theta)|_{\theta=\theta_0}$und$I(\theta)$ist die Fischerinformation der Probenverteilung.

In meiner Klassennotiz steht "$I(\theta_0)$kann ersetzt werden durch$I(\hat{\theta}_0)$, gerechtfertigt durch den Satz von Slutsky".

Meine Frage ist, warum Slutskys Theorem dies so rechtfertigt$$[I(\hat{\theta})]^{1/2}(\hat{\theta} - \theta) \xrightarrow{d} N(0, I_p)$$ist richtig?

Oder müssen wir davon ausgehen$\hat{\theta}$konvergiert zu$\theta$in Wahrscheinlichkeit?

Antworten

1 Sergio Aug 18 2020 at 22:51

Nach dem Satz von Slutsky , wenn$X_n\overset{d}{\to}X$und$Y_n\overset{p}{\to}c$, wo$c$ist also ein konstanter Begriff$X_nY_n\overset{d}{\to}X c$. Also wenn

  • $[I_n(\theta)]^{1/2}(\hat{\theta}_n - \theta) \xrightarrow{d} N(0, I_p)$wie$n\to\infty$,
  • $[I_n(\hat\theta_n)]^{1/2}/[I_n(\theta)]^{1/2}\overset{p}{\to}1$wie$n\to\infty$,

wo$\theta$ist der unbekannte Parameter,$n$ist die Stichprobengröße und$\hat\theta_n$ist dann eine Folge von ML-Schätzern$$\frac{[I_n(\hat\theta_n)]^{1/2}}{[I_n(\theta)]^{1/2}}[I_n(\theta)]^{1/2}(\hat{\theta}_n - \theta) =[I_n(\hat\theta_n)]^{1/2}(\hat{\theta}_n - \theta)\overset{d}{\to} N(0,I_p)$$

Das bedeutet, wann$n$groß genug ist, ist die Stichprobenverteilung der MLEs ungefähr normal.

1 Pohoua Aug 18 2020 at 15:55

Das kannst du zeigen wenn$[I(θ_0)]^{1/2}(\hat{θ}−θ_0)\overset{d}{\longrightarrow} N(0, I_p)$, dann$\hat{\theta}\overset{P}{\longrightarrow} \theta_0$, also brauchen Sie diese Annahme nicht.