normalità asintotica per MLE

Aug 18 2020

Supponiamo, sotto opportune ipotesi,$$[I(\theta_0)]^{1/2}(\hat{\theta} - \theta) \xrightarrow{d} N(0, I_p),$$dove$\hat{\theta}$è lo stimatore di massima verosimiglianza di$\theta$.$I(\theta_0) = I(\theta)|_{\theta=\theta_0}$e$I(\theta)$è l'informazione del pescatore della distribuzione del campione.

La mia nota di classe dice "$I(\theta_0)$può essere sostituito da$I(\hat{\theta}_0)$, giustificato dal teorema di Slutsky".

La mia domanda è perché il teorema di Slutsky lo giustifichi in questo modo$$[I(\hat{\theta})]^{1/2}(\hat{\theta} - \theta) \xrightarrow{d} N(0, I_p)$$è corretta?

O dobbiamo assumerlo$\hat{\theta}$converge a$\theta$in probabilità?

Risposte

1 Sergio Aug 18 2020 at 22:51

Per il teorema di Slutsky , se$X_n\overset{d}{\to}X$e$Y_n\overset{p}{\to}c$, dove$c$è un termine costante, quindi$X_nY_n\overset{d}{\to}X c$. Quindi se

  • $[I_n(\theta)]^{1/2}(\hat{\theta}_n - \theta) \xrightarrow{d} N(0, I_p)$come$n\to\infty$,
  • $[I_n(\hat\theta_n)]^{1/2}/[I_n(\theta)]^{1/2}\overset{p}{\to}1$come$n\to\infty$,

dove$\theta$è il parametro sconosciuto,$n$è la dimensione del campione, e$\hat\theta_n$è una sequenza di stimatori ML, quindi$$\frac{[I_n(\hat\theta_n)]^{1/2}}{[I_n(\theta)]^{1/2}}[I_n(\theta)]^{1/2}(\hat{\theta}_n - \theta) =[I_n(\hat\theta_n)]^{1/2}(\hat{\theta}_n - \theta)\overset{d}{\to} N(0,I_p)$$

Ciò significa che, quando$n$è abbastanza grande, la distribuzione campionaria degli MLE è approssimativamente normale.

1 Pohoua Aug 18 2020 at 15:55

Puoi mostrarlo se$[I(θ_0)]^{1/2}(\hat{θ}−θ_0)\overset{d}{\longrightarrow} N(0, I_p)$, poi$\hat{\theta}\overset{P}{\longrightarrow} \theta_0$, quindi non hai bisogno di questo presupposto.