normalidade assintótica para ELM
Suponha sob suposições adequadas,$$[I(\theta_0)]^{1/2}(\hat{\theta} - \theta) \xrightarrow{d} N(0, I_p),$$Onde$\hat{\theta}$é o estimador de máxima verossimilhança de$\theta$.$I(\theta_0) = I(\theta)|_{\theta=\theta_0}$e$I(\theta)$é a informação de Fisher da distribuição da amostra.
Minha nota de classe diz "$I(\theta_0)$pode ser substituído por$I(\hat{\theta}_0)$, justificado pelo teorema de Slutsky".
Minha pergunta é por que o teorema de Slutsky justifica isso de forma que$$[I(\hat{\theta})]^{1/2}(\hat{\theta} - \theta) \xrightarrow{d} N(0, I_p)$$está correto?
Ou temos que assumir que$\hat{\theta}$converge para$\theta$em probabilidade?
Respostas
Pelo teorema de Slutsky , se$X_n\overset{d}{\to}X$e$Y_n\overset{p}{\to}c$, Onde$c$é um termo constante, então$X_nY_n\overset{d}{\to}X c$. Então se
- $[I_n(\theta)]^{1/2}(\hat{\theta}_n - \theta) \xrightarrow{d} N(0, I_p)$Como$n\to\infty$,
- $[I_n(\hat\theta_n)]^{1/2}/[I_n(\theta)]^{1/2}\overset{p}{\to}1$Como$n\to\infty$,
Onde$\theta$é o parâmetro desconhecido,$n$é o tamanho da amostra e$\hat\theta_n$é uma sequência de estimadores ML, então$$\frac{[I_n(\hat\theta_n)]^{1/2}}{[I_n(\theta)]^{1/2}}[I_n(\theta)]^{1/2}(\hat{\theta}_n - \theta) =[I_n(\hat\theta_n)]^{1/2}(\hat{\theta}_n - \theta)\overset{d}{\to} N(0,I_p)$$
Isso significa que, quando$n$é grande o suficiente, a distribuição amostral de MLEs é aproximadamente normal.
Você pode mostrar que se$[I(θ_0)]^{1/2}(\hat{θ}−θ_0)\overset{d}{\longrightarrow} N(0, I_p)$, então$\hat{\theta}\overset{P}{\longrightarrow} \theta_0$, então você não precisa dessa suposição.