normalidad asintótica para MLE
Supongamos bajo suposiciones adecuadas,$$[I(\theta_0)]^{1/2}(\hat{\theta} - \theta) \xrightarrow{d} N(0, I_p),$$dónde$\hat{\theta}$es el estimador de máxima verosimilitud de$\theta$.$I(\theta_0) = I(\theta)|_{\theta=\theta_0}$y$I(\theta)$es la información del pescador de la distribución de la muestra.
Mi nota de clase dice "$I(\theta_0)$puede ser reemplazado por$I(\hat{\theta}_0)$, justificado por el teorema de Slutsky".
Mi pregunta es por qué el teorema de Slutsky lo justifica de modo que$$[I(\hat{\theta})]^{1/2}(\hat{\theta} - \theta) \xrightarrow{d} N(0, I_p)$$¿es correcto?
¿O tenemos que suponer que$\hat{\theta}$converge a$\theta$en probabilidad?
Respuestas
Por el teorema de Slutsky , si$X_n\overset{d}{\to}X$y$Y_n\overset{p}{\to}c$, dónde$c$es un término constante, entonces$X_nY_n\overset{d}{\to}X c$. Así que si
- $[I_n(\theta)]^{1/2}(\hat{\theta}_n - \theta) \xrightarrow{d} N(0, I_p)$como$n\to\infty$,
- $[I_n(\hat\theta_n)]^{1/2}/[I_n(\theta)]^{1/2}\overset{p}{\to}1$como$n\to\infty$,
dónde$\theta$es el parámetro desconocido,$n$es el tamaño de la muestra, y$\hat\theta_n$es una secuencia de estimadores ML, entonces$$\frac{[I_n(\hat\theta_n)]^{1/2}}{[I_n(\theta)]^{1/2}}[I_n(\theta)]^{1/2}(\hat{\theta}_n - \theta) =[I_n(\hat\theta_n)]^{1/2}(\hat{\theta}_n - \theta)\overset{d}{\to} N(0,I_p)$$
Esto significa que, cuando$n$es lo suficientemente grande, la distribución de muestreo de los MLE es aproximadamente normal.
Puedes demostrar que si$[I(θ_0)]^{1/2}(\hat{θ}−θ_0)\overset{d}{\longrightarrow} N(0, I_p)$, después$\hat{\theta}\overset{P}{\longrightarrow} \theta_0$, por lo que no necesita esta suposición.