normalité asymptotique pour MLE
Supposons, sous des hypothèses appropriées,$$[I(\theta_0)]^{1/2}(\hat{\theta} - \theta) \xrightarrow{d} N(0, I_p),$$où$\hat{\theta}$est l'estimateur du maximum de vraisemblance de$\theta$.$I(\theta_0) = I(\theta)|_{\theta=\theta_0}$et$I(\theta)$est l'information du pêcheur de la distribution de l'échantillon.
Ma note de cours dit "$I(\theta_0)$peut être remplacé par$I(\hat{\theta}_0)$, justifié par le théorème de Slutsky".
Ma question est pourquoi le théorème de Slutsky le justifie de sorte que$$[I(\hat{\theta})]^{1/2}(\hat{\theta} - \theta) \xrightarrow{d} N(0, I_p)$$est correct?
Ou devons-nous supposer que$\hat{\theta}$converge vers$\theta$en probabilité ?
Réponses
Par le théorème de Slutsky , si$X_n\overset{d}{\to}X$et$Y_n\overset{p}{\to}c$, où$c$est un terme constant, alors$X_nY_n\overset{d}{\to}X c$. Donc si
- $[I_n(\theta)]^{1/2}(\hat{\theta}_n - \theta) \xrightarrow{d} N(0, I_p)$comme$n\to\infty$,
- $[I_n(\hat\theta_n)]^{1/2}/[I_n(\theta)]^{1/2}\overset{p}{\to}1$comme$n\to\infty$,
où$\theta$est le paramètre inconnu,$n$est la taille de l'échantillon, et$\hat\theta_n$est une séquence d'estimateurs ML, alors$$\frac{[I_n(\hat\theta_n)]^{1/2}}{[I_n(\theta)]^{1/2}}[I_n(\theta)]^{1/2}(\hat{\theta}_n - \theta) =[I_n(\hat\theta_n)]^{1/2}(\hat{\theta}_n - \theta)\overset{d}{\to} N(0,I_p)$$
Cela signifie que, lorsque$n$est suffisamment grand, la distribution d'échantillonnage des MLE est à peu près normale.
Vous pouvez montrer que si$[I(θ_0)]^{1/2}(\hat{θ}−θ_0)\overset{d}{\longrightarrow} N(0, I_p)$, alors$\hat{\theta}\overset{P}{\longrightarrow} \theta_0$, vous n'avez donc pas besoin de cette hypothèse.