MLE के लिए स्पर्शोन्मुख सामान्यता
उपयुक्त मान्यताओं के तहत मान लीजिए, $$[I(\theta_0)]^{1/2}(\hat{\theta} - \theta) \xrightarrow{d} N(0, I_p),$$ कहां है $\hat{\theta}$ की अधिकतम संभावना है $\theta$। $I(\theta_0) = I(\theta)|_{\theta=\theta_0}$ तथा $I(\theta)$ नमूना वितरण की फिशर जानकारी है।
मेरा क्लास नोट कहता है "$I(\theta_0)$ द्वारा प्रतिस्थापित किया जा सकता है $I(\hat{\theta}_0)$, स्लटस्की के प्रमेय द्वारा उचित "।
मेरा सवाल यह है कि स्लटस्की का प्रमेय इसे सही क्यों ठहराता है $$[I(\hat{\theta})]^{1/2}(\hat{\theta} - \theta) \xrightarrow{d} N(0, I_p)$$ सही है?
या क्या हमें यह मान लेना होगा $\hat{\theta}$ के लिए अभिसरण करता है $\theta$ संभावना में?
जवाब
स्लटस्की के प्रमेय द्वारा , यदि$X_n\overset{d}{\to}X$ तथा $Y_n\overset{p}{\to}c$, कहां है $c$ एक स्थिर शब्द है, फिर $X_nY_n\overset{d}{\to}X c$। तो यदि
- $[I_n(\theta)]^{1/2}(\hat{\theta}_n - \theta) \xrightarrow{d} N(0, I_p)$ जैसा $n\to\infty$,
- $[I_n(\hat\theta_n)]^{1/2}/[I_n(\theta)]^{1/2}\overset{p}{\to}1$ जैसा $n\to\infty$,
कहां है $\theta$ अज्ञात पैरामीटर है, $n$ नमूना आकार है, और $\hat\theta_n$ एमएल अनुमानकों का एक क्रम है, फिर $$\frac{[I_n(\hat\theta_n)]^{1/2}}{[I_n(\theta)]^{1/2}}[I_n(\theta)]^{1/2}(\hat{\theta}_n - \theta) =[I_n(\hat\theta_n)]^{1/2}(\hat{\theta}_n - \theta)\overset{d}{\to} N(0,I_p)$$
इसका मतलब है कि, जब $n$ काफी बड़ा है, MLEs का नमूना वितरण लगभग सामान्य है।
आप दिखा सकते हैं कि अगर $[I(θ_0)]^{1/2}(\hat{θ}−θ_0)\overset{d}{\longrightarrow} N(0, I_p)$, तब फिर $\hat{\theta}\overset{P}{\longrightarrow} \theta_0$, इसलिए आपको इस धारणा की आवश्यकता नहीं है।