Date le variabili casuali iid $\{X_n\}$con secondo momento finito. Dimostralo $n\cdot P\left(\left|X_{1}\right|\geq\epsilon\sqrt{n}\right)\rightarrow0$
Date le variabili casuali iid $\{X_n\}$con secondo momento finito. Come provare$n\cdot P\left(\left|X_{1}\right|\geq\epsilon\sqrt{n}\right)\rightarrow0$?
Ho provato la disuguaglianza di Chebyshev:
$$n\cdot P\left(\left|X_{1}\right|\geq\epsilon\sqrt{n}\right)\leq n\frac{Var(X_1)}{\epsilon^2n}=\frac{Var(X_1)}{\epsilon^2}$$ma non ha funzionato perché abbiamo solo un momento di secondo ordine finito . Esistono disuguaglianze più delicate della disuguaglianza di Chebyshev?
Risposte
$nP(|X_1| \geq \epsilon \sqrt n) \leq n\frac { \int_{E_n} |X_1|^{2}dP} {\epsilon n}$ dove $E_n=(|X_1| \geq \epsilon \sqrt n)$. Usa il fatto che$\int_{E_n} |X_1|^{2}dP \to 0$ dagli eventi $\int_{E_n} |X_1|^{2}$ decrementa fino al set vuoto e $E|X_1|^{2} <\infty$.
Dimostrerò il seguente lemma da cui seguirà la tua risposta.
Permettere $X$ essere una variabile casuale a valori reali non negativa tale che $\mathbb E(X)<\infty$. Poi$$n \mathbb P[X>n ]\rightarrow 0 \text{ as }n\uparrow \infty$$ Prova: $\mathbb E(X)=\mathbb E(X\mathbb 1_{X\leq n})+\mathbb E(X\mathbb 1_{X>n })$.
Da $X\mathbb 1_{X<n}\uparrow X$ come $n\uparrow \infty$ e tutte le variabili casuali sono non negative, per il Teorema di Convergenza Monotono che abbiamo $$\lim_{n\uparrow \infty }\mathbb E(X\mathbb 1_{X<n})=\mathbb E(X)$$Ne consegue quindi che $$\lim_{n\rightarrow \infty }\mathbb E(X\mathbb 1_{X>n}) =0$$ Da $0\leq n\mathbb 1_{X>n}\leq X\mathbb1 _{X>n}$, noi abbiamo $$0\leq \mathbb E(n\mathbb 1_{X>n})\leq \mathbb E(X\mathbb1 _{X>n})$$ $$\implies 0\leq n \mathbb P[ X>n ] \leq \mathbb E(X\mathbb1 _{X>n})\rightarrow 0 \text{ as }n\rightarrow \infty$$Usa il Teorema di Sandwich per concludere. Infine nel tuo problema guarda$Z:=\frac{|X_1 |}{\epsilon}$