Inégalité de probabilité pour la somme des variables aléatoires indépendantes non négatives
Supposer $X_i$, $i \in \mathbb{N}$ sont des variables aléatoires binaires indépendantes avec $P(X_i = 1) = p_i = 1-P(X_i = 0)$ et définir $S_n \equiv \sum_{i=1}^n X_i$. Je veux prouver que pour chaque$x > 0$, nous avons $$P(S_n \ge x) \leq \left(\frac{\mu e}{x}\right)^x $$
Je peux faire ça pour $x \in (0,1]$ en notant que la fonction $f(y) \equiv y^x, y \ge 0$ est concave pour $x$ dans cette gamme, nous avons donc $$P(S_n \ge x) \leq P(eS_n \ge x) \leq P(e^x S_n^x \ge x^x) \leq \frac{e^x E(S_n^x)}{x^x}\leq \frac{e^x E(S_n)^x}{x^x} = \left(\frac{\mu e}{x} \right)^x $$
où nous appliquons l'inégalité de Jensen pour obtenir la dernière inégalité. Je suis perdu d'essayer de faire ça pour$x > 1$. Nous ne pouvons plus appliquer Jensen car la fonction$f(y)$ est maintenant convexe sur $x \in (1, \infty)$nous avons donc besoin d'une stratégie entièrement différente. Je ne sais pas si c'est la bonne idée, mais nous pouvons écrire une expression pour la probabilité exactement comme étant$$P(S_n \ge x) = \sum_{J \subseteq \{1, ... n\}, |J| \ge x} \prod_{i \in J} p_i \prod_{i \not \in J} (1-p_i) $$Cependant, je ne vois rien de fructueux. Toute aide serait très appréciée!
Réponses
Supposer $x > \mu$, parce que si $x \le \mu$, alors le côté droit est plus grand que $1$.
Je suis la preuve de l'inégalité de Bernstein: https://en.wikipedia.org/wiki/Bernstein_inequalities_(probability_theory)
Pour toute $ \theta > 0$, nous avons $$ P(S \ge x) = P(\exp(\theta(S-x)) \ge 1) \le E(\exp(\theta(S-x))) = e^{-\theta x} \prod_k E(\exp(\theta X_k)) .$$ Maintenant $$ E(\exp(\theta X_k)) = 1-p_k + p_k e^{\theta} \le \exp((e^{\theta} - 1) p_k ) .$$ Alors $$ P(S \ge x) \le \exp(-\theta x + (e^\theta -1) \mu ) \le \exp(-\theta x + e^\theta \mu ) .$$ Ensemble $\theta = \log (x/\mu)$.