Вероятностное неравенство для суммы неотрицательных независимых случайных величин
Предположим $X_i$, $i \in \mathbb{N}$ независимые двоичные случайные величины с $P(X_i = 1) = p_i = 1-P(X_i = 0)$ и определить $S_n \equiv \sum_{i=1}^n X_i$. Я хочу доказать, что для каждого$x > 0$, у нас есть $$P(S_n \ge x) \leq \left(\frac{\mu e}{x}\right)^x $$
Я могу сделать это для $x \in (0,1]$ отметив, что функция $f(y) \equiv y^x, y \ge 0$ вогнутая для $x$ в этом диапазоне, следовательно, мы имеем $$P(S_n \ge x) \leq P(eS_n \ge x) \leq P(e^x S_n^x \ge x^x) \leq \frac{e^x E(S_n^x)}{x^x}\leq \frac{e^x E(S_n)^x}{x^x} = \left(\frac{\mu e}{x} \right)^x $$
где мы применяем неравенство Дженсена, чтобы получить последнее неравенство. Я теряюсь из-за попыток сделать это правильно для$x > 1$. Мы не можем снова применить Дженсена, потому что функция$f(y)$ теперь выпуклый на $x \in (1, \infty)$так что нам нужна совершенно другая стратегия. Я не уверен, что это правильная идея, но мы можем записать выражение для вероятности в точности как$$P(S_n \ge x) = \sum_{J \subseteq \{1, ... n\}, |J| \ge x} \prod_{i \in J} p_i \prod_{i \not \in J} (1-p_i) $$Но я не вижу в этом ничего плодотворного. Любая помощь приветствуется!
Ответы
Предположим $x > \mu$, потому что, если $x \le \mu$, то правая часть больше, чем $1$.
Я следую доказательству неравенства Бернштейна: https://en.wikipedia.org/wiki/Bernstein_inequalities_(probability_theory)
Для любой $ \theta > 0$, у нас есть $$ P(S \ge x) = P(\exp(\theta(S-x)) \ge 1) \le E(\exp(\theta(S-x))) = e^{-\theta x} \prod_k E(\exp(\theta X_k)) .$$ В настоящее время $$ E(\exp(\theta X_k)) = 1-p_k + p_k e^{\theta} \le \exp((e^{\theta} - 1) p_k ) .$$ Так $$ P(S \ge x) \le \exp(-\theta x + (e^\theta -1) \mu ) \le \exp(-\theta x + e^\theta \mu ) .$$ Набор $\theta = \log (x/\mu)$.