Prouver l’inégalité de probabilité pour dériver la limite supérieure des fonctions génératrices de moment [fermé]

Dec 11 2020

Je suis obligé de prouver les inégalités.

Laisser $X_i$être rv indépendant dans [0,1]. Dénoter$S=X_1+\dots+X_n$.

Notez que pour tout $a\in \mathbb{R}$ et $0\leq x\leq 1$, on a $$e^{ax}\leq 1-x+xe^a \tag{0}$$

  1. Comment montrer les inégalités suivantes, qui fournissent des limites supérieures pour les fonctions génératrices de moments?

Pour toute $a\in \mathbb{R}$,

$$M_{X_i}(a) := \mathbb{E}[e^{aX_i}]\leq e^{\mathbb{E}[X_i](e^a-1)} \tag{1.1}$$ et $$M_S(a) := \mathbb{E}[e^{aS}]\leq e^{\mathbb{E}[S](e^a-1)} \tag{1.2}$$

en supposant chacun $M_{X_i}(a) := \mathbb{E}[e^{aX_i}]$ existe (et donc $M_S(a)$ existe)

  1. Aussi, comment étendre cela aux éléments suivants?

Pour toute $0<t<1$,

$$\mathbb{P}(S\geq (1+t)\mathbb{E}[S])\leq(\frac{e^t}{(1+t)^{1+t}})^{\mathbb{E}[S]} \tag{2.1}$$

et

$$\mathbb{P}(S\geq (1-t)\mathbb{E}[S])\leq(\frac{e^{-t}}{(1-t)^{1-t}})^{\mathbb{E}[S]} \tag{2.2}$$

Réponses

2 BCLC Dec 11 2020 at 17:07

(anciennement réponse partielle. maintenant réponse complète, j'espère).


Pour prouver 1.1:

Il y a une autre inégalité à utiliser: nous avons pour tout $b \in \mathbb R$ cette $$1+b \le e^b \tag{A}$$

Par $(0)$, $M_X(a) \le 1+(e^a-1)E[X]$. Par$(A)$ avec $b=(e^a-1)E[X]$, on a $1+(e^a-1)E[X] \le e^{E[X](e^a-1)}$.

Remarque: j'ai en fait l'inégalité $(A)$ d'ici: https://en.wikipedia.org/wiki/Moment-generating_function#Other_properties -> dans la partie avec 'Cela découle de la simple inégalité'.


Pour prouver 1.2 à partir de 1.1:

Par indépendance (indépendance de $X_i$ implique l'indépendance de $e^{aX_i}$ car $f(x)=e^{ax}, f: \mathbb R \to \mathbb R$est mesurable ou quelque chose. voir ici ou ici ou ma nouvelle question ici ... ou utiliser la définition de l'indépendance en termes de fractionnement de la densité articulaire ou quelque chose),

$$\mathbb{E}[e^{a(\sum_i X_i)} = \prod_i e^{aX_i}] = \prod_i E[e^{aX_i}]$$

Alors 1.1 dit $E[e^{aX_i}] \le e^{\mathbb{E}[X_i](e^a-1)}$. Par conséquent, à partir de la non-négativité de chacun$E[e^{aX_i}]$,

$$\mathbb{E}[e^{a(\sum_i X_i)}] \le \prod_i e^{\mathbb{E}[X_i](e^a-1)} = e^{\sum_i \mathbb{E}[X_i](e^a-1)} = e^{E[S](e^a-1)}$$


Pour 2 (tentative 1):

Je ne suis pas sûr que l'inégalité de Markov soit utile, mais ...

L'inégalité de Markov, en supposant applicable, donne

$$\mathbb{P}(S\geq (1 \pm t)\mathbb{E}[S])\le \frac{E[S]}{(1 \pm t)\mathbb{E}[S]} = \frac{1}{1 \pm t}$$

Ici, l'inégalité de Markov est applicable parce que $S$, $1 \pm t$ et $\mathbb{E}[S]$ sont non négatifs, MAIS SI $\mathbb{E}[S]$est différent de zéro. À ce stade, j'imagine que nous allons utiliser que les variables aléatoires non négatives ont une moyenne nulle si et seulement si elles sont presque sûrement nulles .


Pour 2 (tentative 2):

Je pense que l'inégalité de Markov est utile mais pas pour $P(S \ge (1 \pm t)\mathbb{E}[S])$ directement mais plutôt pour $P(S \ge (1 \pm t)\mathbb{E}[S]) = P(e^{mS} \ge e^{m[(1 \pm t)\mathbb{E}[S])]})$, pour toute $m > 0$. On a

$$P(S \ge (1 \pm t)\mathbb{E}[S]) \le e^{-m((1 \pm t)\mathbb{E}[S])} M_S(m) \tag{B}$$

basé sur (voir ici ) que pour toute variable aléatoire$Z$ (ne doit pas être non négatif) et pour tout $z$ (ne doit pas être positif) et pour tout $m > 0$

$$P(Z \ge z) \le e^{-zm} M_Z(m) := e^{-zm} E[e^{mZ}]$$


Je pense que je l'ai eu pour (2.1):

Dans $(B)$, choisir $m=\ln(1+t)$, ce qui est en effet positif pour $0 < t$ (je ne sais pas où $t < 1$est utilisé. peut-être que cela est plus utilisé dans (2.2)) et ensuite utiliser$(0)$ sur $E[e^{mS}]$ avec $a=m$:

$$P(S \ge (1 + t)\mathbb{E}[S]) \le e^{(e^m-1-m-mt)E[S]}$$

et alors $e^{(e^m-1-m-mt)E[S]}$ est en effet $\le (\frac{e^t}{(1+t)^{1+t}})^{\mathbb{E}[S]}$, ce qui (j'espère!) est vrai si et seulement si $(e^m-1-m-mt)E[S] \le \mathbb{E}[S] \ln(\frac{e^t}{(1+t)^{1+t}})$, ce qui est vrai si et seulement si $e^m-1-m+mt \le \ln(\frac{e^t}{(1+t)^{1+t}} = t - (1+t)\ln(1+t)$


De même pour 2.2: (peut-être lié: exercice lié à Borel-Cantelli: montrer que$\sum_{n=1}^{\infty} p_n < 1 \implies \prod_{n=1}^{\infty} (1-p_n) \geq 1- S$. )

Faire $m=ln(1-t)$. Maintenant, cela utilise$t < 1$ (pas sûr si $0 < t$est utilisé). Au lieu d'avoir à prouver '$e^m-1-m-mt \le t - (1+t)\ln(1+t)$', nous devons prouver ... soit

$e^m-1-m+mt \le - t \pm (1-t)\ln(1-t)$. Vous vérifiez lequel des$\pm$ mais peu importe je crois que nous avons

$e^m-1-m+mt \le - t - (1-t)\ln(1-t)$. Enfin, au cas où c'est le$+$, utilise juste ça $- t - (1-t)\ln(1-t) \le - t + (1-t)\ln(1-t)$.


Remarque : n'oubliez pas de prouver l'inégalité de Markov, si vous ne l'avez pas fait en classe!