Quel est $\Pr(X + Y < 0)$ où $X \sim U(0,1)$ et $Y \sim N(0, 1)$? $X$ et $Y$ sont indépendants

Aug 19 2020

C'est ce que j'ai tenté jusqu'à présent:

\begin{align} f_X = 1 \\ f_Y = \frac{1}{\sqrt{2\pi}}\exp(-0.5y^2) \end{align}

Puis laissez $Z = X + Y$ et nous avons

\begin{align} f_Z(z) = \int_0^1 f_X(x) f_Y(z - x) \, dx \\ f_Z(z) = \int_0^1 1 \cdot f_Y(z - x) \, dx \\ = \int_0^1 \frac{1}{\sqrt{2\pi}}\exp(-0.5(x - z)^2) \, dx \end{align}

Donc \begin{align} Pr(Z \leq 0) = \int_{-\infty}^0 \int_0^1 \frac{1}{\sqrt{2\pi}}\exp(-0.5(x-z)^2) \, dx \, dz \\ = \int_{-\infty}^0 \int_0^1 \frac{1}{\sqrt{2\pi}}\exp(-0.5x^2) \exp(- 0.5z^2) \exp(0.5xz)\,dx\,dz \\ \end{align}

Cela semble être une intégrale fastidieuse à évaluer. Je ne sais pas si j'adopte la bonne approche. Existe-t-il une méthode plus simple pour cela?

Réponses

1 J.G. Aug 19 2020 at 03:13

En supposant $X,\,Y$ sont indépendants:

Nous voulons $Y$-moyenne $Pr(X<-Y)$, qui à fixe $Y$ est $0$ si $Y\ge0$, $1$ si $Y<-1$ et $-Y$autrement. La moyenne est$$\int_{-\infty}^{-1}f_Y(y)dy-\int_{-1}^0yf(y)dy=\Phi(-1)+\tfrac{1-e^{-1/2}}{\sqrt{2\pi}}\approx0.315.$$

1 tommik Aug 19 2020 at 03:27

C'est une très grosse erreur d'éviter d'affirmer que X et Y sont indépendants. Tel qu'il est écrit, l'exercice ne peut pas être résolu.

Donc, en supposant l'indépendance, observez d'abord que si $Y<-1$ c'est toujours vrai que $X+Y<0$ et cela arrive avec probabilité $\Phi(-1)\approx 15.87\%$

Pour le reste, quand $Y>-1$ l'intégrale à résoudre est

$$\int_{-1}^{0}\phi(y)dy\int_{0}^{-y}dx=-\frac{1}{\sqrt{2\pi}}\int_{-1}^{0}ye^{-\frac{y^2}{2}}dy=\frac{1}{\sqrt{2\pi}}[e^{-\frac{y^2}{2}}]_{-1}^{0}=\frac{1-e^{-0.5}}{\sqrt{2\pi}}$$

C'est l'intégrale dans la zone violette ci-dessous

Alex Aug 19 2020 at 23:51

Je pense qu'il vaut mieux dériver la distribution complète de $Z=X+Y$en utilisant la formule de convolution pour les CDF. Quand j'ai utilisé la convolution pour les fichiers PDF, j'ai$$ f_Z(z) = \Phi(z)-\Phi(z-1), -\infty<z<\infty $$ce qui est très difficile à intégrer, j'ai donc utilisé la convolution pour les CDF à la place. Pas que si$Y \sim R(0,1)$, puis $F_Y(y) = P(Y<y) = P(Y<z-x)$, Par conséquent: $$ F_Y(z-x)= \left\{ \begin{array}{lr} 0 & x>z\\ z-x & 0<z-x<1\\ 1 & x<z-1 \end{array} \right. $$ Nous pouvons donc ignorer le pdf de $X$ si $ X>z$. Pour le deuxième cas, nous avons les limites suivantes:$z-1<x<z$, et le CDF de $Y$ est $z-x$, pour le troisième cas, le CDF de $Y$ est $1$, donc nous prenons juste le pdf de $X$ pour $-\infty<x<z-1$. Puisque$-\infty <z<\infty$, nous venons de rassembler ces trois cas: \begin{align} P(Z<z) &= F_Z(z) = \int_{z-1}^{z}(z-x)\varphi_X(x)dx + \Phi(z-1) \\ &= z(\Phi(z)-\Phi(z-1)) - \int_{z-1}^{z}x\varphi(x)dx + \Phi(z-1), -\infty <z< \infty \end{align}$\varphi, \Phi$sont la densité et le CDF de distribution normale standard. En branchant$z=0$vous obtenez le résultat. Notez que ce CDF a du sens, car$$ \lim_{z \to \pm \infty} z(\Phi(z)-\Phi(z-1)) = 0 \ \ (1)\\ \lim_{z\to \infty} \int_{z-1}^{z}x\varphi(x)dx = 0 \ \ (2)\\ \lim_{z \to \infty} F_Z(z) = 1\\ \lim_{z \to -\infty} F_Z(z) = 0 $$ Ici, les deux (1) et (2) peuvent être prouvés en prenant les bornes supérieure et inférieure sur $z$ et $x$pour les intervalles correspondants, puis en prenant la limite. Notez également$z-x$est toujours positive, donc l'expression entière est toujours positive. Maintenant, prenez le dérivé wrt$z$ (attention aux signes) pour obtenir $$ f_Z(z) = \Phi(z) - \Phi(z-1), \ -\infty <z< \infty $$ Vérifiez également les limites.