Découverte $E[X\mid Y]$ et $\operatorname{Var}(X\mid Y)$ moyenne et variance données de $X$ et $Y$

Dec 17 2020

Supposons que nous ayons 2 distributions normales $X$ et $Y$ avec moyenne $u_1$ et $u_2$ et variance $\sigma_1^2$ et $\sigma_2^2$; trouver$E[X\mid Y]$ et $\operatorname{Var}(X\mid Y)$.

je sais $$E[X\mid Y] = \mu_1 + \rho\sigma_1 \frac{Y - u_2}{\sigma_2} $$ et $$\operatorname{Var}[X\mid Y] = \sigma_1 (1 - \rho^2)$$ mais je ne peux pas le prouver.

Pour $E[X\mid Y]$ Je commence par $$E[X\mid Y] = \int_{-\infty}^{+\infty} x f_{X|Y}(x\mid y)\ dx$$ mais cela ne fonctionne pas car pour calculer $f_{X\mid Y}(x\mid y)$ j'ai besoin $f_{X,Y}(x,y)$Je n'ai pas ça. Quelqu'un peut-il m'aider?

Réponses

grand_chat Dec 24 2020 at 15:29

L'approche de densité fonctionnera. Dans le cas le plus simple, supposons que$X$ et $Y$sont chaque norme normale, avec corrélation$\rho$, de sorte que la densité des joints$(X,Y)$ est $$ f(x,y)=\frac1{2\pi\sqrt{1-\rho^2}}\exp \left[-\frac1{2(1-\rho^2)}(x^2-2\rho xy+y^2)\right] $$ tandis que la densité marginale de $Y$ est $$f(y)=\frac1{\sqrt{2\pi}}\exp\left[-\left(\frac{y^2}2\right)\right]. $$ La densité conditionnelle $\displaystyle f(x\mid y)=\frac{f(x,y)}{f(y)}$est le rapport de ceux-ci. Si conditionnel à$Y=y$, la densité de $X$ est $$\begin{align} f(x\mid y)&=\frac1{\sqrt{2\pi(1-\rho^2)}}\exp\left[-\frac1{2(1-\rho^2)}(x^2-2\rho xy+y^2-(1-\rho^2)y^2)\right]\\ &= \frac1{\sqrt{2\pi(1-\rho^2)}}\exp\left[-\frac1{2(1-\rho^2)}(x-\rho y)^2\right]\end{align} $$ que nous reconnaissons comme la densité d'une variable aléatoire normale de moyenne $\rho y$ et variance $1-\rho^2$. Il s'ensuit que$$ E(X\mid Y=y) = \rho y\qquad{\rm and}\qquad \operatorname{Var}(X\mid Y=y)=1-\rho^2.$$


Pour le cas général, écrivez $\displaystyle X':=\frac{X-\mu_1}{\sigma_1}$ et $\displaystyle Y':=\frac{Y-\mu_2}{\sigma_2}$. Appliquer le cas précédent à$X'$ et $Y'$et conclure $$\begin{aligned} E\left (X\mid Y=y\right)&=E\left(\mu_1+\sigma_1 X'\biggm| Y'=\frac{y-\mu_2}{\sigma_2}\right)=\mu_1+\sigma_1 E\left(X'\biggm| Y'=\frac{y-\mu_2}{\sigma_2}\right)\\ &=\mu_1+\sigma_1\rho\left(\frac{y-\mu_2}{\sigma_2}\right) =\mu_1+\rho\frac{\sigma_1}{\sigma_2}(y-\mu_2) \end{aligned} $$ et $$\begin{aligned} \operatorname{Var}(X\mid Y=y)&=\operatorname{Var}\left(\mu_1+\sigma_1 X'\biggm| Y'=\frac{y-\mu_2}{\sigma_2}\right) =\sigma_1^2\operatorname{Var}\left( X'\biggm| Y'=\frac{y-\mu_2}{\sigma_2}\right)\\ &=\sigma_1^2(1-\rho^2).\end{aligned} $$

1 angryavian Dec 18 2020 at 02:32

Prenons pour acquis que $$\frac{X-\mu_1}{\sigma_1} = \rho \frac{Y-\mu_2}{\sigma_2} + \sqrt{1-\rho^2} Z \tag{$*$}$$$Z \sim N(0,1)$ est indépendant de $Y$. Voir la fin de ma réponse pour une explication.

ensuite \begin{align} E[X \mid Y] &= \mu_1 + \sigma_1 E[(X-\mu_1)/\sigma_1 \mid Y] \\ &= \mu_1 + \sigma_1 \left( E[\rho (Y-\mu_2)/\sigma_2 \mid Y] + E[\sqrt{1-\rho^2} Z \mid Y] \right) \\ &= \mu_1 + \sigma_1 (\rho(Y - \mu_2) / \sigma_2) + \sqrt{1-\rho^2} E[Z] \\ &= \mu_1 + \rho \frac{\sigma_1}{\sigma_2} (Y-\mu_2). \end{align} Notez qu'Ottavio Bartenor a corrigé une faute de frappe dans votre expression d'origine pour $E[X\mid Y]$.

De même, \begin{align} \text{Var}(X \mid Y) &= \sigma_1^2 \text{Var}((X-\mu_1)/\sigma_1 \mid Y) \\ &= \sigma_1^2 \text{Var}(\rho(Y-\mu_2)/\sigma_2 + \sqrt{1-\rho^2} Z \mid Y) \\ &= \sigma_1^2 \text{Var}(\sqrt{1-\rho^2} Z \mid Y) \\ &= \sigma_1^2 (1-\rho^2) \text{Var}(Z) \\ &= \sigma_1^2(1-\rho^2). \end{align} Notez que l'expression dans votre message comporte une faute de frappe.


Supposer $Y \sim N(\mu_2, \sigma_2^2)$ et $Z \sim N(0,1)$sont indépendants. Laisser$X$ satisfaire l'égalité ci-dessus ($*$). L'affirmation est que$(X,Y)$ suit une distribution normale bivariée avec des paramètres $\mu_1, \sigma_1, \mu_2 ,\sigma_2, \rho$.

Vous pouvez vérifier que $X$ a moyen $\mu_1$ et variance $\sigma_1^2$. Vous pouvez également vérifier que la corrélation entre$X$ et $Y$ est $\rho$. Vous pouvez également vérifier que la distribution marginale de$X$est normal, car il s'agit d'une combinaison linéaire de variables aléatoires normales indépendantes . Enfin, pour justifier que$(X,Y)$est conjointement (bivariée) normale, vous pouvez faire appel à une caractérisation équivalente des distributions normales conjointement en notant que toute combinaison$X$ et $Y$ est normal car il peut être écrit comme une combinaison linéaire des variables aléatoires normales indépendantes $Y$ et $Z$