Finden $E[X\mid Y]$ und $\operatorname{Var}(X\mid Y)$ gegebener Mittelwert und Varianz von $X$ und $Y$

Dec 17 2020

Angenommen, wir haben 2 Normalverteilungen $X$ und $Y$ mit gemein $u_1$ und $u_2$ und Varianz $\sigma_1^2$ und $\sigma_2^2$;; finden$E[X\mid Y]$ und $\operatorname{Var}(X\mid Y)$.

ich weiß $$E[X\mid Y] = \mu_1 + \rho\sigma_1 \frac{Y - u_2}{\sigma_2} $$ und $$\operatorname{Var}[X\mid Y] = \sigma_1 (1 - \rho^2)$$ aber ich kann es nicht beweisen.

Zum $E[X\mid Y]$ Ich fange mit an $$E[X\mid Y] = \int_{-\infty}^{+\infty} x f_{X|Y}(x\mid y)\ dx$$ aber das funktioniert da nicht zum rechnen $f_{X\mid Y}(x\mid y)$ Ich brauche $f_{X,Y}(x,y)$Das habe ich nicht Kann mir jemand helfen?

Antworten

grand_chat Dec 24 2020 at 15:29

Der Dichteansatz wird funktionieren. Nehmen Sie im einfachsten Fall an, dass$X$ und $Y$sind jeweils Standardnormalen mit Korrelation$\rho$, so dass die Fugendichte von$(X,Y)$ ist $$ f(x,y)=\frac1{2\pi\sqrt{1-\rho^2}}\exp \left[-\frac1{2(1-\rho^2)}(x^2-2\rho xy+y^2)\right] $$ während die Grenzdichte von $Y$ ist $$f(y)=\frac1{\sqrt{2\pi}}\exp\left[-\left(\frac{y^2}2\right)\right]. $$ Die bedingte Dichte $\displaystyle f(x\mid y)=\frac{f(x,y)}{f(y)}$ist das Verhältnis von diesen. So bedingt von$Y=y$, die Dichte von $X$ ist $$\begin{align} f(x\mid y)&=\frac1{\sqrt{2\pi(1-\rho^2)}}\exp\left[-\frac1{2(1-\rho^2)}(x^2-2\rho xy+y^2-(1-\rho^2)y^2)\right]\\ &= \frac1{\sqrt{2\pi(1-\rho^2)}}\exp\left[-\frac1{2(1-\rho^2)}(x-\rho y)^2\right]\end{align} $$ was wir als die Dichte einer normalen Zufallsvariablen mit Mittelwert erkennen $\rho y$ und Varianz $1-\rho^2$. Es folgt dem$$ E(X\mid Y=y) = \rho y\qquad{\rm and}\qquad \operatorname{Var}(X\mid Y=y)=1-\rho^2.$$


Schreiben Sie für den allgemeinen Fall $\displaystyle X':=\frac{X-\mu_1}{\sigma_1}$ und $\displaystyle Y':=\frac{Y-\mu_2}{\sigma_2}$. Wenden Sie den vorherigen Fall auf an$X'$ und $Y'$und schließen $$\begin{aligned} E\left (X\mid Y=y\right)&=E\left(\mu_1+\sigma_1 X'\biggm| Y'=\frac{y-\mu_2}{\sigma_2}\right)=\mu_1+\sigma_1 E\left(X'\biggm| Y'=\frac{y-\mu_2}{\sigma_2}\right)\\ &=\mu_1+\sigma_1\rho\left(\frac{y-\mu_2}{\sigma_2}\right) =\mu_1+\rho\frac{\sigma_1}{\sigma_2}(y-\mu_2) \end{aligned} $$ und $$\begin{aligned} \operatorname{Var}(X\mid Y=y)&=\operatorname{Var}\left(\mu_1+\sigma_1 X'\biggm| Y'=\frac{y-\mu_2}{\sigma_2}\right) =\sigma_1^2\operatorname{Var}\left( X'\biggm| Y'=\frac{y-\mu_2}{\sigma_2}\right)\\ &=\sigma_1^2(1-\rho^2).\end{aligned} $$

1 angryavian Dec 18 2020 at 02:32

Nehmen wir das als selbstverständlich an $$\frac{X-\mu_1}{\sigma_1} = \rho \frac{Y-\mu_2}{\sigma_2} + \sqrt{1-\rho^2} Z \tag{$* *$}$$ wo $Z \sim N(0,1)$ ist unabhängig von $Y$. Eine Erklärung finden Sie am Ende meiner Antwort.

Dann \begin{align} E[X \mid Y] &= \mu_1 + \sigma_1 E[(X-\mu_1)/\sigma_1 \mid Y] \\ &= \mu_1 + \sigma_1 \left( E[\rho (Y-\mu_2)/\sigma_2 \mid Y] + E[\sqrt{1-\rho^2} Z \mid Y] \right) \\ &= \mu_1 + \sigma_1 (\rho(Y - \mu_2) / \sigma_2) + \sqrt{1-\rho^2} E[Z] \\ &= \mu_1 + \rho \frac{\sigma_1}{\sigma_2} (Y-\mu_2). \end{align} Beachten Sie, dass Ottavio Bartenor einen Tippfehler in Ihrem ursprünglichen Ausdruck für behoben hat $E[X\mid Y]$.

Ähnlich, \begin{align} \text{Var}(X \mid Y) &= \sigma_1^2 \text{Var}((X-\mu_1)/\sigma_1 \mid Y) \\ &= \sigma_1^2 \text{Var}(\rho(Y-\mu_2)/\sigma_2 + \sqrt{1-\rho^2} Z \mid Y) \\ &= \sigma_1^2 \text{Var}(\sqrt{1-\rho^2} Z \mid Y) \\ &= \sigma_1^2 (1-\rho^2) \text{Var}(Z) \\ &= \sigma_1^2(1-\rho^2). \end{align} Beachten Sie, dass der Ausdruck in Ihrem Beitrag einen Tippfehler enthält.


Annehmen $Y \sim N(\mu_2, \sigma_2^2)$ und $Z \sim N(0,1)$sind unabhängig. Lassen$X$ die obige Gleichheit erfüllen ($*$). Der Anspruch ist das$(X,Y)$ folgt einer bivariaten Normalverteilung mit Parametern $\mu_1, \sigma_1, \mu_2 ,\sigma_2, \rho$.

Sie können das überprüfen $X$ hat gemein $\mu_1$ und Varianz $\sigma_1^2$. Sie können auch überprüfen, ob die Korrelation zwischen$X$ und $Y$ ist $\rho$. Sie können auch überprüfen, ob die Randverteilung von$X$ist normal, da es sich um eine lineare Kombination unabhängiger normaler Zufallsvariablen handelt . Zum Schluss, um das zu rechtfertigen$(X,Y)$ist gemeinsam (bivariate) normal, können Sie sich auf eine äquivalente Charakterisierung von gemeinsam normalen Verteilungen berufen, indem Sie feststellen, dass jede lineare Kombination von$X$ und $Y$ ist normal, weil es als lineare Kombination der unabhängigen normalen Zufallsvariablen geschrieben werden kann $Y$ und $Z$