Encontrando $E[X\mid Y]$ e $\operatorname{Var}(X\mid Y)$ dada média e variância de $X$ e $Y$

Dec 17 2020

Suponha que temos 2 distribuições normais $X$ e $Y$ com média $u_1$ e $u_2$ e variância $\sigma_1^2$ e $\sigma_2^2$; encontrar$E[X\mid Y]$ e $\operatorname{Var}(X\mid Y)$.

eu sei $$E[X\mid Y] = \mu_1 + \rho\sigma_1 \frac{Y - u_2}{\sigma_2} $$ e $$\operatorname{Var}[X\mid Y] = \sigma_1 (1 - \rho^2)$$ mas não posso provar.

Para $E[X\mid Y]$ Eu começo com $$E[X\mid Y] = \int_{-\infty}^{+\infty} x f_{X|Y}(x\mid y)\ dx$$ mas isso não funciona porque para calcular $f_{X\mid Y}(x\mid y)$ eu preciso $f_{X,Y}(x,y)$Eu não tenho isso. Alguém pode me ajudar?

Respostas

grand_chat Dec 24 2020 at 15:29

A abordagem da densidade funcionará. No caso mais simples, suponha que$X$ e $Y$cada um é normal padrão , com correlação$\rho$, de modo que a densidade da junta de$(X,Y)$ é $$ f(x,y)=\frac1{2\pi\sqrt{1-\rho^2}}\exp \left[-\frac1{2(1-\rho^2)}(x^2-2\rho xy+y^2)\right] $$ enquanto a densidade marginal de $Y$ é $$f(y)=\frac1{\sqrt{2\pi}}\exp\left[-\left(\frac{y^2}2\right)\right]. $$ A densidade condicional $\displaystyle f(x\mid y)=\frac{f(x,y)}{f(y)}$é a proporção desses. Então, condicionado a$Y=y$, a densidade de $X$ é $$\begin{align} f(x\mid y)&=\frac1{\sqrt{2\pi(1-\rho^2)}}\exp\left[-\frac1{2(1-\rho^2)}(x^2-2\rho xy+y^2-(1-\rho^2)y^2)\right]\\ &= \frac1{\sqrt{2\pi(1-\rho^2)}}\exp\left[-\frac1{2(1-\rho^2)}(x-\rho y)^2\right]\end{align} $$ que reconhecemos como a densidade de uma variável aleatória normal com média $\rho y$ e variância $1-\rho^2$. Segue que$$ E(X\mid Y=y) = \rho y\qquad{\rm and}\qquad \operatorname{Var}(X\mid Y=y)=1-\rho^2.$$


Para o caso geral, escreva $\displaystyle X':=\frac{X-\mu_1}{\sigma_1}$ e $\displaystyle Y':=\frac{Y-\mu_2}{\sigma_2}$. Aplique o caso anterior a$X'$ e $Y'$, e concluir $$\begin{aligned} E\left (X\mid Y=y\right)&=E\left(\mu_1+\sigma_1 X'\biggm| Y'=\frac{y-\mu_2}{\sigma_2}\right)=\mu_1+\sigma_1 E\left(X'\biggm| Y'=\frac{y-\mu_2}{\sigma_2}\right)\\ &=\mu_1+\sigma_1\rho\left(\frac{y-\mu_2}{\sigma_2}\right) =\mu_1+\rho\frac{\sigma_1}{\sigma_2}(y-\mu_2) \end{aligned} $$ e $$\begin{aligned} \operatorname{Var}(X\mid Y=y)&=\operatorname{Var}\left(\mu_1+\sigma_1 X'\biggm| Y'=\frac{y-\mu_2}{\sigma_2}\right) =\sigma_1^2\operatorname{Var}\left( X'\biggm| Y'=\frac{y-\mu_2}{\sigma_2}\right)\\ &=\sigma_1^2(1-\rho^2).\end{aligned} $$

1 angryavian Dec 18 2020 at 02:32

Vamos supor que $$\frac{X-\mu_1}{\sigma_1} = \rho \frac{Y-\mu_2}{\sigma_2} + \sqrt{1-\rho^2} Z \tag{$*$}$$ Onde $Z \sim N(0,1)$ é independente de $Y$. Veja o final da minha resposta para uma explicação.

Então \begin{align} E[X \mid Y] &= \mu_1 + \sigma_1 E[(X-\mu_1)/\sigma_1 \mid Y] \\ &= \mu_1 + \sigma_1 \left( E[\rho (Y-\mu_2)/\sigma_2 \mid Y] + E[\sqrt{1-\rho^2} Z \mid Y] \right) \\ &= \mu_1 + \sigma_1 (\rho(Y - \mu_2) / \sigma_2) + \sqrt{1-\rho^2} E[Z] \\ &= \mu_1 + \rho \frac{\sigma_1}{\sigma_2} (Y-\mu_2). \end{align} Observe que Ottavio Bartenor corrigiu um erro de digitação em sua expressão original para $E[X\mid Y]$.

Similarmente, \begin{align} \text{Var}(X \mid Y) &= \sigma_1^2 \text{Var}((X-\mu_1)/\sigma_1 \mid Y) \\ &= \sigma_1^2 \text{Var}(\rho(Y-\mu_2)/\sigma_2 + \sqrt{1-\rho^2} Z \mid Y) \\ &= \sigma_1^2 \text{Var}(\sqrt{1-\rho^2} Z \mid Y) \\ &= \sigma_1^2 (1-\rho^2) \text{Var}(Z) \\ &= \sigma_1^2(1-\rho^2). \end{align} Observe que a expressão em sua postagem contém um erro de digitação.


Suponha $Y \sim N(\mu_2, \sigma_2^2)$ e $Z \sim N(0,1)$são independentes. Deixei$X$ satisfazer a igualdade acima ($*$) A alegação é que$(X,Y)$ segue uma distribuição normal bivariada com parâmetros $\mu_1, \sigma_1, \mu_2 ,\sigma_2, \rho$.

Você pode verificar isso $X$ tem média $\mu_1$ e variância $\sigma_1^2$. Você também pode verificar se a correlação entre$X$ e $Y$ é $\rho$. Você também pode verificar se a distribuição marginal de$X$é normal, porque é uma combinação linear de variáveis ​​aleatórias normais independentes . Finalmente, para justificar que$(X,Y)$é conjuntamente (bivariada) normal, você pode apelar para uma caracterização equivalente de distribuições conjuntamente normais , observando que qualquer combinação linear de$X$ e $Y$ é normal porque pode ser escrito como uma combinação linear das variáveis ​​aleatórias normais independentes $Y$ e $Z$