2つの確率変数の場合 $X_1$ そして $X_2$ 依存している必要があります $X_1^2$ そして $X_2^2$ 依存しますか?
2つの確率変数の場合 $X_1$ そして $X_2$ 依存している $X_1^2$ そして $X_2^2$ 依存する。
私はこの声明は誤りだと信じています。それを考慮して$X_1$ そして $X_2$ 依存しているということは
$\sigma(X_1)$ に依存しています $\sigma(X_2)$ つまり、各rvによって生成されるシグマ代数は依存していますが、 $\sigma(X_1^2)\subset \sigma(X_1)$ そして $\sigma(X_2^2)\subset \sigma(X_2)$ 削減は、独立したシグマ代数につながる可能性があります。
私が思いついた反例は
しましょう:
$X_1\sim \text{Unif}(0,1)$ そして $$ X_2|X_1 = \begin{cases} 1 & X_1\in[0,\frac{1}{2})\\ -1 & X_1\in[\frac{1}{2},1]\\ \end{cases}$$
これらの2つの確率変数は非常に依存していますが、両方を2乗すると $X_1\sim \frac{1}{2\sqrt{x_1}}$ そして $X_1|X_1=1$したがって、2つの二乗確率変数は独立しています。これは反例の音ですか?
回答
あなたの反例はうまくいきます、あなたの $X_2^2$ それはすべてから独立しているので、それはあまり明らかにではありません
もう一つは持っているかもしれません $A$ そして $B$ 独立して標準正規(平均 $0$、分散 $1$)および
$X_1=A$ 一方 $X_2=\text{sign}(A)\, |B|$。
次に $X_1$ そして $X_2$ 正の相関のある正規分布ですが、 $X_1^2$ そして $X_2^2$ 独立したカイ二乗分布です