İki rastgele değişken ise $X_1$ ve $X_2$ bağımlıdır, o zaman zorunludur $X_1^2$ ve $X_2^2$ bağımlı olmak?
İki rastgele değişken ise $X_1$ ve $X_2$ o zaman bağımlı $X_1^2$ ve $X_2^2$ bağımlı olun.
Bu ifadenin yanlış olduğuna inanıyorum. Hesaba katıldığında$X_1$ ve $X_2$ bağımlı olmak demek
$\sigma(X_1)$ bağımlı $\sigma(X_2)$ yani her rv tarafından üretilen sigma cebirleri bağımlıdır, ancak $\sigma(X_1^2)\subset \sigma(X_1)$ ve $\sigma(X_2^2)\subset \sigma(X_2)$ indirgeme potansiyel olarak bağımsız sigma cebirlerine yol açabilir.
Bulduğum karşı örnek şudur:
İzin Vermek:
$X_1\sim \text{Unif}(0,1)$ ve $$ X_2|X_1 = \begin{cases} 1 & X_1\in[0,\frac{1}{2})\\ -1 & X_1\in[\frac{1}{2},1]\\ \end{cases}$$
Bu iki rastgele değişkenin oldukça bağımlı olduğunu unutmayın, ancak ikisini de $X_1\sim \frac{1}{2\sqrt{x_1}}$ ve $X_1|X_1=1$bu nedenle karesi alınmış iki rastgele değişken bağımsızdır. Bu karşı örnek ses mi?
Yanıtlar
Karşı örneğiniz işe yarıyor, $X_2^2$ sabittir, her şeyden bağımsız olduğu için çok açıklayıcı değildir
Başka birine sahip olmak olabilir $A$ ve $B$ bağımsız olarak standart normal (ortalama $0$, varyans $1$) ve
$X_1=A$ süre $X_2=\text{sign}(A)\, |B|$.
Sonra $X_1$ ve $X_2$ pozitif korelasyonlu normal dağılımlar iken $X_1^2$ ve $X_2^2$ bağımsız ki-kare dağılımlarıdır