İki rastgele değişken ise $X_1$ ve $X_2$ bağımlıdır, o zaman zorunludur $X_1^2$ ve $X_2^2$ bağımlı olmak?

Aug 15 2020

İki rastgele değişken ise $X_1$ ve $X_2$ o zaman bağımlı $X_1^2$ ve $X_2^2$ bağımlı olun.

Bu ifadenin yanlış olduğuna inanıyorum. Hesaba katıldığında$X_1$ ve $X_2$ bağımlı olmak demek

$\sigma(X_1)$ bağımlı $\sigma(X_2)$ yani her rv tarafından üretilen sigma cebirleri bağımlıdır, ancak $\sigma(X_1^2)\subset \sigma(X_1)$ ve $\sigma(X_2^2)\subset \sigma(X_2)$ indirgeme potansiyel olarak bağımsız sigma cebirlerine yol açabilir.

Bulduğum karşı örnek şudur:

İzin Vermek:

$X_1\sim \text{Unif}(0,1)$ ve $$ X_2|X_1 = \begin{cases} 1 & X_1\in[0,\frac{1}{2})\\ -1 & X_1\in[\frac{1}{2},1]\\ \end{cases}$$

Bu iki rastgele değişkenin oldukça bağımlı olduğunu unutmayın, ancak ikisini de $X_1\sim \frac{1}{2\sqrt{x_1}}$ ve $X_1|X_1=1$bu nedenle karesi alınmış iki rastgele değişken bağımsızdır. Bu karşı örnek ses mi?

Yanıtlar

3 Henry Aug 16 2020 at 02:51

Karşı örneğiniz işe yarıyor, $X_2^2$ sabittir, her şeyden bağımsız olduğu için çok açıklayıcı değildir

Başka birine sahip olmak olabilir $A$ ve $B$ bağımsız olarak standart normal (ortalama $0$, varyans $1$) ve

$X_1=A$ süre $X_2=\text{sign}(A)\, |B|$.

Sonra $X_1$ ve $X_2$ pozitif korelasyonlu normal dağılımlar iken $X_1^2$ ve $X_2^2$ bağımsız ki-kare dağılımlarıdır