Hubungan antara proyeksi $y$ke $x_1, x_2$individual vs proyeksi pada keduanya?
Ini pada dasarnya mirip dengan pertanyaan yang baru saja saya tanyakan pada crossvalidated , tetapi di sini saya akan mengajukannya dengan cara aljabar linier.
Mempertimbangkan$y \in \mathbb{R}^n$dan$x_1, x_2, 1_n \in \mathbb{R}^{n}$. Misalkan Anda memproyeksikan secara ortogonal$y$ke$x_1, 1_n$dan temukan proyeksi dari$y$ke subruang yang direntang oleh$x_1, 1_n$dapat ditulis sebagai$\hat{y}_1 = \hat{\beta}_1 x_1 + b_1$, yaitu, kombinasi linier dari$x_1$ditambah beberapa offset. Sekarang lakukan hal yang sama untuk proyeksi ortogonal dari$y$ke$x_2, 1_n$dan menemukan$\hat{y}_2 = \hat{\beta}_2 x_2 + b_2$.
Sekarang pertimbangkan untuk memproyeksikan$y$ke subruang yang direntang oleh keduanya$x_1, x_2, 1_n$dan menemukan$\hat{y}_{12} = \hat{\gamma}_1 x_1 + \hat{\gamma}_2x_2 + b_{12}$.
Jika$x_1 \perp x_2$, maka saya tahu$\hat{\beta}_i = \hat{\gamma}_i$. Tetapi bagaimana jika mereka tidak ortogonal?
Apa yang bisa saya katakan tentang hubungan antara$\hat{\beta}$dan$\hat{\gamma}$pada kasus ini?
Beberapa pertanyaan spesifik yang juga menarik bagi saya adalah jika$\hat{\beta} >0 $, apakah ini menyiratkan$\hat{\gamma} > 0$? Jika$x_1, x_2$tergantung linier, maka saya tidak berpikir ini tidak akan berlaku untuk salah satu koefisien.
Jawaban
Saya tidak bisa mengatakan saya benar-benar mengerti apa itu konstanta$b_1$,$b_2$atau$b_{12}$adalah untuk. Tapi saya mengerti inti dari pertanyaan Anda dan saya akan mencoba yang terbaik.
Sebutkan proyeksi ortogonal dari$y$ke subruang yang direntang oleh$x_1$dapat ditulis sebagai$\hat{y}_1 = \hat{\beta}_1 x_1$, yaitu, kombinasi linier dari$x_1$. Sekarang kita melakukan hal yang sama untuk proyeksi ortogonal dari$y$ke$x_2$dan menemukan$\hat{y}_2 = \hat{\beta}_2 x_2$.
Kami juga memiliki proyeksi$y$ke subruang yang direntang oleh keduanya$x_1, x_2$dan menemukan$\hat{y}_{12} = \hat{\gamma}_1 x_1 + \hat{\gamma}_2x_2$.
Tanpa kehilangan keumuman kita dapat mengatakan vektor$x_1$dan$x_2$adalah vektor satuan dan mewakilinya dengan$\hat{x_1}$dan$\hat{x_2}$. Jika Anda tidak ingin melakukan ini, tulis ulang semua vektor dalam bentuk$\hat{x_1}$dan$\hat{x_2}$. Jadi misalnya,$\hat{\beta_1}$akan menjadi$\hat{\beta_1} ||x_1||$
Sekarang, pertimbangkan pernyataan ini. Proyeksi ortogonal dari$\hat{y_{12}}$ke$x_1$akan sama dengan$\hat{y_1}$dan proyeksi ortogonal dari$\hat{y_{12}}$ke$x_2$akan sama dengan$\hat{y_2}$.
Jadi, menurut definisi proyeksi,
$$ \hat{y_{12}}.\hat{x_1} = ||\hat{y_1}|| $$
$$ \implies (\hat{\gamma}_1 \hat{x_1} + \hat{\gamma}_2 \hat{x_2}).\hat{x_1} = ||\hat{y_1}||$$
$$ \implies \hat{\gamma}_1 \hat{x_1}.\hat{x_1} + \hat{\gamma}_2 \hat{x_2}.\hat{x_1} = \hat{\beta}_1$$
$$ \implies \hat{\gamma}_1 + \hat{\gamma}_2 \hat{x_2}.\hat{x_1} = \hat{\beta}_1 \tag{1}$$
Demikian pula kita dapat memecahkan$ \hat{y_{12}}.\hat{x_1} = ||\hat{y_2}|| $mendapatkan
$$ \implies \hat{\gamma}_1 \hat{x_1}.\hat{x_2} + \hat{\gamma}_2 = \hat{\beta}_2 \tag{2}$$
Ini dia. Kami memiliki 2 persamaan dan 2 tidak diketahui.
Jelas kita harus tahu nilai$\hat{x_1}.\hat{x_2}$, dengan kata lain kosinus sudut di antara mereka, untuk mendapatkan hubungan yang diperlukan. Dalam kasus di mana$\hat{x_1}$dan$\hat{x_2}$adalah ortogonal,$cos \frac{\pi}{2}=0$dan karenanya hasil yang Anda berikan$\hat{\beta}_i = \hat{\gamma}_i$.