SVD: Mengapa matriks singular kanan ditulis sebagai transpos
SVD selalu ditulis sebagai,
A = U Σ V_Transposisi

Pertanyaannya adalah, Mengapa matriks singular kanan ditulis sebagai V_Transpose?
Maksud saya katakanlah, W = V_Transpose
dan kemudian tulis SVD sebagai A = U Σ W
Kredit Gambar SVD: https://youtu.be/P5mlg91as1c
Terima kasih
Jawaban
$V^T$ adalah transpos Hermitian (transpos konjugat kompleks) dari $V$.
$V$ itu sendiri memegang vektor kanan-tunggal $A$ itu adalah vektor eigen (orthonormal) dari $A^TA$; sejauh itu:$A^TA = VS^2V^T$. Jika kami menulis$W = V^T$, kemudian $W$ tidak lagi mewakili vektor eigen dari $A^TA$. Selain itu, mendefinisikan SVD sebagai:$A = USV^T$ memungkinkan kita untuk langsung menggunakan $U$ dan $V$ untuk mendiagonalisasi matriks dalam arti $Av_i = s_iu_i$, untuk $i\leq r$ dimana $r$ adalah pangkat $A$ (yaitu $AV = US$). Akhirnya menggunakan$USV^T$ juga menyederhanakan kalkulasi kita dalam kasus matriks simetris $A$ dalam hal ini $U$ dan $V$ akan bertepatan (hingga tanda) dan itu akan memungkinkan kita untuk secara langsung menghubungkan dekomposisi singular ke dekomposisi eigen $A = Q \Lambda Q^T$. Hanya untuk memperjelas: " ya, menggunakan$V^T$ dari pada $W = V^T$adalah sedikit konvensi "tetapi bermanfaat.
Ini ditulis sebagai transpos untuk alasan aljabar linier.
Pertimbangkan kasus peringkat satu yang sepele $A = uv^T$, dimana $u$ dan $v$adalah, katakanlah, vektor satuan. Ekspresi ini memberi tahu Anda bahwa, sebagai transformasi linier,$A$ mengambil vektor $v$ untuk $u$, dan pelengkap ortogonal $v$ke nol. Anda dapat melihat bagaimana transpose muncul secara alami.
Ini digeneralisasikan oleh SVD, yang memberi tahu Anda bahwa setiap transformasi linier adalah penjumlahan dari peta peringkat satu, dan, terlebih lagi, Anda dapat mengatur penjumlahan menjadi ortogonal. Secara khusus, dekomposisi$$ A = U\Sigma V^T = \sum_{i = 1}^k \sigma_i u_i v_i^T $$ mengatakan itu, untuk transformasi linier apa pun $A$ di $\mathbb{R}^n$ untuk beberapa $n$ (lebih umum, setiap operator kompak pada ruang Hilbert yang dapat dipisahkan), Anda dapat menemukan set ortonormal $\{v_i\}$ dan $\{u_i\}$ seperti yang
$\{v_i\}$ rentang $\ker(A)^{\perp}$.
$A$ mengambil $v_i$ untuk $\sigma_i u_i$, untuk setiap $i$.
Kasus khusus dari ini adalah dekomposisi spektral untuk matriks semidefinit positif $A$, dimana $U = V$ dan $u_i$adalah vektor eigen dari $A$--- perintahnya $u_i u_i^T$adalah proyeksi ortogonal peringkat satu. Untuk Hermitian$A$, $U$ "hampir sama" dengan $V$--- jika nilai eigen yang sesuai adalah negatif, harus diambil $u_i = -v_i$ yang seperti itu $\sigma_i \geq 0$.
Jawaban saya jauh lebih bodoh dari yang lain ...
katakanlah, W = V_Transpose
dan kemudian tulis SVD sebagai A = U Σ W
dengan itu Anda meminta pembaca untuk menghafal satu variabel lagi ($W$) tetapi untuk ekspresi sederhana seperti $V^T$ tidak sepadan, IMO.