SVD: Perché la matrice singolare destra è scritta come trasposizione
L'SVD è sempre scritto come,
A = U Σ V_Transpose

La domanda è: perché la matrice singolare giusta è scritta come V_Transpose?
Voglio dire, diciamo, W = V_Transpose
e poi scrivi SVD come A = U Σ W
Credito immagine SVD: https://youtu.be/P5mlg91as1c
Grazie
Risposte
$V^T$ è la trasposizione Hermitiana (la complessa trasposizione coniugata) di $V$.
$V$ esso stesso contiene i vettori singolari di destra $A$ che sono gli autovettori (ortonormali) di $A^TA$; fino a quel punto:$A^TA = VS^2V^T$. Se abbiamo scritto$W = V^T$, poi $W$ non rappresenterebbe più gli autovettori di $A^TA$. Inoltre, definendo SVD come:$A = USV^T$ ci permette di utilizzare direttamente $U$ e $V$ per diagonalizzare la matrice nel senso di $Av_i = s_iu_i$, per $i\leq r$ dove $r$ è il grado di $A$ (es $AV = US$). Infine usando$USV^T$ semplifica anche il nostro calcolo nel caso di una matrice simmetrica $A$ in quale caso $U$ e $V$ coinciderà (fino a un segno) e ci permetterà di collegare direttamente la decomposizione singolare alla decomposizione autogena $A = Q \Lambda Q^T$. Giusto per essere chiari: " sì, usando$V^T$ invece di $W = V^T$è un po 'una convenzione "ma è utile.
È scritto come una trasposizione per ragioni algebriche lineari.
Considera il banale caso di primo grado $A = uv^T$, dove $u$ e $v$sono, diciamo, vettori unitari. Questa espressione ti dice che, come trasformazione lineare,$A$ prende il vettore $v$ per $u$e il complemento ortogonale di $v$a zero. Puoi vedere come la trasposizione si presenta in modo naturale.
Questo è generalizzato dall'SVD, che ti dice che qualsiasi trasformazione lineare è una somma di tali mappe di rango uno e, per di più, puoi fare in modo che i sommatori siano ortogonali. Nello specifico, la decomposizione$$ A = U\Sigma V^T = \sum_{i = 1}^k \sigma_i u_i v_i^T $$ lo dice, per qualsiasi trasformazione lineare $A$ sopra $\mathbb{R}^n$ per alcuni $n$ (più in generale, qualsiasi operatore compatto su uno spazio di Hilbert separabile), puoi trovare insiemi ortonormali $\{v_i\}$ e $\{u_i\}$ tale che
$\{v_i\}$ campate $\ker(A)^{\perp}$.
$A$ prende $v_i$ per $\sigma_i u_i$, per ciascuno $i$.
Un caso speciale di questo è la decomposizione spettrale per una matrice semidefinita positiva $A$, dove $U = V$ e il $u_i$Sono gli autovettori di $A$--- le somme $u_i u_i^T$sono proiezioni ortogonali di rango uno. Per Hermitian$A$, $U$ è "quasi uguale" a $V$--- se il corrispondente autovalore è negativo, bisogna prendere $u_i = -v_i$ così che $\sigma_i \geq 0$.
La mia risposta è molto più stupida delle altre ...
diciamo, W = V_Transpose
e poi scrivi SVD come A = U Σ W
con ciò chiedi al lettore di memorizzare un'altra variabile ($W$) ma per una semplice espressione come $V^T$ semplicemente non ne vale la pena, IMO.