SVD: Perché la matrice singolare destra è scritta come trasposizione

Aug 18 2020

L'SVD è sempre scritto come,

A = U Σ V_Transpose

La domanda è: perché la matrice singolare giusta è scritta come V_Transpose?

Voglio dire, diciamo, W = V_Transpose

e poi scrivi SVD come A = U Σ W

Credito immagine SVD: https://youtu.be/P5mlg91as1c

Grazie

Risposte

4 usεr11852 Aug 18 2020 at 20:37

$V^T$ è la trasposizione Hermitiana (la complessa trasposizione coniugata) di $V$.

$V$ esso stesso contiene i vettori singolari di destra $A$ che sono gli autovettori (ortonormali) di $A^TA$; fino a quel punto:$A^TA = VS^2V^T$. Se abbiamo scritto$W = V^T$, poi $W$ non rappresenterebbe più gli autovettori di $A^TA$. Inoltre, definendo SVD come:$A = USV^T$ ci permette di utilizzare direttamente $U$ e $V$ per diagonalizzare la matrice nel senso di $Av_i = s_iu_i$, per $i\leq r$ dove $r$ è il grado di $A$ (es $AV = US$). Infine usando$USV^T$ semplifica anche il nostro calcolo nel caso di una matrice simmetrica $A$ in quale caso $U$ e $V$ coinciderà (fino a un segno) e ci permetterà di collegare direttamente la decomposizione singolare alla decomposizione autogena $A = Q \Lambda Q^T$. Giusto per essere chiari: " sì, usando$V^T$ invece di $W = V^T$è un po 'una convenzione "ma è utile.

6 Michael Aug 18 2020 at 22:21

È scritto come una trasposizione per ragioni algebriche lineari.

Considera il banale caso di primo grado $A = uv^T$, dove $u$ e $v$sono, diciamo, vettori unitari. Questa espressione ti dice che, come trasformazione lineare,$A$ prende il vettore $v$ per $u$e il complemento ortogonale di $v$a zero. Puoi vedere come la trasposizione si presenta in modo naturale.

Questo è generalizzato dall'SVD, che ti dice che qualsiasi trasformazione lineare è una somma di tali mappe di rango uno e, per di più, puoi fare in modo che i sommatori siano ortogonali. Nello specifico, la decomposizione$$ A = U\Sigma V^T = \sum_{i = 1}^k \sigma_i u_i v_i^T $$ lo dice, per qualsiasi trasformazione lineare $A$ sopra $\mathbb{R}^n$ per alcuni $n$ (più in generale, qualsiasi operatore compatto su uno spazio di Hilbert separabile), puoi trovare insiemi ortonormali $\{v_i\}$ e $\{u_i\}$ tale che

  1. $\{v_i\}$ campate $\ker(A)^{\perp}$.

  2. $A$ prende $v_i$ per $\sigma_i u_i$, per ciascuno $i$.

Un caso speciale di questo è la decomposizione spettrale per una matrice semidefinita positiva $A$, dove $U = V$ e il $u_i$Sono gli autovettori di $A$--- le somme $u_i u_i^T$sono proiezioni ortogonali di rango uno. Per Hermitian$A$, $U$ è "quasi uguale" a $V$--- se il corrispondente autovalore è negativo, bisogna prendere $u_i = -v_i$ così che $\sigma_i \geq 0$.

dariober Aug 19 2020 at 08:26

La mia risposta è molto più stupida delle altre ...

diciamo, W = V_Transpose

e poi scrivi SVD come A = U Σ W

con ciò chiedi al lettore di memorizzare un'altra variabile ($W$) ma per una semplice espressione come $V^T$ semplicemente non ne vale la pena, IMO.