SVD: Pourquoi la matrice singulière droite est écrite comme transposée
Le SVD est toujours écrit comme,
A = U Σ V_Transpose
La question est: pourquoi la bonne matrice singulière est-elle écrite comme V_Transpose?
Je veux dire, disons, W = V_Transpose
puis écrivez SVD comme A = U Σ W
Crédit d'image SVD: https://youtu.be/P5mlg91as1c
Je vous remercie
Réponses
$V^T$ est la transposée hermitienne (la transposée conjuguée complexe) de $V$.
$V$ elle-même détient les vecteurs au singulier droit de $A$ qui sont les vecteurs propres (orthonormés) de $A^TA$; dans cette mesure:$A^TA = VS^2V^T$. Si nous écrivions$W = V^T$, puis $W$ ne représenteraient plus les vecteurs propres de $A^TA$. De plus, définir le SVD comme:$A = USV^T$ nous permet d'utiliser directement $U$ et $V$ diagonaliser la matrice au sens de $Av_i = s_iu_i$, pour $i\leq r$ où $r$ est le rang de $A$ (c'est à dire $AV = US$). Enfin en utilisant$USV^T$ simplifie également notre calcul dans le cas d'une matrice symétrique $A$ dans quel cas $U$ et $V$ coïncidera (jusqu'à un signe) et cela nous permettra de relier directement la décomposition singulière à la décomposition propre $A = Q \Lambda Q^T$. Pour être clair: " oui, en utilisant$V^T$ au lieu de $W = V^T$est un peu conventionnel "mais est utile.
Il est écrit comme une transposition pour des raisons algébriques linéaires.
Prenons le cas trivial de rang un $A = uv^T$, où $u$ et $v$sont, disons, des vecteurs unitaires. Cette expression vous dit qu'en tant que transformation linéaire,$A$ prend le vecteur $v$ à $u$, et le complément orthogonal de $v$à zéro. Vous pouvez voir comment la transposition apparaît naturellement.
Ceci est généralisé par le SVD, qui vous dit que toute transformation linéaire est une somme de ces cartes de rang un, et, de plus, vous pouvez faire en sorte que les sommations soient orthogonales. Plus précisément, la décomposition$$ A = U\Sigma V^T = \sum_{i = 1}^k \sigma_i u_i v_i^T $$ dit que, pour toute transformation linéaire $A$ sur $\mathbb{R}^n$ pour certains $n$ (plus généralement, tout opérateur compact sur un espace de Hilbert séparable), vous pouvez trouver des ensembles orthonormés $\{v_i\}$ et $\{u_i\}$ tel que
$\{v_i\}$ travées $\ker(A)^{\perp}$.
$A$ prend $v_i$ à $\sigma_i u_i$, pour chaque $i$.
Un cas particulier de ceci est la décomposition spectrale pour une matrice semi-définie positive $A$, où $U = V$ et le $u_i$sont les vecteurs propres de $A$--- les sommets $u_i u_i^T$sont des projections orthogonales de premier rang. Pour Hermitian$A$, $U$ est "presque égal" à $V$--- si la valeur propre correspondante est négative, il faut prendre $u_i = -v_i$ pour que $\sigma_i \geq 0$.
Ma réponse est bien plus bête que les autres ...
disons, W = V_Transpose
puis écrivez SVD comme A = U Σ W
avec cela, vous demandez au lecteur de mémoriser une autre variable ($W$) mais pour une expression simple comme $V^T$ ne vaut tout simplement pas la peine, l'OMI.