SVD: Por que a matriz singular direita é escrita como transposta
O SVD é sempre escrito como,
A = U Σ V_Transpose

A questão é: por que a matriz singular certa é escrita como V_Transpose?
Quer dizer, digamos, W = V_Transpose
e então escreva SVD como A = U Σ W
Crédito da imagem SVD: https://youtu.be/P5mlg91as1c
Obrigado
Respostas
$V^T$ é a transposta hermitiana (a transposta conjugada complexa) de $V$.
$V$ em si detém os vetores corretos do singular de $A$ que são os autovetores (ortonormais) de $A^TA$; nessa medida:$A^TA = VS^2V^T$. Se escrevêssemos$W = V^T$, então $W$ não representaria mais os vetores próprios de $A^TA$. Além disso, definir o SVD como:$A = USV^T$ nos permite usar diretamente $U$ e $V$ para diagonalizar a matriz no sentido de $Av_i = s_iu_i$, para $i\leq r$ Onde $r$ é a classificação de $A$ (ie $AV = US$) Finalmente usando$USV^T$ também simplifica nosso cálculo no caso de uma matriz simétrica $A$ em qual caso $U$ e $V$ coincidirá (até um sinal) e nos permitirá ligar diretamente a decomposição singular à decomposição própria $A = Q \Lambda Q^T$. Só para deixar claro: " sim, usando$V^T$ ao invés de $W = V^T$é um pouco convencional ", mas é útil.
É escrito como uma transposição por razões algébricas lineares.
Considere o caso trivial de classificação um $A = uv^T$, Onde $u$ e $v$são, digamos, vetores unitários. Esta expressão diz que, como uma transformação linear,$A$ pega o vetor $v$ para $u$, e o complemento ortogonal de $v$a zero. Você pode ver como a transposição aparece naturalmente.
Isso é generalizado pelo SVD, que diz a você que qualquer transformação linear é uma soma desses mapas de nível um e, o que é mais, você pode fazer com que a soma seja ortogonal. Especificamente, a decomposição$$ A = U\Sigma V^T = \sum_{i = 1}^k \sigma_i u_i v_i^T $$ diz que, para qualquer transformação linear $A$ em $\mathbb{R}^n$ para alguns $n$ (mais geralmente, qualquer operador compacto no espaço de Hilbert separável), você pode encontrar conjuntos ortonormais $\{v_i\}$ e $\{u_i\}$ de tal modo que
$\{v_i\}$ vãos $\ker(A)^{\perp}$.
$A$ leva $v_i$ para $\sigma_i u_i$, para cada $i$.
Um caso especial disso é a decomposição espectral para uma matriz semidefinida positiva $A$, Onde $U = V$ e a $u_i$são os vetores próprios de $A$--- os summands $u_i u_i^T$são projeções ortogonais de nível um. Para Hermitian$A$, $U$ é "quase igual" a $V$--- se o autovalor correspondente for negativo, deve-se tomar $u_i = -v_i$ de modo a $\sigma_i \geq 0$.
Minha resposta é muito mais burra do que as outras ...
digamos, W = V_Transpose
e então escreva SVD como A = U Σ W
com isso você está pedindo ao leitor para memorizar mais uma variável ($W$), mas para uma expressão simples como $V^T$ simplesmente não vale a pena, IMO.